TensorFlow.NET(TF.NET)是为.NET Standard提供的TensorFlow绑定库,旨在为.NET开发者提供完整的TensorFlow API实现。它允许.NET开发者使用跨平台的.NET Standard框架来开发、训练和部署机器学习模型。TensorFlow.NET内置了Keras高级接口,并作为独立的TensorFlow.Keras包发布。
TensorFlow.NET是SciSharp STACK项目的重要组成部分,其使命是将流行的数据科学技术引入.NET世界,为.NET开发者提供强大的机器学习工具集,而无需重新发明轮子。由于API尽可能保持相似,用户可以立即将任何现有的TensorFlow Python代码适配到C#或F#,几乎不需要学习成本。
与其他项目相比,TensorFlow.NET具有以下优势:
完整的API支持:TensorFlow.NET不仅提供TensorFlow的低级C++ API,还可以使用纯C#和F#构建训练和推理的完整流程。
Keras支持:TensorFlow.NET提供了Tensorflow.Keras的绑定,使从Python到.NET的代码迁移变得更加容易。
ML.NET集成:ML.NET将TensorFlow.NET作为后端之一来训练和推理模型,提供更好的.NET集成。
高效性能:TensorFlow.NET直接从C#到C代码,绕过Python,提高了效率。
跨平台支持:.NET Standard确保了跨平台兼容性。
要开始使用TensorFlow.NET,您需要安装两个部分:主体和计算支持部分。
使用NuGet包管理器控制台安装TensorFlow.NET和TensorFlow.Keras:
PM> Install-Package TensorFlow.NET
PM> Install-Package TensorFlow.Keras
根据您的设备和系统,选择以下包之一:
# CPU版本(Windows和Linux)
PM> Install-Package SciSharp.TensorFlow.Redist
# CPU版本(MacOS)
PM> Install-Package SciSharp.TensorFlow.Redist-OSX
# GPU版本(Windows,需要CUDA和cuDNN)
PM> Install-Package SciSharp.TensorFlow.Redist-Windows-GPU
# GPU版本(Linux,需要CUDA和cuDNN)
PM> Install-Package SciSharp.TensorFlow.Redist-Linux-GPU
以下是两个简单的示例,展示了TensorFlow.NET的基本用法。这些示例展示了如何像编写Python代码一样轻松地编写C#代码。
using static Tensorflow.Binding; using static Tensorflow.KerasApi; using Tensorflow; using Tensorflow.NumPy; // 参数设置 var training_steps = 1000; var learning_rate = 0.01f; var display_step = 100; // 样本数据 var X = np.array(3.3f, 4.4f, 5.5f, 6.71f, 6.93f, 4.168f, 9.779f, 6.182f, 7.59f, 2.167f, 7.042f, 10.791f, 5.313f, 7.997f, 5.654f, 9.27f, 3.1f); var Y = np.array(1.7f, 2.76f, 2.09f, 3.19f, 1.694f, 1.573f, 3.366f, 2.596f, 2.53f, 1.221f, 2.827f, 3.465f, 1.65f, 2.904f, 2.42f, 2.94f, 1.3f); var n_samples = X.shape[0]; // 设置初始值 var W = tf.Variable(-0.06f, name: "weight"); var b = tf.Variable(-0.73f, name: "bias"); var optimizer = keras.optimizers.SGD(learning_rate); // 运行训练步骤 foreach (var step in range(1, training_steps + 1)) { // 使用GradientTape进行自动微分 using var g = tf.GradientTape(); // 线性回归(Wx + b) var pred = W * X + b; // 均方误差 var loss = tf.reduce_sum(tf.pow(pred - Y, 2)) / (2 * n_samples); // 计算梯度 var gradients = g.gradient(loss, (W, b)); // 更新W和b optimizer.apply_gradients(zip(gradients, (W, b))); if (step % display_step == 0) { pred = W * X + b; loss = tf.reduce_sum(tf.pow(pred - Y, 2)) / (2 * n_samples); print($"step: {step}, loss: {loss.numpy()}, W: {W.numpy()}, b: {b.numpy()}"); } }
using static Tensorflow.Binding; using static Tensorflow.KerasApi; using Tensorflow; using Tensorflow.NumPy; var layers = keras.layers; // 输入层 var inputs = keras.Input(shape: (32, 32, 3), name: "img"); // 卷积层 var x = layers.Conv2D(32, 3, activation: "relu").Apply(inputs); x = layers.Conv2D(64, 3, activation: "relu").Apply(x); var block_1_output = layers.MaxPooling2D(3).Apply(x); x = layers.Conv2D(64, 3, activation: "relu", padding: "same").Apply(block_1_output); x = layers.Conv2D(64, 3, activation: "relu", padding: "same").Apply(x); var block_2_output = layers.Add().Apply(new Tensors(x, block_1_output)); x = layers.Conv2D(64, 3, activation: "relu", padding: "same").Apply(block_2_output); x = layers.Conv2D(64, 3, activation: "relu", padding: "same").Apply(x); var block_3_output = layers.Add().Apply(new Tensors(x, block_2_output)); x = layers.Conv2D(64, 3, activation: "relu").Apply(block_3_output); x = layers.GlobalAveragePooling2D().Apply(x); x = layers.Dense(256, activation: "relu").Apply(x); x = layers.Dropout(0.5f).Apply(x); // 输出层 var outputs = layers.Dense(10).Apply(x); // 构建Keras模型 var model = keras.Model(inputs, outputs, name: "toy_resnet"); model.summary(); // 在TensorFlow静态图中编译Keras模型 model.compile(optimizer: keras.optimizers.RMSprop(1e-3f), loss: keras.losses.SparseCategoricalCrossentropy(from_logits: true), metrics: new[] { "acc" }); // 准备数据集 var ((x_train, y_train), (x_test, y_test)) = keras.datasets.cifar10.load_data(); // 归一化输入 x_train = x_train / 255.0f; // 训练 model.fit(x_train[new Slice(0, 2000)], y_train[new Slice(0, 2000)], batch_size: 64, epochs: 10, validation_split: 0.2f); // 保存模型 model.save("./toy_resnet_model");
TensorFlow.NET与TensorFlow原生库和CUDA版本有着密切的对应关系。以下是一些主要版本的对应关系:
TensorFlow.NET是一个开源项目,欢迎社区成员参与贡献。以下是一些贡献的方式:
对于想要调试单元测试的贡献者,最好的方法是同时单步执行C#或F#和相应的Python代码,以查看执行流程的差异或变量值的不同。
TensorFlow.NET是SciSharp STACK的一部分,旨在为.NET开发者提供全面的科学计算和机器学习工具。
如果您有任何问题或建议,可以通过以下方式与我们联系:
此外,为了使开源项目可持续发展,您可以购买我们的书籍TensorFlow.NET实战来支持我们的工作。
TensorFlow.NET为.NET开发者打开了机器学习和深度学习的大门,让他们能够利用TensorFlow强大的功能,同时保持在熟悉的.NET环境中工作。无论您是机器学习新手还是经验丰富的数据科学家,TensorFlow.NET都为您提供了在.NET生态系统中探索和应用最新AI技术的机会。🚀🧠💻