要在C++中调用TensorFlow模型,可以使用TensorFlow C++ API。以下是一个简单的示例代码,演示如何加载和运行一个TensorFlow模型:
#include <iostream>
#include "tensorflow/core/public/session.h"
#include "tensorflow/core/platform/env.h"
#include "tensorflow/core/framework/tensor.h"
using namespace std;
using namespace tensorflow;
int main() {
// 创建一个新的会话
Session* session;
Status status = NewSession(SessionOptions(), &session);
if (!status.ok()) {
cerr << status.ToString() << endl;
return 1;
}
// 读取模型文件
GraphDef graph_def;
status = ReadBinaryProto(Env::Default(), "path/to/your/model.pb", &graph_def);
if (!status.ok()) {
cerr << status.ToString() << endl;
return 1;
}
// 将模型加载到会话中
status = session->Create(graph_def);
if (!status.ok()) {
cerr << status.ToString() << endl;
return 1;
}
// 创建输入 tensor
Tensor input(DT_FLOAT, TensorShape({1, 2}));
auto input_tensor = input.flat<float>();
input_tensor(0) = 1.0;
input_tensor(1) = 2.0;
// 运行模型
vector<pair<string, Tensor>> inputs = {{"input", input}};
vector<Tensor> outputs;
status = session->Run(inputs, {"output"}, {}, &outputs);
if (!status.ok()) {
cerr << status.ToString() << endl;
return 1;
}
// 输出结果
auto output_tensor = outputs[0].flat<float>();
cout << "Output: " << output_tensor(0) << endl;
// 关闭会话
session->Close();
return 0;
}
在这个示例中,我们首先创建一个新的会话,然后读取模型文件并将模型加载到会话中。接下来,我们创建输入tensor,将输入数据填充到tensor中,并通过session->Run()方法来运行模型。最后,我们输出模型的预测结果并关闭会话。
请注意,以上示例代码仅供参考,实际应用中可能需要根据具体模型和数据进行适当的调整。