以下の内容はhttps://vengineer.hatenablog.com/entry/71947703より取得しました。


TensorFlow Lite でGPU利用



TensorFlow Liteで GPU 利用で、推論が速くなるというもの。

ただし、OpenCL を使うのではなく、OpenGL ES 3.1を使うと。

Google Pixel 2/3 が OpenCL使えないんですね。


TensorFlow Liteのコードは、


////////
// Set up interpreter.
auto model = FlatBufferModel::BuildFromFile(model_path);
ops::builtin::BuiltinOpResolver op_resolver;
std::unique_ptr<Interpreter> interpreter;
InterpreterBuilder(*model, op_resolver)(&interpreter);

////////
// NEW: Prepare GPU delegate.
auto* delegate = TfLiteGpuDelegateCreate(/*options=*/nullptr);
if (interpreter->ModifyGraphWithDelegate(delegate) != kTfLiteOk) return;

////////
// Run inference.
WriteToInputTensor(interpreter->typed_input_tensor<float>(0));
if (interpreter->Invoke() != kTfLiteOk) return;
ReadFromOutputTensor(interpreter->typed_output_tensor<float>(0));

////////
// Clean up.
TfLiteGpuDelegateDelete(delegate);



以上の内容はhttps://vengineer.hatenablog.com/entry/71947703より取得しました。
このページはhttp://font.textar.tv/のウェブフォントを使用してます

不具合報告/要望等はこちらへお願いします。
モバイルやる夫Viewer Ver0.14