TensorFlow Lite, AutoML and Edge TPU: accelerating your mobile and edge devices with the power of AI
TensorFlow Lite、AutoML、Edge TPUで加速するエッジデバイスの機械学習
about 45 min
Google I/O session YouTube video
Smart phone developers, embedded system designers. Intermediate level (requires no ML expertise)
TensorFlow Lite is TensorFlow’s lightweight solution for Android, iOS and embedded devices. It enables on-device machine learning inference with low latency and a small binary size. TensorFlow Lite also supports hardware acceleration with the Android Neural Networks API and Apple Core ML. Google also developed Edge TPU, a specialized micro processor for ML prediction at edge devices. In this session, we will discuss how developers can use TensorFlow Lite and Edge TPU to overcome the challenges for bringing the latest AI technology to production mobile apps and embedded systems.
機械学習のエッジデバイス導入におけるの大きな課題は、ニューラルネットワークのモデルサイズとCPU消費です。Googleでは、これらの問題を解消する技術として、エッジデバイス向けの機械学習フレームワーク「TensorFlow Lite」と、そして低消費電力の推論プロセッサ「Edge TPU」を開発しました。このセッションでは、 TensorFlow LiteやEdge TPUを用いてモバイルアプリやエッジデバイスに最新のAIを導入するための課題や各種手法を解説します。また機械学習モデルの作成を自動化するAutoML Vision Edgeを利用し、モバイルアプリやエッジデバイス向けの機械学習モデルをプログラミングレスで作成する例を紹介します。