Skip to content

Latest commit

 

History

History
31 lines (15 loc) · 1.87 KB

tflite.md

File metadata and controls

31 lines (15 loc) · 1.87 KB

Title

TensorFlow Lite, AutoML and Edge TPU: accelerating your mobile and edge devices with the power of AI

Title (JP)

TensorFlow Lite、AutoML、Edge TPUで加速するエッジデバイスの機械学習

Session duration

about 45 min

Video

Google I/O session YouTube video

Target audience and level

Smart phone developers, embedded system designers. Intermediate level (requires no ML expertise)

Short agenda

TensorFlow Lite is TensorFlow’s lightweight solution for Android, iOS and embedded devices. It enables on-device machine learning inference with low latency and a small binary size. TensorFlow Lite also supports hardware acceleration with the Android Neural Networks API and Apple Core ML. Google also developed Edge TPU, a specialized micro processor for ML prediction at edge devices. In this session, we will discuss how developers can use TensorFlow Lite and Edge TPU to overcome the challenges for bringing the latest AI technology to production mobile apps and embedded systems.

Abstract (JP):

機械学習のエッジデバイス導入におけるの大きな課題は、ニューラルネットワークのモデルサイズとCPU消費です。Googleでは、これらの問題を解消する技術として、エッジデバイス向けの機械学習フレームワーク「TensorFlow Lite」と、そして低消費電力の推論プロセッサ「Edge TPU」を開発しました。このセッションでは、 TensorFlow LiteやEdge TPUを用いてモバイルアプリやエッジデバイスに最新のAIを導入するための課題や各種手法を解説します。また機械学習モデルの作成を自動化するAutoML Vision Edgeを利用し、モバイルアプリやエッジデバイス向けの機械学習モデルをプログラミングレスで作成する例を紹介します。