GoogleのAIカメラDIYキットはRaspberry Piを活用、5000円の自分専用機械学習機!

Googleは11月30日、ラズベリー・パイ・ゼロ(Raspberry Pi Zero)Wボードを活用するAIカメラ「AIY Visionキット」を発表した。
Visionキットは、ローカルでニューラルネットワークモデルが活用でき、クラウドへの接続を必要としない。そしてなんと、プリセットされたモデルだけでなく、機械学習により独自のモデル追加が可能だ。
VisionキットではRaspberry Piを活かした連携が肝となる。その使い方および機能を見ていこう。
・TensorFlowベースのツールで機械学習

独自のニューラルネットワークモデルのトレーニングおよび再学習には、ソフトウェアに組み込まれたTensorFlowベースのツールを使用する。
Googleの開発者ブログには活用例として、ホットドックかそうでないかを見分けたり、誰かが部屋に入ってきたら音楽を変えたり、彼女が家に帰ってきたら犬用のドアを開けたり…といったものが挙げられていて、工夫次第でさまざまな連携が実現しそうだ。
・アクションはPython APIで管理

また、音声認識に興味がある方には、同じGoogleのAIYプロジェクトから、音声認識をローカルで学習させられる「Voiceキット」もすでにリリース済みとなっていて、もちろんこちらもVisionキットとの連携が可能だ。
ちなみに、45ドル(約5000円)のVisionキットには、別売のRaspberry Pi Zero Wボード、Raspberry Pi Camera 2およびMicro SDカードが必要となる。
・ローカル機械学習は民主化の兆し
Visionキットに関しては、今のところアメリカのMicro Centerへ直接行くしか入手方法がなく、現地に友人がいない方は日本でのリリースを待つしかないだろう。
一方、Amazonも先日行われた年次カンファレンス「re:Ivent」にて、映像撮影対象に関してローカルで機械学習を走らせることができる「DeepLens」を発表している。
こうしたローカルでの機械学習は、生活を大変便利にするだけでなく、サービスの質を劇的に高めるもので、今後も類似プロダクトのリリースが相次ぐと予想される。
参照:Google’s new kit uses Raspberry Pi to bring image recognition to your project/DIGITAL TRENDS
参照:Introducing the AIY Vision Kit: Add computer vision to your maker projects/Google Developers

ウェブサイト: https://techable.jp/
- ガジェット通信編集部への情報提供はこちら
- 記事内の筆者見解は明示のない限りガジェット通信を代表するものではありません。