Google人工知能開発キットAIYプロジェクトが控えめに香港で発表されました!

今日、AIは間違いなく最もホットな分野です。2017年、Googleは新しいオープンソースプロジェクトであるAIYプロジェクト(AIYプロジェクト)を公式にリリースしました。その目標は、すべてのメーカー(メーカー)が独自のAI人工知能製品をDIYできるようにし、より多くの人々が学習、探索、体験できるようにすることです。人工知能。その中でも、Voice Kitは音声認識開発ツールで、ユーザーはGoogle Assistant SDKを使用してRaspberry Piを音声コントロールアシスタントに変えることができます。Vision Kitは、TensorFlow機械学習モデルでサポートされている画像認識開発ツールで、オフライン認識をサポートしています。最近、AIYシリーズのキットが香港で最初に発売されたことが報告されています。

 

小型で大きな成果、誰もが人工知能を利用できるようにする

1. AIY音声キット

AIY Voice Kitは、音声ツールとして、Google Assistant SDKやCloud Speech APIなどのクラウドサービスに接続できます。独自のシステムを使用することもできます。独自のシステムは非常にシンプルであり、世界中で人気のあるRaspberry Piです。 。ユーザーはこれに基づいて仮想音声アシスタントを作成し、プロジェクトに音声対話機能を追加できます。音声キットの構成には、主にサウンドキャプチャ、再生アクセサリ、非常に使いやすいコネクタ、ドーターボード、スピーカー、マイクロサーボシステムなどが含まれます。

 

音声キットの主な機能と機能:

物理的なキーとディスプレイを置き換えることができます。

接続されたデバイスを制御するためにスマートフォンAPPを置き換えることができます。

・アシスタントロボットに音声認識を追加できます。

2. AIYビジョンキット

AIY Vision Kitの主要コンポーネントは、Raspberry PiのVision Bonnetアクセサリボードです。このコンポーネントの低電力ビジョン処理ユニットは、デバイスでニューラルネットワークモデルを実行できます。含まれているソフトウェアは、TensorFlowに基づく3つのニューラルネットワークを実行します。1つはMobileNetsプラットフォームに基づいており、毎日1000を超えるオブジェクトを識別できます。2つ目は、画像内の顔や表情を見つけることができます。最後の1つは、猫、犬、人を区別するための専用のニューラルネットワークです。

 

Googleは、ユーザーがTensorFlowを使用して新しいモデルをトレーニングできるようにするAIY Vision Kit用のツールも作成しました。このキットは、ボタンのLEDの色の変更、スピーカーの音量の調整などの基本的な変更を行うPython APIをサポートしています。

北米が発売され次第完売!Google AIYはどれほどすばらしいですか。

AIY Voice Kitは、Google Assistant SDKとCloud Speech APIを使用して、Raspberry Pi 3を音声デジタルアシスタントに変換できます。ユーザーはこれに基づいて仮想音声アシスタントを作成し、プロジェクトに音声対話機能を追加できます。また、GoogleはVoice Kitのいくつかの使用シナリオを非常に密接に提供しており、ライトや電気スイッチなどのオン/オフを制御しています。Googleが提供する技術ドキュメントとデモンストレーションを通じて、多くのユーザーが独自のAI音声アシスタントを構築できると思います。

 

 

ビジョンキットは、デバイスにニューラルネットワークアクセラレーションを提供するGoogleの最初のプロジェクトであり、クラウドに接続せずにコンピュータービジョンのサポートを提供できます。そのキット機能も非常に豊富で、ユーザーは自分でさまざまな機能を開発できます。たとえば、さまざまな動植物の種の識別、ペットの動きの記録、車両の出入りの記録、訪問者、または部外者が部屋に入るときなどに使用できます。アラームなどを鳴らします。自宅で人工知能カメラを作ったら、外出時に友達に自慢できます。

 

Vision KitとVoice Kitは香港のGravitylink Store販売されており、価格はそれぞれHK $ 706とHK $ 392です。

一部の読者がこの製品を購入して独自のアプリケーションを開発した場合は、操作プロセスと結果を共有することを楽しみにしています。

おすすめ

転載: blog.csdn.net/gravitylink/article/details/88572957