対象者: 国内技術担当ディレクター
[Bjørn Karmann] の Objectifier は、機械学習とコンピューター ビジョンを使用して、家庭内のオブジェクトを独自のアクションや動作に反応させることで制御できるデバイスです。 Objectifier は、本を開くとテーブル ランプをオンにし、本を閉じるとオフにすることができます。 マグカップをポットの横に置くとコーヒーメーカーのスイッチが入り、マグカップを外すとスイッチが切れます。 安全メガネを着用するときにベルトサンダーの電源を入れ、メガネを外すときにベルトサンダーを停止します。 携帯電話の前にバナナを置くと充電し、前にリンゴを置くと充電を停止します。 あなたはドリフトを理解します - 可能性は無限です。 (近い) 将来、私たちがこの方法で無生物と対話できるようになることを願っています。 私たちがプログラムの仕方を学ぶのではなく、私たちの行動から彼らに学んでもらうことができます。
このデバイスは、コンピューター ビジョンとニューラル ネットワークを使用して、トリガー コマンドに関連付けられた複雑な動作を学習します。 電話アプリを使用したトレーニング モードでは、オンとオフのアクションをトレーニングできます。 開いた本と閉じた本を検出するなど、一部のアクションではトレーニングに人間の労力が必要になりますが、最終的にはニューラル ネットワークがかなり適切に機能します。
現在のバージョンはシリーズの 6 番目のプロトタイプであり、[Bjørn] は各段階でプロジェクトを改良するためにかなりの労力を費やしました。 最新のアバターでは、デバイスのハードウェアは、Pi Zero、Raspberry-Pi カメラ モジュール、SMPS 電源ブリック、出力を切り替えるリレー ブロック、入力電源用の 230 V プラグ、最終電源用の 230 V ソケット コンセントで構成されています。出力。 すべてのパーツは、レーザーカットされたアクリル製のサポートピースを使用してきれいに組み立てられ、さらに素敵な木製の筐体に収められています。
ソフトウェア側では、すべての機械学習部分は「Wekinator」を使用して処理されます。Wekinator は、機械学習を使用して楽器、ジェスチャー ゲーム コントローラー、コンピューター ビジョン、またはコンピューター リスニング システムを構築できる無料のオープンソース ソフトウェアです。 コンピューター ビジョンは、Processing によって処理されます。 すべてのコードは openframeworks を使用してラップされており、ml4A は機械学習を操作するためのアプリを提供します。
上記はすべて、彼のブログ投稿の写真と情報を見て推測できることです。 ハードウェアに関する詳細はあまりありませんが、写真を見るだけですべてがわかります。 このソフトウェアは公開されていませんが、もしかしたらこれをきっかけにハッカーが別のバージョンの Objectifier を構築するようになるかもしれません。 休憩の後に、人間が Objectifier にトリックを教える様子を映したビデオをご覧ください。