エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
「見ている」物を合成音声で説明する「目玉」を作ってみる——ラズパイとOpenAI APIを活用|fabcross
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
「見ている」物を合成音声で説明する「目玉」を作ってみる——ラズパイとOpenAI APIを活用|fabcross
3Dプリント製の動眼が「見ている」物をOpenAI APIを活用して認識し、その結果を合成音声で読み上げるデ... 3Dプリント製の動眼が「見ている」物をOpenAI APIを活用して認識し、その結果を合成音声で読み上げるデバイスをRaspberry Pi公式ブログが紹介した。 このデバイスは、Raspberry Pi Zero 2 W、Raspberry Piカメラモジュール、目玉部分の円盤に加え、モーター制御用のPimoroni製「Inventor HAT Mini」、モーター、スピーカー等で構成。白目を模した白い円盤と黒目(瞳孔部分)を模した黒い円盤がセットで1つの動く「目玉」となり、計2つの目玉が使用されている。 デスクトップ上のマウスカーソルの動きを黒目が追うアプリケーション「xeyes」の動眼のようにも見えるデバイスだが、実際に対象物を「見て」いるのは、2つの目玉の間に配置されたRaspberry Piカメラモジュールだ。