本日の話はたわごとであるが、それなりに面白いような気がするので書く。音声認識とインタフェースに関する話である。 とある人に音声認識についていろいろと聞かれた。その人はほとんど音声認識について技術的な知識がなく、質問は「今どこまで音声認識はできているのか」という抽象的なところから始まった。その後、話はいろいろと飛んだのだが、最後にその人ならではの視点からの質問が来た。こんな質問である。 「パソコンのキーボードはとても打ちづらい配置になっているが、人はそれに適応した。つまり、人が道具に合わせた。音声認識でも人が道具に合わせることは可能なのか? つまり、音声認識に合わせた人工言語を作ることは可能なのか?」 最初私は直感的に不可能だと感じたが、数秒考えて「あるといえばある」ということを答えた。音声認識が苦手なのは、子音と子音に伴う無音区間の扱いである。無音区間というのは単語と単語の間とかいう意味で