タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

dlに関するakrtakのブックマーク (1)

  • 人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+

    【特集】「『予測』という名の欲望」全記事はこちらから読めます ■人間にはAIの考えが分からない? ――ディープラーニングは、大量の「教師データ」を読み込み、入力する変数と、出力する変数との間の関係を見つけ出します。その関係が分かれば、新たなデータを入力したとき、出力が予測できるというわけですが、なぜ人間はそのプロセスを理解できないのでしょうか? おもにふたつの要因があります。質的なものと、量的なものです。量的な問題は、すごくシンプルです。ディープラーニングの内部で動くパラメータ(母数:システムの内部で動く情報)が多すぎるので、その大量・複雑なデータを人間の直感につなげることが難しい、という話です。最近は、多いものでは1億個を超えるパラメータから出力を予測します。じゃあ、その1億個をざっと人間が見てなにか分かるのかといえば、分からない。これが基的に起こることです。 ――大量の変数という意味

    人間が深層学習のAIを理解できないのには、理由がある:朝日新聞GLOBE+
    akrtak
    akrtak 2019/11/16
    わかりやすい
  • 1