タグ

言語とAIに関するebmgsd1235のブックマーク (1)

  • ハルシネーション (人工知能) - Wikipedia

    『ニューヨーク・タイムズ』の実在しない記事を要約するChatGPT ハルシネーション (英語: hallucination) とは、人工知能が学習したデータからは正当化できないはずの回答を堂々とする現象である[1]。この語は幻覚を意味する語から取られたもので、人工知能が幻覚を見ているかのように回答することから付けられた[2]。作話 (confabulation)[3] や、妄想 (delusion)[4] などの表現も使われることがある。 概要[編集] 例えば、テスラの収益に関する知識がないチャットボットがハルシネーションに陥ると、もっともらしいと判断したランダムな数字(130.6億ドルのような)を内部的にピックアップして、間違っているにもかかわらずテスラの収益は130.6億ドルだと繰り返すようになる。そしてこのとき、人工知能の内部ではこの数字が自身の創造の産物だということに気付いている兆

    ハルシネーション (人工知能) - Wikipedia
    ebmgsd1235
    ebmgsd1235 2023/10/15
    人間の幻覚(対象なき知覚)とは違い「どのような学習データとも整合しない回答をAIが堂々とすることである。そのため、幻覚ではなく作話(confabulation)という表現を好んで使う研究者もいる」ハルシネーション、LLM。
  • 1