チャットGPTなどに代表される、大規模言語モデルを活用した生成AIは、大量のデータとディープラーニング(深層学習)技術によって構築された言語モデルだ。
その精度は更に向上し、まるでこの世界のことを正確に理解しているかのように思える。だが、本当に理解しているのだろうか?
米国マサチューセッツ工科大学(MIT)の研究チームによると、AIが生成する世界モデルはまるで一貫性がないことがわかったという。
References: Can Language Models Really Understand? Study Uncovers Limits in AI Logic – Neuroscience News
▼あわせて読みたい
・生成AIの手を借りて作成したニュースは理解しづらいことが研究で判明
・陰謀論者を説得し、信念を変えるのは、人間よりAIの方が効果的であるとする研究結果
・2023年は1万本以上の研究論文が撤回され過去最高を記録
・AIの知性と人間の知性が異なる理由
・話題の会話型AI「bingチャット」を挑発した大学生、逆に脅迫される
この記事のカテゴリ:サイエンス&テクノロジー / 知る
Source: カラパイア