
対話型生成AIは嘘をつく。ときどき自信満々にデタラメを言ってしまう現象は「ハルシレーション(幻覚)」と呼ばれる。
チャットGPTを開発したOpenAIの研究チームはその原因とされる新たな問題点を発表した。
AIが幻覚を起こすのは、そもそも「わからない」と言わずに推測するよう設計されているからだ。
開発者側はその対策も提示しているが、そこにはユーザー心理や莫大な運用コストといった現実的な障壁が立ちはだかるという。
幻覚を減らせば正確さは増すかもしれないが、その代償としてユーザーが離れてしまう可能性があるというのだ。
▼あわせて読みたい
・チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴走する
・AIの暴走を32パターンに分類、その多くは人間の精神疾患に良く似ていた
・AIに罰を与えても嘘や不正は止まらない、ずる賢くなるだけ。GPT開発元の衝撃研究
・ほとんどのAIはアナログ時計の時刻やカレンダーの日付を正確に把握できない
・AIがあなたの考える力を奪う?「便利すぎる時代」の危険性
この記事のカテゴリ:サイエンス&テクノロジー / 知る
Source: カラパイア