
膨大な学術研究の内容を把握するうえで、生成AIによる要約は非常に便利な手段だ。だが、その要約内容に重大な問題があることが、『Royal Society Open Science』に発表された研究で明らかになった。
多くのAIは、元の研究以上に大げさな表現を使い、成果がすべての人や場面に当てはまるような要約にしてしまう傾向があるという。
これは「過度な一般化」と呼ばれ、「一部の患者に効果があった」という結果を「この薬は全員に効く」と言い換えるようなケースだ。
しかも新しいモデルほどその傾向が強く、「正確に」と指示するほど不正確になるという皮肉な現象まで確認されている。
▼あわせて読みたい
・AIモデルがお互いに共食いをはじめ、崩壊の兆候を見せ始めている
・ほとんどのAIはアナログ時計の時刻やカレンダーの日付を正確に把握できない
・AIはチェスで負けそうになるとズルをすることが判明
・AIチャットボットはニュースを正確に要約できない。重大な誤りが多いことが判明
・AIがあなたの考える力を奪う?「便利すぎる時代」の危険性
この記事のカテゴリ:サイエンス&テクノロジー / 知る
Source: カラパイア