Photo by:iStock 膨大な学術研究の内容を把握するうえで、生成AIによる要約は非常に便利な手段だ。だが、その要約内容に重大な問題があることが、『Royal Society Open Science』に発表された研究で明らかになった。 多くのAIは、元の研究以上に大げさな表現を使い、成果がすべての人や場面に当てはまるような要約にしてしまう傾向があるという。 これは「過度な一般化」と呼ばれ、「一部の患者に効果があった」という結果を「この薬は全員に効く」と言い換えるようなケースだ。 しかも新しいモデルほどその傾向が強く、「正確に」と指示するほど不正確になるという皮肉な現象まで確認されている。 続きを読む… ▼あわせて読みたい ・AIモデルがお互いに共食いをはじめ、崩壊の兆候を見せ始めている ・ほとんどのAIはアナログ時計の時刻やカレンダーの日付を正確に把握できない ・AIはチェスで負けそうになるとズルをすることが判明 ・AIチャットボットはニュースを正確に要約できない。重大な誤りが多いことが判明 ・AIがあなたの考える力を奪う?「便利すぎる時代」の危険性 この記事のカテゴリ:サイエンス&テクノロジー / 知る Source: カラパイア 投稿ナビゲーション 【静岡】線路の上にゴミ袋…中から出てきた履歴書で容疑者が浮上 逮捕された男「間違いない」 京都のタクシー会社、事業許可取り消し 京都市中心部で逆走事故後、国の監査などに応じず