
AIが過去に自ら生成したコンテンツを学習データとして使い始めるのは、時間の問題だった。
大規模言語モデル(LLM)をベースにした生成AIが現代社会を席巻するようになったのは、ほんの数年前のことだ。
にもかかわらず、彼らはたちまち人間の知識を食い尽くし、身につけるべきさらなる知識を求め始めた。そこで狙いをつけたのが、AI自身が過去に生み出したものだ。
ではAIが生成した知識で学んだAIは、さらに賢くなるのだろうか?答えは逆だ。
出力がおかしくなりゴミのようなコンテンツを吐き出すようになったという。それがAIを崩壊させると科学技術ジャーナリストは警鐘を鳴らしている。
▼あわせて読みたい
・AIチャットボットに有害な情報を出力させる手口が存在、研究者が危険性を指摘
・AIに罰を与えても嘘や不正は止まらない、ずる賢くなるだけ。GPT開発元の衝撃研究
・生成AIに人間の認知症の兆候を確認
・生成AIの手を借りて作成したニュースは理解しづらいことが研究で判明
・AIをAI生成データで学習させると、学習モデルが崩壊してしまうリスクが発生
この記事のカテゴリ:サイエンス&テクノロジー / 知る
Source: カラパイア