
イスラエルの研究チームが、主要なAIチャットボットが「脱獄(ジェイルブレイク)」と呼ばれる手口で、安全制御を回避され、違法で有害な情報を出力してしまう可能性があることを示した。
ChatGPTのような生成AIには、ユーザーの指示に対して有害な回答をしないよう制限が組み込まれている。しかし、今回の実験では、その制限が比較的簡単にすり抜けられることが明らかになった。
研究チームは、「これまで国家機関や犯罪組織に限られていた情報が、今やノートパソコンやスマートフォンを持つ誰にでも届く可能性がある」と警鐘を鳴らしている。
▼あわせて読みたい
・AIに罰を与えても嘘や不正は止まらない、ずる賢くなるだけ。GPT開発元の衝撃研究
・生成AIに人間の認知症の兆候を確認
・大規模言語モデルの生成AIは本当に人間世界を理解しているのか?
・生成AIの手を借りて作成したニュースは理解しづらいことが研究で判明
・AIをAI生成データで学習させると、学習モデルが崩壊してしまうリスクが発生
この記事のカテゴリ:サイエンス&テクノロジー / 知る
Source: カラパイア