Photo by:iStock

 イスラエルの研究チームが、主要なAIチャットボットが「脱獄(ジェイルブレイク)」と呼ばれる手口で、安全制御を回避され、違法で有害な情報を出力してしまう可能性があることを示した。

 ChatGPTのような生成AIには、ユーザーの指示に対して有害な回答をしないよう制限が組み込まれている。しかし、今回の実験では、その制限が比較的簡単にすり抜けられることが明らかになった。

 研究チームは、「これまで国家機関や犯罪組織に限られていた情報が、今やノートパソコンやスマートフォンを持つ誰にでも届く可能性がある」と警鐘を鳴らしている。

続きを読む…

▼あわせて読みたい
AIに罰を与えても嘘や不正は止まらない、ずる賢くなるだけ。GPT開発元の衝撃研究
生成AIに人間の認知症の兆候を確認
大規模言語モデルの生成AIは本当に人間世界を理解しているのか?
生成AIの手を借りて作成したニュースは理解しづらいことが研究で判明
AIをAI生成データで学習させると、学習モデルが崩壊してしまうリスクが発生

この記事のカテゴリ:サイエンス&テクノロジー / 知る

Source: カラパイア