Photo by:iStock イスラエルの研究チームが、主要なAIチャットボットが「脱獄(ジェイルブレイク)」と呼ばれる手口で、安全制御を回避され、違法で有害な情報を出力してしまう可能性があることを示した。 ChatGPTのような生成AIには、ユーザーの指示に対して有害な回答をしないよう制限が組み込まれている。しかし、今回の実験では、その制限が比較的簡単にすり抜けられることが明らかになった。 研究チームは、「これまで国家機関や犯罪組織に限られていた情報が、今やノートパソコンやスマートフォンを持つ誰にでも届く可能性がある」と警鐘を鳴らしている。 続きを読む… ▼あわせて読みたい ・AIに罰を与えても嘘や不正は止まらない、ずる賢くなるだけ。GPT開発元の衝撃研究 ・生成AIに人間の認知症の兆候を確認 ・大規模言語モデルの生成AIは本当に人間世界を理解しているのか? ・生成AIの手を借りて作成したニュースは理解しづらいことが研究で判明 ・AIをAI生成データで学習させると、学習モデルが崩壊してしまうリスクが発生 この記事のカテゴリ:サイエンス&テクノロジー / 知る Source: カラパイア 投稿ナビゲーション 20歳女子大生、居酒屋で飲酒した後に運転→パトカーに呼び止められる→逆走で逃げて他の車と正面衝突 「川崎市の小学校ではブラジャーが…」 デマに市長激怒「男性教員が胸の成長を見て許可」は「あり得ない」