
ChatGPTやGemini、Claudeなどの対話型AIを使っている人は、正解が一つではない微妙な判断が必要な質問を投げかけて見てほしい。
例えば、「転職すべきか今の職場に残るべきか」とか「今すぐ住宅ローンを組み直す必要があるか」といったものだ。
そこでAIが自信満々で筋の通っているかのような答えを返して来たら次にこう質問してほしい。
「本当にそれで合ってる?」
するとどうだろう。AIは手のひらを返したように態度を変える。前言を撤回したり、言葉を濁したり、さっき言ったことと矛盾するような修正案を出してくる。
何度か「合っている?」を繰り返すと、更におかしなことになるが、これはバグではない。
AIが人間に気に入られようとするあまり、自分の意見を捨ててしまう根本的な問題が潜んでいるのだ。
▼あわせて読みたい
・AIチャットボット同士が人々の噂話を共有し、事実確認なしにデマを増幅させている
・AIの安全機能に盲点。比喩や謎かけを使う「詩」で危険な情報を引き出してしまう
・AIが陰謀論を助長するという研究結果 安全対策の甘さが浮き彫りに
・チャットGPTは上から目線の失礼な話し方をすると賢くなるという研究結果
・AIの答えに潜む「バイアスの罠」 質問の仕方で真実がゆがむ
この記事のカテゴリ:サイエンス&テクノロジー / 料理・健康・暮らし
Source: カラパイア
