なぜ人工知能システムに幻覚を見せるのか

今日、人工知能(AI)はバーチャルアシスタント、スマートホームデバイス、ヘルスケア診断、自動運転車などの形で稼働している。それにもかかわらず、この重要な技術の発展には、「人工知能の幻覚」と呼ばれるものを引き起こすという問題が生じている。

なぜ人工知能システムに幻覚を見せるのか?

簡単に言えば、人工知能の幻覚とは、人工知能システムが学習データ収集時に存在しなかった誤った情報を生成したり、推論したりするケースを指す。一方、人工知能の幻覚を解決できないと、虚偽の情報を流したり、偏った判断をしたりするなどの問題が発生し、経済的にも安全的にも問題が生じる可能性がある。なぜ人工知能システムは幻覚を見るのか、その原因と防止策を説明する。

人工知能システムの幻覚は、大規模な言語モデルが、見たこともない、あるいは全く存在しない特徴や物体を観測できるようになった場合に起こりやすい。そのため、現実には意味をなさない誤った出力情報を生成してしまうが、場合によっては、それ自身が知覚したパターン/オブジェクトに基づいていることもある。

言い換えれば、人工知能システムは、モデルが誤った発言をしたり、学習データ中の些細なパターンや偏見に依存して、論争を呼ぶような答えを生成したり弁護したりすることで幻覚を見るが、これはより複雑なレベルで発生する。

人工知能の幻覚の原因

人工知能システムが幻覚を見る主な原因はいくつかある:

データの偏り

データが欠落していたり、不完全であったり、偏見や偏見に満ちた要素を含むトレーニングデータのサンプルが、ほとんどのモデルによって提示される。

例えば、顔認識アルゴリズムが白人以外の顔を認識できなかった例があるが、これはこのような偏見に基づいて編集されたトレーニングデータセットに起因している。

オーバーフィッティング

データベース内の情報が過剰であることも、人工知能システムが幻覚を見る原因のひとつだ。ニューラルネットワークの問題点として、限られたデータセットのパターンから学習する際に、ノイズの多いパターンを「記憶」したり「過剰適合」したりすることがある。その結果、訓練中に遭遇したものとは異なる入力にさらされたときに幻覚を見やすくなる。

エラーの蓄積

入力データ中の小さなエラーやノイズは、階層的に処理された形で拡大され、例えば数十億のパラメータを持つ大規模なトランスフォーマーモデルでは、歪んだ、あるいは捏造された出力の生成につながる可能性がある。

フィードバックループ

幻覚の問題は、もし修正されなければ、自己監視システムにおいてさらに深刻化する可能性がある。例えば、人工知能がニューラルネットワークに基づいて写真を作成し、ディープフェイクが別の人工知能にその情報を本物だと信じさせることができる。

人工知能の幻覚がもたらす危害の可能性

人工知能の幻覚は深刻な問題を引き起こす。放置しておくと、以下のようなケースが想定される:

誤情報

ボット型人工知能の偽造の性質と組み合わさった真実性の欠如は、偽の統計や誤った情報が広まり、信頼できるデータを見つける人々の能力を歪めてしまう可能性があることを意味する。ジャーナリズム、教育、公共政策立案などの分野でシステムが使用される場合、これは大きな懸念材料となる。

プライバシー侵害

そのようなシステムが、医療や法執行など、対応する業務に適用された場合、観察されることのなかった個人に関する機密性の高い個人データは、プライバシーを著しく侵害し、信頼を損なう可能性がある。

社会から疎外された人々への危害

先に述べたように、人工知能のデータセットでは、選択バイアスが社会的に不利なグループを差別し、社会正義をさらに大きな問題に変えることがよく言われている。

安全上の危険

幻覚 人工知能は、自動運転車や医療診断装置の注意書きやガイドに関する誤った情報を持っている。このような人工知能システムは不完全な情報に依存しているため、事故や怪我、誤った医療判断につながる可能性がある。

経済的コスト

複数の施設やサービスの提供に幻覚の人工知能を使用することによるイノベーションと成長の欠如は、顧客の信頼を失うだけでなく、関連する組織や施設の価値を低下させる可能性がある。これらのコストを具体的な数字で示すことは必ずしも可能ではないが、その危険性はあまりにも大きい。

人工知能の幻覚を防ぐ

人工知能の幻覚を防ぐために、研究者が取るべき積極的な対策を紹介しよう:

偏りのない幅広いデータ

先入観を含まず、社会のあるセクションを他のセクションより優遇していない学習データセットを集めることは、人工知能が自らをうまく訓練するのに役立つ。偽データが広まるのを防ぐため、公的データベースを浄化し、ファクトチェックする必要がある。

データの前処理

悪質な観測データの除去、データの匿名化、特徴の削減などの対策は、システムに供給する前にデータからノイズや不要なパターンを除去するのに役立つ。

モデル評価

人工知能システムは、新しい幻覚を識別するために注意深く設計された新しい評価データセットを使用して、常にチェックされるべきである。

モデルの監視

人工知能の不要な反応を説明するために、モデル・カードやデータ・ステートメントなどのメカニズムにより、人工知能の行動を時間の経過とともに記録することができる。

説明可能な人工知能

アテンション・マップやSHAP値のような方法論を用いることで、モデルがなぜそのような反応を示したのかを理解することができる。また、ランダムなパターンと比較して、パターンに適合する特徴に基づいた簡単な分析を特定することもできる。

保守的な展開

人工知能システムは特定の領域に限定されるべきであり、人工知能が安全で信頼性が高く、人間に対して2倍公平に扱われることが証明されるまでは、人間が監督して限定的かつ管理された使用のみを行うべきである。

人工知能が社会的利益を継続的に促進し、幻覚に関連する損害の危険を防ぐために、組織はデータとモデルの品質問題に事前に立ち向かうべきである。人工知能の幻覚や関連する誤謬から生じる深刻な影響を避けるために、慎重かつ責任ある行動をとること。

要するに、人工知能による幻覚のリスクは、それを軽減するための対応策を実施すればコントロールすることができる。とはいえ、起こりうる否定的な結果を避けるには、技術開発者や政策変更に影響を与える人々の粘り強い観察が必要である。このような共同の試みを行ってこそ、人間の保護を保証すると同時に、人間にポジティブな影響を与える人工知能システムを開発することができるのである。

最後に、最もよくある質問とその答えを用意した

人工知能の幻覚とは何ですか?

人工知能の幻覚とは、多くの場合、データやパターンの誤った解釈によって、人工知能システムが誤った情報や無意味な情報を生成することを指します。

人工知能システムはなぜ幻覚を見るのか?

人工知能システムは、過剰適合、学習データの偏り、モデルの複雑さなど、さまざまな要因によって幻覚を見ることがあります。

人工知能の幻覚はよくあるのですか?

人工知能、特に大規模な言語モデルや生成ツールでは、起こりうる結果に対する制約がないため、幻覚を見ることがよくあります。

人工知能の幻覚は防げるのか?

人工知能の幻覚を防ぐには、フィルタリングツールを使用して人工知能モデルの境界を明確に定義し、確率的な閾値を設定する必要があります。

人工知能による幻覚はどのような結果をもたらすのでしょうか?

誤情報の拡散から、誤った医療診断など実害の発生まで、さまざまな影響が考えられます。

人工知能の幻覚は人工知能システムの信頼にどのような影響を与えるのか?

幻覚は、検証なしにシステムの出力を信頼することを困難にするため、人工知能への信頼を損なう可能性があります。

人工知能の幻覚の有名な例はありますか?

はい、有名な例としては、チャットボットが偽の学術論文を作成したり、カスタマーサービスとのやり取りで誤った情報を提供したりすることが挙げられます。

人工知能の幻覚は、言語システムと画像システムの両方で起こりますか?

はい、人工知能の幻覚は言語モデルとコンピュータビジョンシステムの両方で発生します。

人工知能の幻覚においてトレーニングデータはどのような役割を果たしますか?

学習データは非常に重要です。偏ったデータや代表的でないデータは、その偏りを反映した幻覚につながる可能性があります。

人工知能の幻覚に対処するために進行中の研究はありますか?

はい、人工知能システムの信頼性を向上させるために、人工知能の幻覚を理解し緩和することに焦点を当てた重要な研究があります。