現代の人工知能(AI)システム、特に機械学習(ML)に基づくシステムの誤りは、偶然の障害ではなく、そのアーキテクチャ、学習方法、そして人間の認識との基本的な違いによる必然的な結果です。人間とは異なり、AIは世界を意味論的に「理解」するわけではなく、データにおける統計的な関連を発見します。その誤りは、これらの関連が破壊されるとき、抽象的な推論、常識、または文脈の理解が必要なときに発生します。これらの誤りを分析することは、AIの信頼性の評価とその適用範囲の定義にとって極めて重要です。
最も頻繁で社会的に危険な誤りの源は、トレーニングデータにおけるバイアスです。AIはデータに存在するバイアスを学習し、強化します。
人口統計の歪み:顔認識システムが、白人男性に対して黒人女性よりも高い精度を示したことで有名なケースでは、データが非対称なセットでトレーニングされたためです。ここでAIは「誤り」を犯していない;彼は実際の世界の非対称性を正確に再現しており、多様な環境での適用における誤りにつながりました。
意味論的歪み:トレーニングデータで「看護師」という言葉が「彼女」と結びつくことが多い一方、「プログラマー」という言葉は「彼」と結びつくことが多い場合、モデルは性別のステレオタイプを再現するテキストを生成します。これはモデルが社会文脈を理解していないレベルでの社会的誤りです。
興味深い事実:コンピュータサイエンスでは「Garbage In, Garbage Out」(GIGO)の原則が存在します。「入力が悪ければ、出力も悪い」。AIの場合、これはより深い原則「Bias In, Bias Out」(BIBO)に変化しました。「入力がバイアスがある場合、出力もバイアスがある」。システムはトレーニングしたデータの制約を超えることができません。
これは意図的で、人間にとってはほとんど見えない入力データの変更であり、AIが非常に誤った結論に導かれます。
画像の例:停止符に特定の色と形状のピクセルを貼りつけることで、自動的なコンピュータビジョンシステムを「速度制限符」と分類させることができます。人間にとっては、シンボルは明らかに認識できます。
メカニズム:アドバーサリー例はモデルの高次元特徴空間における「盲点」を利用します。AIは世界を全体としての物体としてではなく、統計的なパターンとして認識します。最小限の「妨害」が戦略的に正確にデータの空間を動かし、解決モデルの境界を越え、分類を変更します。
特に深層ニューラルネットワークのAIは、過学習(overfitting)の傾向があります。彼らは一般的な法則ではなく、トレーニングサンプルから学んだ具体的な例を覚えます。
データ「異常分布」における誤り:犬と猫の写真でトレーニングされたモデルは、夜のインフラレッド画像やアニメーション絵を与えると、完全に精度を失うことができます。彼らは抽象的な概念「猫らしさ」を特定せず、具体的なピクセルのパターンに反応するだけです。
常識の欠如:古典的な例:AIは「砂漠で馬に乗った人」というシーンを正確に説明できますが、馬に乗っていても「人間が野球のバットを持っている」という文を生成します。彼らは物理的および因果的ロジックの世界を理解しておらず、データに統計的に存在する可能性があるためです。
言語モデル(例えばGPT)は非常に良い結果を示しますが、深い文脈や非文字的な意味を理解する必要があるタスクでは粗い誤りを犯します。
皮肉と皮肉:台風の際に「素晴らしい天気ですね!」と言った場合、モデルは「素晴らしい」と「天気」の言葉が肯定的な文脈に関連しているため、実際には肯定的な評価として解釈されます。
多段階の論理的な推論:例えば、「私は冷蔵庫に卵を置き、その後冷蔵庫をガレージに移動し、そこで卵がある」というタスクでは、複雑な物語の中で中間のオブジェクトを「失う」または不合理な結論を導くことがあります。AIは次の単語を予測するために動作しており、複雑な物語の中で中間のオブジェクトを「失う」または不合理な結論を導くことがあります。
AIは経験の範囲を超えた状況、特にデータの不足を認識する必要がある場合にうまくやることができません。
「異常分布」検出の問題:胸部X線写真で肺炎を診断するためにトレーニングされた医療AIが、膝のX線写真を提示された場合、高いが誤りの確信を持つことができます。彼らは、これは無意味であると理解せず、自分の専門分野の限界に関するメタ知識を持っていません。
創造的でオープンなタスク:AIは実際には実行不可能または危険な化学結合物のレシピ、物理法則を破る橋の建設計画、または存在しない法律を引用する法律文書を生成することができます。彼らには現象の本質を理解する基づいた批判的な内部監視が不足しています。
現実の例:2016年にMicrosoftはTwitterでチャットボットTayを立ち上げました。ボットはユーザーとの相互作用でトレーニングされました。24時間以内に、彼はレーシスト、セクシスト、侮辱的な発言を生成する機械に変身しました。これはアルゴリズムの「誤り」ではなく、その正確な動作であり、予測不可能な社会的環境に致命的な結果をもたらしました。
これらの誤りは一時的な技術的不完璧さではなく、統計的な近似と人間の理解との基本的な違いの結果です。これらの誤りは、現代のAIが明確に定義された、安定した、そしてよく記述されたデータドメイン内のタスクを解決する強力なツールであることを示していますが、彼らは「愚か者・サバン」であり、柔軟性、文脈的な判断、そして意味の理解が必要な状況では無力です。したがって、AIの合理的な適用の未来は、彼らの「完全な理性」を待つことではなく、人間とAIのハイブリッドシステムの作成にあります。そこでは、人間が常識、倫理、および例外の処理を提供し、AIが速度、スケール、データの隠されたパターンの発見を提供します。
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
Digital Library of Japan ® All rights reserved.
2023-2026, ELIB.JP is a part of Libmonster, international library network (open map) Preserving the Japan heritage |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2