4月29日、Thomas Germainが「Why AI companies want you to be afraid of them」と題した記事を公開した。
なぜAI企業は自社製品を恐れるべきだと我々に伝えたがるのか? この問いが、AI業界の奇妙な現象を浮き彫りにする。
AI企業Anthropicは4月、最新モデル「Claude Mythos」について「サイバーセキュリティのバグを発見する能力が人間の専門家を大幅に上回る」と発表した。同社は「経済、公共安全、国家安全保障への影響は深刻になる可能性がある」として、現在はリリースを控えているという。
記事の筆者は鋭く指摘する。「マクドナルドが『あまりにも恐ろしく美味しいハンバーガーを作ったので、倫理的に提供できない』と発表することはない」。なぜAI業界だけがこのような奇妙な宣伝手法を取るのか。
急速に進む規制議論の中で
この問題は、現在世界各国でAI規制が急速に議論されている背景で特に重要だ。EU AI法の施行、米国でのAI大統領令、中国での生成AI規制など、各国政府がAI技術への監督を強化している中、企業側の「自主規制アピール」が規制回避の手段として機能している可能性がある。
繰り返される「危険すぎて公開できない」パターン
OpenAIのサム・アルトマンCEOは2015年に「AIはおそらく世界の終焉をもたらすだろうが、その間に素晴らしい企業が生まれる」と発言している。2019年にはGPT-2を「悪用の懸念」を理由に公開を控えると発表したが、数ヶ月後には結局リリースした。
イーロン・マスクは2023年に先進的AI開発の6ヶ月停止を求める書簡に署名したが、その6ヶ月後にAI企業xAIを設立している。
エディンバラ大学のShannon Vallor教授は「これらの技術を超自然的に危険であるかのように描写することで、我々は無力感を感じ、企業自身だけが頼りになる存在だと思わせられる」と分析する。
Mythosの実力への疑問
セキュリティ専門家のHeidy Khlaaf氏(AI Now Institute主任AI科学者)は、Anthropicの発表に疑問を呈している。同氏が指摘する最大の問題は偽陽性率(セキュリティツールが実際には問題でないものを問題として検出する頻度)が公表されていない点だ。
「これは未知の指標ではない。これはツールがどの程度有用かを示す最大の指標だ」
AnthropicはこのコメントについてMythosを既存のセキュリティツールと比較した結果も公表していない。一部では、Mythosの広範囲リリースを控えた理由が必要な計算リソースを確保できなかったためとの観測もある。
現実の問題から目を逸らす効果
ワシントン大学のEmily M. Bender教授は「これは力があるという根拠のない主張のパターンの一部だ。『こちらを見ろ』と言っているが、環境破壊や労働搾取、社会の様々なシステムの破壊については無視している」と批判する。
記事は現在進行中の具体的な問題を列挙している:
- 医療AIの誤診に関する深刻な懸念
- データセンターによる温室効果ガス排出(一部の国を上回る規模)
- AIチャットボットが脆弱な人々を精神病状態や自殺に追い込んでいる報告
- AI使用と認知機能低下の関連性を示唆する研究
- ディープフェイクの蔓延(筆者は自分の叔母に自分がロボットではないことを証明できなかった)
企業の本当のインセンティブ
興味深いことに、安全性を最優先に掲げて設立された企業が次々と方針転換している:
- GoogleはAI兵器構築に関するガイドラインを撤廃
- OpenAIは非営利組織からの脱却を求めて法廷闘争
- Anthropicは「適切な安全措置を保証できない場合はAIモデルを訓練しない」という看板政策を放棄
Vallor教授は「組織、特に企業の行動を理解したければ、そのインセンティブを見ればよい」と指摘する。
規制回避の効果
記事の核心は、この「恐怖マーケティング」が実際に企業の思惑通りに機能している点だ。Vallor教授は「この戦略は成功している。自社製品が世界を滅ぼすかもしれないと語ることで、これらの企業は損害を受けていない。むしろ人々は保護を求めて企業自身に頼るようになっている」と分析する。
同教授は「核兵器や生物兵器でさえ、人間の制御を超えた力だと考えることは許されなかった。統治不可能なものは何もない。我々が統治しないことを選ばない限りは」と強調する。
神話ではなく営利企業の製品
記事は「これらは神ではなく、営利目的で企業が構築した製品だ」と結論付ける。メタバースも、ビットコインの法定通貨置き換えも、ソーシャルメディアによる民主主義救済も実現していない現実を踏まえ、AI終末論についても冷静な視点が必要だとしている。
政府や規制当局が企業の「自主規制アピール」に惑わされず、実効性のある監督体制を構築できるかが、今後のAI技術の健全な発展を左右する鍵となりそうだ。
詳細はWhy AI companies want you to be afraid of themを参照していただきたい。