ちょうど AI コミュニティが Anthropic Mythos モデルの安全性をめぐる論争で沸き立っている最中、チューリング賞受賞者で Meta のチーフ AI サイエンティストである Yann LeCun が X 上で、簡潔な声明を発表しました。「どんな単一の個人も『超知能』に責任を負うことはありません。」この投稿は 935 件のいいねと 100 件を超える返信を獲得し、Mythos によって醸成された恐慌ムードの中で、まったく異なるガバナンスの視点を提示しました。
一文の背後にあるガバナンス哲学
LeCun の声明は一見シンプルですが、実際には AI ガバナンスの議論における根本的な思考の誤謬を突いています。超知能のリスクを「誰がコントロールするのか」という問題に単純化してしまうことです。人々が AI の安全性を語るとき、よくある物語は「責任者」を探すことです――企業、政府機関、あるいは技術リーダーが AI の開発の方向性を「掌握」するのです。LeCun は、この前提自体が間違っていると考えています。
この立場は、彼が一貫して掲げてきたオープン AI の哲学とも一致しています。AI のガバナンスは分散的で、システム的で、多方の参加によって行われるべきであり、いかなる単一の実体の手中に集中させるべきではありません。
Mythos 論争における逆の考え方
LeCun が発言したタイミングは示唆に富みます。同じ日、Matt Shumer は Anthropic の Mythos モデルを「ネットワーク兵器」と呼び、Ethan Mollick は「Oh no.」で衝撃を表しました。これらの反応に潜む論理は、これほど強力な AI には厳格な管理が必要であり、できれば責任ある「番人」が管理すべきだというものです。
LeCun の立場はまったく逆です。彼は「ある会社が『出さない』と決めること」が安全の保証だとは考えていません。仮に超知能のレベルの AI を少数の企業だけが保有しており、それらの企業の一方的な判断によってグローバルな AI の開発パスが決まってしまうのなら、それ自体がリスクです。集中化されたコントロールは安全に等しいどころか、むしろ新たな権力の不均衡を生み出す可能性があります。
分散型ガバナンスの課題
LeCun の立場も、実質的な課題に直面しています。分散型ガバナンスは理想的に聞こえますが、AI 能力が指数関数的に伸びていく現実のもとでは、「誰も責任を負っていない」ことは「誰も責任を負えるわけではない」ことを意味してしまうかもしれません。あるモデルがゼロデイの脆弱性を見つけられるとき、オープンなアクセスは依然として最良の戦略なのでしょうか?
まさにここが、現在の AI ガバナンスの議論における核心の矛盾です。集中した統制には、権力が悪用されるリスクがあります。一方、分散されたオープンアクセスには、能力が悪用されるリスクがあります。LeCun の一言はこの矛盾を解決するわけではありませんが、「一人に責任を負わせる」という一見直感的な解決策が本当に機能するのかを、人々に改めて見直させています。
AI ガバナンス議論への示唆
Mythos が引き起こした恐慌と、LeCun の冷静な再考のあいだで見えてくるのは、AI ガバナンスに関する二大流派の根本的な対立です。安全派は能力の制限と集中管理を主張し、オープン派は広範なアクセスと分散型ガバナンスを主張します。この議論に簡単な結論はありませんが、AI 政策に関心を持つ台湾の意思決定者にとっては、この二つの極端のあいだにある緊張関係を理解することが、地域に即した AI ガバナンス戦略を立てるうえで必要な学びとなります。
この記事は、LeCun の一文で「超知能」をめぐる争いに応えた内容で、最初に 鏈新聞 ABMedia に掲載されました。