作者:张烽現在、人工知能は前例のない深さで社会の生産と生活に浸透しており、その安全性とガバナンス体制はデジタル時代の礎を成しています。とはいえ、物理原理に由来する計算能力の革命――量子計算――が、静かに目前に迫っています。その潜在的な破壊力によって、既存の安全防衛線とガバナンスの枠組みは厳しい問いに直面しています。量子計算は、既存のAIセキュリティおよびガバナンス体制を覆すのでしょうか?これは単なる技術的問題にとどまらず、将来のデジタル社会の秩序に関わる全体的な課題です。****計算能力の飛躍が規則の遅れに遭遇したとき、私たちは「Q-Day」に備えて何をすべきでしょうか?**************一、量子計算はどのようにして現在広く使われている****非対称暗号****アルゴリズムを脅かすのか?**-------------------------------------現在のAIシステムの安全性は、モデルの伝送、データの保存、身元認証に至るまで、RSA、ECC(楕円曲線暗号)に代表される非対称暗号アルゴリズムに大きく依存しています。これらのアルゴリズムの安全性は、「大きな数の因数分解」や「離散対数」などの数学的難題の「計算複雑性」に基づいており、つまり古典コンピュータでは受け入れ可能な時間内に解けないという前提です。しかし、量子計算は根本的なパラダイム転換をもたらします。Shorアルゴリズムに代表される量子アルゴリズムは理論上、これらの難題の解決時間を指数級から多項式級へと引き下げます。ある論文は、Regevアルゴリズムおよびその拡張を含む最新の量子アルゴリズムが、非対称暗号の解読効率を継続的に最適化していると評しています。これは、十分な規模(通常は数百万の安定した量子ビットを有することを指す)を持つ汎用量子コンピュータが登場すれば、現在インターネット通信、デジタル署名、暗号化データを守っている「鍵」が瞬時に開かれる可能性があることを意味します。この脅威は、決して遠い未来の話ではありません。智源コミュニティの研究は、この種の脅威が「進行中」であることを警告しています。攻撃者は今すぐ暗号化された通信データ(AIの学習データ、モデルパラメータ等を含む)を傍受して保存し、その後、将来量子コンピュータが成熟してから復号します。この「先に傍受し、後で復号する」戦略により、国家機密、商業特許、個人のプライバシーデータといった、長期にわたって秘密にしておく必要がある高価値情報はすべて、将来のリスクにさらされます。したがって、量子計算による非対称暗号への脅威は基礎的かつシステム全体に及ぶものであり、直接的に現在のAI、さらには全デジタル世界の安全体制の土台を揺るがします。**二、量子計算に直面して****AI****モデルの学習とデータのプライバシー保護にはどのような新たな課題が生じるのか?**------------------------------------------AIの発展は大量データの投入と複雑なモデルの学習に依存しており、このプロセス自体がプライバシーと安全の課題に満ちています。量子計算が介入することで、これらの課題はさらに鋭く、かつ複雑になります。まず、**データライフサイクルにおける長期の秘匿性が失われる**。前述のとおり、クラウド上や伝送中に暗号化して保存されているAI学習データセットは、将来の量子復号により、完全に露出してしまう可能性があります。西安交通利物浦大学の「グローバル・ポスト量子移行戦略」白書は、世界的に対抗側が組織的にこの「データ収穫」戦略を実行し、「Q-Day」(量子計算機の実用化の日)の到来を辛抱強く待っていると、明確に指摘しています。これは、医療記録、金融情報、生体特徴などの機微データに依存して学習するAIモデルにとって、源流からの脅威となります。次に、**連邦学習などのプライバシー・コンピューティング技術は新たな試練に直面する**。連邦学習は、ローカルでモデルを学習し、元データは扱わずモデルパラメータの更新のみを相互にやり取りすることで、原本データを保護します。しかし、これらのやり取りに含まれる勾配やパラメータ更新情報そのものも暗号化伝送されています。基盤となる暗号が量子計算によって破られれば、攻撃者は逆算して参加者の原データの特徴を推定でき、プライバシー保護メカニズムは実質的に機能しなくなります。最後に、**モデルの窃取と知的財産権の保護がさらに難しくなる**。学習が成熟したAIモデルは企業の中核的な資産です。現在、モデルの重みやアーキテクチャは通常、暗号化によって配布・展開されます。量子計算はこれらの保護措置を無効にしてしまい、モデルが容易に複製され、リバースエンジニアリングや改ざんが行われ、重大な知的財産権侵害やセキュリティ上の脆弱性につながる可能性があります。中国情報通信研究院は『人工知能ガバナンス・ブルーブック』の中で、人工知能ガバナンスは技術の濫用やデータの安全などのリスクに対応する必要があると強調しており、量子計算は間違いなくこれらのリスクの破壊力を増幅します。**三、量子マシンラーニングの発展は****AI****の安全・倫理審査の枠組みにどのように影響するのか?**----------------------------------------量子計算とAIの結合――量子マシンラーニング(QML)――は、新たな有効性のブレークスルーを予告しています。しかし同時に、前例のない安全と倫理に関する新たな問題も生み出し、既存の審査枠組みに衝撃を与えます。安全面では、QMLはより強力な攻撃ツールを生み出し得ます。たとえば、量子アルゴリズムは敵対的サンプルの生成を大幅に加速し、より隠密で破壊力の高い攻撃を作り出し得ます。その結果、現在の(古典計算に基づく)AIの安全防御体系(敵対的学習、異常検知など)が急速に時代遅れになります。ある分析は「量子+AI」をサイバーセキュリティの次の生死を分ける戦場と呼び、関連する規制枠組みを先回りして整備する必要があると指摘しています。倫理面では、QMLの「ブラックボックス」特性が、古典AIよりもさらに難解になる可能性があります。その意思決定プロセスは量子の重ね合わせと絡み合い状態に基づいており、より説明しにくく、監査しにくく、そして責任の所在を明確にしにくいかもしれません。QMLがもたらすアルゴリズムの公平性、責任の切り分け、技術の制御可能性といった倫理的論争とリスクには、すでに多くの議論があります。既存のAI倫理の準則(透明性、公平性、説明責任)は、量子のスケールでどのように実装されるのでしょうか?規制当局は、量子回路に基づき、複数の状態の重ね合わせにある可能性がある意思決定モデルをどう審査するのでしょうか?これらは、既存の倫理審査の枠組みがまだ十分に準備できていない難題です。ガバナンスのあり方は、単なる技術的なコンプライアンスにとどまらず、量子特性の本質とそれが社会へ与える影響をより深く理解する方向へと転換する必要があります。**四、既存の****AI****ガバナンス規制(例:GDPR)は、量子計算による安全の変革に対応できるのか?**----------------------------------------------EUの『一般データ保護規則』(GDPR)に代表される、現行のAIおよびデータガバナンス規制は、「設計による保護とデフォルトによる保護」、「データ最小化」、「保存の制限」、「完全性と機密性」などの中核原則において、理念のレベルでは依然として指針としての価値があります。しかし、具体的な技術実装とコンプライアンス要件の面では、それらは量子計算がもたらす「コンプライアンスのギャップ」に直面しています。GDPRでは、データ管理者がデータの安全を確保するための適切な技術的および組織的措置を講じることを求めています。量子脅威の背景下で、「適切な」暗号化措置とは何でしょうか?量子的に安全でないことが示されているアルゴリズムを引き続き使用する場合、将来「安全保障義務を履行できていない」と判断される可能性が高いでしょう。データ漏えい通知の期限に関する規定は、量子計算を用いて開始され、瞬時に完了し、痕跡が残りにくい高度な攻撃に直面したとき、どうすれば実効的に遵守できるのでしょうか?世界各国の立法者は、変革の必要性をすでに認識しています。『2025年度グローバルAIガバナンス報告』は、各国が専用のAIガバナンス法の整備を急いでおり、高レベルの統括機関を設置していることを示しています。中国は『デジタル中国発展報告(2024年)』の中で、「データ基盤制度の整備を加速する」ことを強調し、「人工知能+」の取り組みを継続的に推進しています。これらの動向は、ガバナンス体制が積極的に調整されていることを示しています。しかし、「量子計算+AI」という交差領域を対象とする規制については、現時点でほぼ空白に近いのが実情です。既存規制は、ポスト量子暗号への移行のタイムテーブル、QMLモデルの監査基準、量子時代のデータ安全レベルの分類といった具体的問題に関する規定が欠けているため、迫り来る安全の変革に対して効果的に対応するのが難しくなっています。**五、ポスト量子暗号学は****AI****システムにおける適用の見通しと実施の難点は何か?**----------------------------------------量子脅威への最も直接的な技術的解決策は、ポスト量子暗号学(PQC)です。PQCとは、量子コンピュータによる攻撃に耐えられる暗号アルゴリズムを指します。それは量子原理に基づくものではなく、量子計算機でも連続して素早く解くのが難しいと信じられている新しい数学的難題(格、符号、多変数など)に基づいています。AIシステムでの適用の見通しは広く、かつ差し迫っています。PQCは、AIワークフローのあらゆる段階を保護するために使えます。PQCアルゴリズムで学習データとモデルファイルを暗号化する。PQCデジタル署名でモデルの出所の完全性と真正性を検証する。分散型AI計算ノード間でPQCによる安全な通信チャネルを構築する。Fortinetは、PQCは遠い概念ではなく、潜在的な量子脅威からデジタルシステムを守るための喫緊の実用的ソリューションだと指摘しています。しかし、PQCを全面的に実施するには、顕著な難点があります:**性能と互換性の課題**:多くのPQCアルゴリズムは、鍵サイズ、署名長、または計算コストの面で、既存アルゴリズムに比べてはるかに大きいことが多く、それらを計算効率や遅延に敏感なAIの学習・推論プロセスに統合すると、性能のボトルネックが生じる可能性があります。同時に、互換性を確保するために、関連するすべてのハードウェア、ソフトウェア、プロトコルスタックをアップグレードする必要があります。**標準化と移行の複雑性**:米国のNISTなどの機関がPQCの標準化を推進しているものの、最終的な標準の確定と世界的な統一には時間がかかります。北京市密管局が発表した商密フロンティアの動向は、業界が脅威への対応を後押しするために、NIST候補アルゴリズムのオープンソース実装に積極的に取り組んでいることを示しています。移行プロセス全体は、リスク評価、アルゴリズム選定、ハイブリッド導入、テスト、そして全面的な更改を含む、巨大で複雑なシステムエンジニアリングです。とりわけ、構造が複雑なAIエコシステムにとってはなおさらです。**新たな安全リスク**:PQCアルゴリズム自体は比較的新しい研究領域であり、その長期的な安全性はRSAのように数十年に及ぶ実戦での暗号解析によって裏付けられてはいません。未知の脆弱性を持つ可能性のあるPQCをAIシステムに拙速に導入すること自体もまた、一種のリスクです。**六、この変革に直面して「Q-Day」を受け身で待つのは危険だ**----------------------------量子計算が既存のAI安全とガバナンス体制にもたらす破壊的影響は、現実のものであり、かつ迫っています。それは既存の体制を完全に覆すものではありませんが、暗号学的基盤を崩し、データリスクを増幅し、倫理的問題を複雑化し、さらに規制の遅れを浮き彫りにすることで、全体の体制に対して深く、かつ先見的なアップグレードを迫ります。この変革に直面して、「Q-Day」を受け身で待つのは危険です。私たちは次の実行可能な行動の道筋を提案します:**量子安全リスク評価とチェックリストの作成を開始する**:中核となるAI資産(特に長期の機微データに関係するモデルやデータ)について、直ちに量子脅威の評価を行い、最も脆弱な部分を特定し、移行の優先順位リストを作成します。**PQC移行ロードマップを策定し、実施する**:NISTなどの標準化機関の進展に注目し、AIシステムの開発・運用においてPQC統合の計画を始めます。新設システムおよび重要システムでは、「暗号の機敏性(暗号の置換容易性)」を優先して設計し、将来に暗号アルゴリズムをシームレスに置き換えられるようにします。移行期間のために、現行の「古典+PQC」の混合暗号方式を検討することもできます。**ガバナンス枠組みの適応的更新を推進する**:業界団体、標準化機関、規制当局が協力して、量子耐性要件をAI安全標準、データ保護規制、製品認証体系に組み込む研究を行い、提案・反映していくべきです。QMLの倫理審査に先立つ研究の枠組みとガイドラインをあらかじめ構築します。**分野横断の人材育成と研究を強化する**:AIを理解しつつ量子計算と暗号学も理解できる複合型人材を育成し、AI安全研究に量子脅威モデルの導入を促し、耐量子AI安全技術の研究開発に資金提供します。量子計算がもたらす課題は非常に大きいものの、同時に、デジタル世界の基盤を見直し、強固にするための機会も与えてくれています。能動的な計画、協調的なイノベーション、機敏なガバナンスを通じて、量子計算のもたらす恩恵を受け入れつつ、その安全リスクにも耐えられる、よりしなやかなAIの未来を構築することは十分に可能です。
AI合规資産 量子が「再評価」されている
作者:张烽
現在、人工知能は前例のない深さで社会の生産と生活に浸透しており、その安全性とガバナンス体制はデジタル時代の礎を成しています。とはいえ、物理原理に由来する計算能力の革命――量子計算――が、静かに目前に迫っています。その潜在的な破壊力によって、既存の安全防衛線とガバナンスの枠組みは厳しい問いに直面しています。量子計算は、既存のAIセキュリティおよびガバナンス体制を覆すのでしょうか?これは単なる技術的問題にとどまらず、将来のデジタル社会の秩序に関わる全体的な課題です。計算能力の飛躍が規則の遅れに遭遇したとき、私たちは「Q-Day」に備えて何をすべきでしょうか?
一、量子計算はどのようにして現在広く使われている非対称暗号アルゴリズムを脅かすのか?
現在のAIシステムの安全性は、モデルの伝送、データの保存、身元認証に至るまで、RSA、ECC(楕円曲線暗号)に代表される非対称暗号アルゴリズムに大きく依存しています。これらのアルゴリズムの安全性は、「大きな数の因数分解」や「離散対数」などの数学的難題の「計算複雑性」に基づいており、つまり古典コンピュータでは受け入れ可能な時間内に解けないという前提です。
しかし、量子計算は根本的なパラダイム転換をもたらします。Shorアルゴリズムに代表される量子アルゴリズムは理論上、これらの難題の解決時間を指数級から多項式級へと引き下げます。ある論文は、Regevアルゴリズムおよびその拡張を含む最新の量子アルゴリズムが、非対称暗号の解読効率を継続的に最適化していると評しています。これは、十分な規模(通常は数百万の安定した量子ビットを有することを指す)を持つ汎用量子コンピュータが登場すれば、現在インターネット通信、デジタル署名、暗号化データを守っている「鍵」が瞬時に開かれる可能性があることを意味します。
この脅威は、決して遠い未来の話ではありません。智源コミュニティの研究は、この種の脅威が「進行中」であることを警告しています。攻撃者は今すぐ暗号化された通信データ(AIの学習データ、モデルパラメータ等を含む)を傍受して保存し、その後、将来量子コンピュータが成熟してから復号します。この「先に傍受し、後で復号する」戦略により、国家機密、商業特許、個人のプライバシーデータといった、長期にわたって秘密にしておく必要がある高価値情報はすべて、将来のリスクにさらされます。したがって、量子計算による非対称暗号への脅威は基礎的かつシステム全体に及ぶものであり、直接的に現在のAI、さらには全デジタル世界の安全体制の土台を揺るがします。
二、量子計算に直面してAIモデルの学習とデータのプライバシー保護にはどのような新たな課題が生じるのか?
AIの発展は大量データの投入と複雑なモデルの学習に依存しており、このプロセス自体がプライバシーと安全の課題に満ちています。量子計算が介入することで、これらの課題はさらに鋭く、かつ複雑になります。
まず、データライフサイクルにおける長期の秘匿性が失われる。前述のとおり、クラウド上や伝送中に暗号化して保存されているAI学習データセットは、将来の量子復号により、完全に露出してしまう可能性があります。西安交通利物浦大学の「グローバル・ポスト量子移行戦略」白書は、世界的に対抗側が組織的にこの「データ収穫」戦略を実行し、「Q-Day」(量子計算機の実用化の日)の到来を辛抱強く待っていると、明確に指摘しています。これは、医療記録、金融情報、生体特徴などの機微データに依存して学習するAIモデルにとって、源流からの脅威となります。
次に、連邦学習などのプライバシー・コンピューティング技術は新たな試練に直面する。連邦学習は、ローカルでモデルを学習し、元データは扱わずモデルパラメータの更新のみを相互にやり取りすることで、原本データを保護します。しかし、これらのやり取りに含まれる勾配やパラメータ更新情報そのものも暗号化伝送されています。基盤となる暗号が量子計算によって破られれば、攻撃者は逆算して参加者の原データの特徴を推定でき、プライバシー保護メカニズムは実質的に機能しなくなります。
最後に、モデルの窃取と知的財産権の保護がさらに難しくなる。学習が成熟したAIモデルは企業の中核的な資産です。現在、モデルの重みやアーキテクチャは通常、暗号化によって配布・展開されます。量子計算はこれらの保護措置を無効にしてしまい、モデルが容易に複製され、リバースエンジニアリングや改ざんが行われ、重大な知的財産権侵害やセキュリティ上の脆弱性につながる可能性があります。中国情報通信研究院は『人工知能ガバナンス・ブルーブック』の中で、人工知能ガバナンスは技術の濫用やデータの安全などのリスクに対応する必要があると強調しており、量子計算は間違いなくこれらのリスクの破壊力を増幅します。
三、量子マシンラーニングの発展はAIの安全・倫理審査の枠組みにどのように影響するのか?
量子計算とAIの結合――量子マシンラーニング(QML)――は、新たな有効性のブレークスルーを予告しています。しかし同時に、前例のない安全と倫理に関する新たな問題も生み出し、既存の審査枠組みに衝撃を与えます。
安全面では、QMLはより強力な攻撃ツールを生み出し得ます。たとえば、量子アルゴリズムは敵対的サンプルの生成を大幅に加速し、より隠密で破壊力の高い攻撃を作り出し得ます。その結果、現在の(古典計算に基づく)AIの安全防御体系(敵対的学習、異常検知など)が急速に時代遅れになります。ある分析は「量子+AI」をサイバーセキュリティの次の生死を分ける戦場と呼び、関連する規制枠組みを先回りして整備する必要があると指摘しています。
倫理面では、QMLの「ブラックボックス」特性が、古典AIよりもさらに難解になる可能性があります。その意思決定プロセスは量子の重ね合わせと絡み合い状態に基づいており、より説明しにくく、監査しにくく、そして責任の所在を明確にしにくいかもしれません。QMLがもたらすアルゴリズムの公平性、責任の切り分け、技術の制御可能性といった倫理的論争とリスクには、すでに多くの議論があります。既存のAI倫理の準則(透明性、公平性、説明責任)は、量子のスケールでどのように実装されるのでしょうか?規制当局は、量子回路に基づき、複数の状態の重ね合わせにある可能性がある意思決定モデルをどう審査するのでしょうか?これらは、既存の倫理審査の枠組みがまだ十分に準備できていない難題です。ガバナンスのあり方は、単なる技術的なコンプライアンスにとどまらず、量子特性の本質とそれが社会へ与える影響をより深く理解する方向へと転換する必要があります。
四、既存のAIガバナンス規制(例:GDPR)は、量子計算による安全の変革に対応できるのか?
EUの『一般データ保護規則』(GDPR)に代表される、現行のAIおよびデータガバナンス規制は、「設計による保護とデフォルトによる保護」、「データ最小化」、「保存の制限」、「完全性と機密性」などの中核原則において、理念のレベルでは依然として指針としての価値があります。しかし、具体的な技術実装とコンプライアンス要件の面では、それらは量子計算がもたらす「コンプライアンスのギャップ」に直面しています。
GDPRでは、データ管理者がデータの安全を確保するための適切な技術的および組織的措置を講じることを求めています。量子脅威の背景下で、「適切な」暗号化措置とは何でしょうか?量子的に安全でないことが示されているアルゴリズムを引き続き使用する場合、将来「安全保障義務を履行できていない」と判断される可能性が高いでしょう。データ漏えい通知の期限に関する規定は、量子計算を用いて開始され、瞬時に完了し、痕跡が残りにくい高度な攻撃に直面したとき、どうすれば実効的に遵守できるのでしょうか?
世界各国の立法者は、変革の必要性をすでに認識しています。『2025年度グローバルAIガバナンス報告』は、各国が専用のAIガバナンス法の整備を急いでおり、高レベルの統括機関を設置していることを示しています。中国は『デジタル中国発展報告(2024年)』の中で、「データ基盤制度の整備を加速する」ことを強調し、「人工知能+」の取り組みを継続的に推進しています。これらの動向は、ガバナンス体制が積極的に調整されていることを示しています。しかし、「量子計算+AI」という交差領域を対象とする規制については、現時点でほぼ空白に近いのが実情です。既存規制は、ポスト量子暗号への移行のタイムテーブル、QMLモデルの監査基準、量子時代のデータ安全レベルの分類といった具体的問題に関する規定が欠けているため、迫り来る安全の変革に対して効果的に対応するのが難しくなっています。
五、ポスト量子暗号学はAIシステムにおける適用の見通しと実施の難点は何か?
量子脅威への最も直接的な技術的解決策は、ポスト量子暗号学(PQC)です。PQCとは、量子コンピュータによる攻撃に耐えられる暗号アルゴリズムを指します。それは量子原理に基づくものではなく、量子計算機でも連続して素早く解くのが難しいと信じられている新しい数学的難題(格、符号、多変数など)に基づいています。
AIシステムでの適用の見通しは広く、かつ差し迫っています。PQCは、AIワークフローのあらゆる段階を保護するために使えます。PQCアルゴリズムで学習データとモデルファイルを暗号化する。PQCデジタル署名でモデルの出所の完全性と真正性を検証する。分散型AI計算ノード間でPQCによる安全な通信チャネルを構築する。Fortinetは、PQCは遠い概念ではなく、潜在的な量子脅威からデジタルシステムを守るための喫緊の実用的ソリューションだと指摘しています。
しかし、PQCを全面的に実施するには、顕著な難点があります:
性能と互換性の課題:多くのPQCアルゴリズムは、鍵サイズ、署名長、または計算コストの面で、既存アルゴリズムに比べてはるかに大きいことが多く、それらを計算効率や遅延に敏感なAIの学習・推論プロセスに統合すると、性能のボトルネックが生じる可能性があります。同時に、互換性を確保するために、関連するすべてのハードウェア、ソフトウェア、プロトコルスタックをアップグレードする必要があります。
標準化と移行の複雑性:米国のNISTなどの機関がPQCの標準化を推進しているものの、最終的な標準の確定と世界的な統一には時間がかかります。北京市密管局が発表した商密フロンティアの動向は、業界が脅威への対応を後押しするために、NIST候補アルゴリズムのオープンソース実装に積極的に取り組んでいることを示しています。移行プロセス全体は、リスク評価、アルゴリズム選定、ハイブリッド導入、テスト、そして全面的な更改を含む、巨大で複雑なシステムエンジニアリングです。とりわけ、構造が複雑なAIエコシステムにとってはなおさらです。
新たな安全リスク:PQCアルゴリズム自体は比較的新しい研究領域であり、その長期的な安全性はRSAのように数十年に及ぶ実戦での暗号解析によって裏付けられてはいません。未知の脆弱性を持つ可能性のあるPQCをAIシステムに拙速に導入すること自体もまた、一種のリスクです。
六、この変革に直面して「Q-Day」を受け身で待つのは危険だ
量子計算が既存のAI安全とガバナンス体制にもたらす破壊的影響は、現実のものであり、かつ迫っています。それは既存の体制を完全に覆すものではありませんが、暗号学的基盤を崩し、データリスクを増幅し、倫理的問題を複雑化し、さらに規制の遅れを浮き彫りにすることで、全体の体制に対して深く、かつ先見的なアップグレードを迫ります。
この変革に直面して、「Q-Day」を受け身で待つのは危険です。私たちは次の実行可能な行動の道筋を提案します:
量子安全リスク評価とチェックリストの作成を開始する:中核となるAI資産(特に長期の機微データに関係するモデルやデータ)について、直ちに量子脅威の評価を行い、最も脆弱な部分を特定し、移行の優先順位リストを作成します。
PQC移行ロードマップを策定し、実施する:NISTなどの標準化機関の進展に注目し、AIシステムの開発・運用においてPQC統合の計画を始めます。新設システムおよび重要システムでは、「暗号の機敏性(暗号の置換容易性)」を優先して設計し、将来に暗号アルゴリズムをシームレスに置き換えられるようにします。移行期間のために、現行の「古典+PQC」の混合暗号方式を検討することもできます。
ガバナンス枠組みの適応的更新を推進する:業界団体、標準化機関、規制当局が協力して、量子耐性要件をAI安全標準、データ保護規制、製品認証体系に組み込む研究を行い、提案・反映していくべきです。QMLの倫理審査に先立つ研究の枠組みとガイドラインをあらかじめ構築します。
分野横断の人材育成と研究を強化する:AIを理解しつつ量子計算と暗号学も理解できる複合型人材を育成し、AI安全研究に量子脅威モデルの導入を促し、耐量子AI安全技術の研究開発に資金提供します。
量子計算がもたらす課題は非常に大きいものの、同時に、デジタル世界の基盤を見直し、強固にするための機会も与えてくれています。能動的な計画、協調的なイノベーション、機敏なガバナンスを通じて、量子計算のもたらす恩恵を受け入れつつ、その安全リスクにも耐えられる、よりしなやかなAIの未来を構築することは十分に可能です。