Ativos compatíveis com IA, a Quantum está a «reavaliar»

Artigo: Zhang Feng

Atualmente, a Inteligência Artificial está a integrar-se numa profundidade sem precedentes na produção social e na vida quotidiana; a sua segurança e o seu sistema de governação constituem os alicerces da era digital. No entanto, uma revolução do poder de computação — a computação quântica — proveniente de princípios físicos, está a aproximar-se discretamente. As suas potenciais forças disruptivas colocam as atuais barreiras de segurança e os enquadramentos de governação perante um interrogatório severo. A computação quântica irá derrubar os atuais sistemas de segurança e governação da IA? Esta não é apenas uma questão técnica, mas um desafio global relativo à ordem futura das sociedades digitais. Quando o salto no poder de computação encontra regras em atraso, como nos preparamos atempadamente para o “Q-Day”?

I. Como é que a computação quântica ameaça os atuais algoritmos de criptografia assimétrica amplamente utilizados?

A segurança dos atuais sistemas de IA, desde a transmissão de modelos, ao armazenamento de dados, até à autenticação de identidade, depende fortemente de algoritmos de criptografia assimétrica, como RSA e ECC (criptografia de curvas elípticas). A segurança destes algoritmos assenta na “complexidade computacional” de problemas matemáticos difíceis, como a “decomposição de grandes números” ou o “logaritmo discreto”, que impedem que os computadores clássicos resolvam essas questões num intervalo de tempo aceitável.

Contudo, a computação quântica traz uma mudança paradigmática fundamental. Algoritmos quânticos, como o de Shor, conseguem, em teoria, reduzir o tempo de resolução destes problemas de escala exponencial para escala polinomial. Uma análise publicada num artigo refere que, incluindo o algoritmo de Regev e as suas extensões, os mais recentes algoritmos quânticos estão continuamente a otimizar a eficiência de quebra de criptografia assimétrica. Isto significa que, assim que surgir um computador quântico universal de escala suficiente (normalmente com milhões de qubits estáveis), o “trinco” que atualmente protege a comunicação na Internet, assinaturas digitais e dados encriptados poderá ser aberto instantaneamente.

Esta ameaça não está longe. A investigação da comunidade ZhiYuan alerta que se trata de uma ameaça “em curso”: os atacantes podem, desde já, intercetar e armazenar dados de comunicações encriptadas (incluindo dados de treino de IA, parâmetros de modelos, etc.), aguardando que, no futuro, a computação quântica amadureça para os descodificar. Esta estratégia de “intersetar primeiro, descodificar depois” faz com que toda a informação valiosa que precisa de confidencialidade a longo prazo — incluindo segredos nacionais, patentes comerciais e dados pessoais de privacidade — fique exposta a riscos futuros. Por conseguinte, a ameaça da computação quântica à criptografia assimétrica é fundamental e sistémica, abala diretamente as bases do atual sistema de segurança da IA e, mesmo, do mundo digital como um todo.

II. Perante a computação quântica, que novos desafios enfrentam o treino de modelos de IA e a proteção da privacidade dos dados?

O desenvolvimento da IA depende da alimentação de dados em grande escala e do treino de modelos complexos; este processo, por si só, está repleto de desafios de privacidade e segurança. A introdução da computação quântica torna estes desafios ainda mais agudos e complexos.

Em primeiro lugar, a confidencialidade a longo prazo do ciclo de vida dos dados deixa de funcionar. Conforme referido acima, os conjuntos de dados de treino de IA encriptados atualmente no armazenamento em nuvem ou em trânsito podem ser totalmente expostos devido a futuras descodificações quânticas. Um documento técnico de estratégia global de migração pós-quântica da Universidade Xi’an Jiaotong-Liverpool afirma explicitamente que, a nível global, os adversários estão a implementar de forma organizada esta estratégia de “colheita de dados”, aguardando pacientemente a chegada do “Q-Day” (o dia em que a computação quântica se torna prática). Isto constitui uma ameaça de origem para modelos de IA que dependem de dados sensíveis (como registos médicos, informação financeira e dados biométricos) para treino.

Em segundo lugar, tecnologias de computação de privacidade como a aprendizagem federada enfrentam novas exigências. A aprendizagem federada protege os dados originais ao treinar modelos localmente e, apenas, interagir com atualizações de parâmetros do modelo. No entanto, as informações de gradientes ou atualizações de parâmetros trocadas nas interações também são transmitidas encriptadas. Se a criptografia subjacente for quebrada pela computação quântica, os atacantes poderão inferir de forma retrospetiva as características dos dados originais das partes envolvidas, fazendo com que os mecanismos de proteção da privacidade fiquem praticamente inoperacionais.

Por fim, aumentam drasticamente as dificuldades em furto de modelos e proteção de direitos de propriedade intelectual. Os modelos de IA bem treinados são ativos centrais das empresas. Atualmente, os pesos e as arquiteturas de modelos são geralmente distribuídos e implementados através de encriptação. A computação quântica pode tornar estas medidas ineficazes, permitindo cópia fácil do modelo, engenharia reversa ou adulteração, originando violações graves de propriedade intelectual e vulnerabilidades de segurança. No “Blue Book de Governação da Inteligência Artificial”, o Instituto de Investigação de Comunicação e Informação da China salienta que a governação da IA deve responder a riscos como a utilização indevida de tecnologia e a segurança dos dados; a computação quântica, sem dúvida, amplifica o poder destrutivo destes riscos.

III. Como é que o desenvolvimento da aprendizagem automática quântica vai influenciar os quadros de segurança da IA e de revisão ética?

A combinação de computação quântica e IA — aprendizagem automática quântica (QML) — antevê uma nova vaga de avanços de desempenho. Mas ao mesmo tempo, traz novos problemas inéditos de segurança e ética, colocando em causa os atuais quadros de revisão.

Ao nível da segurança, a QML pode dar origem a ferramentas de ataque mais poderosas. Por exemplo, algoritmos quânticos podem acelerar imensamente a geração de amostras adversariais, criando ataques mais ocultos e com maior capacidade de destruição, tornando rapidamente ultrapassados os atuais sistemas de defesa de segurança de IA baseados em computação clássica (como treino adversarial e deteção de anomalias). Uma análise descreve “quântica+IA” como o próximo campo de batalha decisivo entre vida e morte em cibersegurança, indicando que é necessário aperfeiçoar com visão prospetiva os respetivos quadros regulamentares.

Ao nível ético, as características de “caixa negra” da QML podem ser ainda mais profundas do que as da IA clássica. O seu processo de decisão baseia-se em superposição quântica e estados emaranhados, o que pode torná-lo ainda mais difícil de explicar, auditar e responsabilizar. As discussões éticas e riscos trazidos pela QML — como justiça algorítmica, definição de responsabilidade e controlabilidade técnica — já foram amplamente explorados. Como se concretizam, na escala quântica, as orientações éticas atuais para a IA (como transparência, justiça e responsabilização)? Como é que as entidades reguladoras analisam um modelo de decisão baseado em circuitos quânticos que pode estar em sobreposição de múltiplos estados? Estes são problemas para os quais os atuais quadros de revisão ética ainda não estão preparados. O modelo de governação precisa de passar do mero cumprimento de conformidade técnica para uma compreensão mais profunda da natureza das características quânticas e do seu impacto social.

IV. As atuais leis e regulamentos de governação da IA (como o GDPR) conseguem lidar com as mudanças de segurança trazidas pela computação quântica?

Os regulamentos atuais de governação de IA e de dados, exemplificados pelo Regulamento Geral sobre a Proteção de Dados da União Europeia (GDPR), mantêm, em termos conceptuais, valor de orientação em princípios centrais como “proteção por conceção e proteção por defeito”, “minimização de dados”, “limitação de armazenamento” e “integridade e confidencialidade”. Contudo, no que respeita à implementação técnica específica e aos requisitos de conformidade, enfrentam atualmente o “fosso de conformidade” trazido pela computação quântica.

O GDPR exige que os controladores de dados adotem medidas técnicas e organizacionais adequadas para garantir a segurança dos dados. Mas, no contexto de ameaças quânticas, o que são “medidas” de encriptação “adequadas”? Continuar a usar algoritmos que se provou serem inseguros do ponto de vista quântico poderá, no futuro, ser considerado como falha no cumprimento das obrigações de garantia de segurança. Relativamente aos prazos exigidos no regulamento para notificação de violações de dados, como é que estes serão executados de forma eficaz quando confrontados com ataques avançados que possam ser realizados de forma praticamente instantânea e sem deixar rasto, explorando a computação quântica?

A nível global, os legisladores já reconheceram a necessidade de mudança. O “Relatório Anual sobre Governação Global da Inteligência Artificial de 2025” mostra que os países estão a acelerar a elaboração de leis específicas sobre governação da IA, criando organismos de coordenação de alto nível. A China, no “Relatório sobre o Desenvolvimento da China Digital (2024)”, enfatiza a necessidade de “acelerar a melhoria do sistema base de dados”, impulsionando continuamente a iniciativa “Inteligência Artificial+”. Estas tendências indicam que o sistema de governação está a ajustar-se ativamente. No entanto, as regulamentações especificamente dirigidas ao domínio transversal “computação quântica+IA” são, até ao momento, quase inexistentes. Os regulamentos atuais carecem de disposições concretas sobre calendários de migração de criptografia pós-quântica, normas de auditoria de modelos de QML e classificação dos níveis de segurança dos dados na era quântica, tornando difícil responder eficazmente às próximas mudanças de segurança.

V. Quais são as perspetivas de aplicação e as dificuldades de implementação da criptografia pós-quântica nos sistemas de IA?

A solução técnica mais direta para enfrentar ameaças quânticas é a criptografia pós-quântica (PQC). A PQC refere-se a algoritmos criptográficos capazes de resistir a ataques por computadores quânticos; não se baseia em princípios quânticos, mas sim em novos problemas matemáticos — acredita-se que também difíceis de resolver rapidamente mesmo para computadores quânticos — como redes em grelha (lattices), códigos, variáveis múltiplas (multivariáveis), etc.

As perspetivas de aplicação na IA são amplas e urgentes. A PQC pode ser usada para proteger cada etapa do fluxo de trabalho da IA: encriptar dados de treino e ficheiros de modelo com algoritmos PQC; usar assinaturas digitais PQC para verificar a integridade e autenticidade da origem do modelo; e estabelecer canais de comunicação seguros PQC entre nós de computação de IA distribuída. A Fortinet aponta que a PQC não é um conceito distante, mas sim uma solução prática e urgente para proteger sistemas digitais contra ameaças quânticas potenciais.

Contudo, a implementação completa da PQC enfrenta dificuldades significativas:

Desafios de desempenho e compatibilidade: muitos algoritmos PQC têm dimensões de chaves, comprimentos de assinatura ou custos computacionais muito superiores aos dos algoritmos atuais, o que, ao integrá-los em processos de treino e inferência de IA sensíveis à eficiência de computação e à latência, pode criar gargalos de desempenho. Além disso, é necessário atualizar todo o hardware, software e stack de protocolos relacionados para garantir a compatibilidade.

Complexidade de normas e migração: embora entidades como o NIST dos Estados Unidos estejam a promover processos de normalização da PQC, ainda será necessário tempo para a determinação final das normas e para a unificação global. A dinâmica da “vanguarda de segredos comerciais”, publicada pela Administração de Gestão de Segredos de Pequim, mostra que a indústria está a implementar ativamente, de forma open source, os algoritmos candidatos do NIST para ajudar as várias áreas a enfrentar as ameaças. Todo o processo de migração é um projeto sistémico vasto e complexo, que envolve avaliação de riscos, seleção de algoritmos, implementação híbrida, testes e substituição integral; isto é especialmente verdade para ecossistemas de IA com estruturas complexas.

Riscos de segurança de nova natureza: os algoritmos PQC são uma área de investigação relativamente recente; a sua segurança a longo prazo ainda não foi sujeita ao mesmo tipo de testes de criptografia prática em combate prolongado, durante décadas, como os que ocorreram com a RSA. Desencadear uma implementação apressada de PQC desconhecida por conter vulnerabilidades na IA também constitui, por si só, um risco.

VI. Perante esta transformação, é perigoso esperar passivamente pelo “Q-Day”

O impacto disruptivo da computação quântica nos atuais sistemas de segurança e governação da IA é real e iminente. Não se trata de derrubar completamente os sistemas existentes, mas de os forçar a passar por uma atualização profunda e prospetiva: ao desestruturar a sua base criptográfica, ampliar os seus riscos de dados, complexificar as suas questões éticas e evidenciar a sua defasagem regulamentar.

Perante esta transformação, é perigoso esperar passivamente pelo “Q-Day”. Recomendamos adotar os seguintes percursos de ação executáveis:

Iniciar avaliação de risco de segurança quântica e elaboração de inventário: avaliar imediatamente as ameaças quânticas aos ativos centrais de IA (sobretudo aos modelos e dados que envolvem dados sensíveis a longo prazo), identificar as ligações mais frágeis e estabelecer um inventário de prioridades de migração.

Definir e implementar um roadmap de migração PQC: acompanhar os progressos de entidades normalizadoras como o NIST e começar a planear a integração de PQC no desenvolvimento e na operação de sistemas de IA. Dar prioridade à adoção de um desenho de “agilidade criptográfica” em sistemas novos e em sistemas críticos, para facilitar a substituição sem interrupções dos algoritmos criptográficos no futuro. Pode considerar-se, como transição, o modelo híbrido de “clássica+PQC” atualmente em uso.

Impulsionar atualizações de adaptabilidade do quadro de governação: organizações do setor, entidades de normalização e reguladores devem colaborar para estudar e incorporar requisitos de resistência quântica nas normas de segurança de IA, nos regulamentos de proteção de dados e nos sistemas de certificação de produtos. Estabelecer antecipadamente quadros de investigação e diretrizes para a revisão ética da QML.

Reforçar formação de talentos e investigação transdisciplinares: formar talentos polivalentes que saibam tanto de IA como de computação quântica e criptografia; incentivar a inclusão de modelos de ameaças quânticas na investigação sobre segurança de IA; e financiar o desenvolvimento de tecnologias de segurança de IA resistentes ao pós-quântico.

Os desafios trazidos pela computação quântica são enormes, mas também nos oferecem uma oportunidade para voltar a examinar e reforçar os alicerces do mundo digital. Através de planeamento proativo, inovação em colaboração e governação ágil, é totalmente possível construir um futuro de IA mais resiliente — capaz de abraçar os benefícios do poder de computação quântico e, ao mesmo tempo, resistir aos respetivos riscos de segurança.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar