CEO da DeepMind lamenta que a comercialização da IA esteja a acontecer demasiado rapidamente: se tivessem deixado os laboratórios de investigação por mais alguns anos, a humanidade poderia já ter vencido o cancro

O CEO da DeepMind do Google, Hassabis, lamenta que a competição empresarial em IA seja demasiado precipitada; se a tecnologia pudesse ser mais desenvolvida em laboratórios durante alguns anos, talvez a humanidade já tivesse conquistado o câncer.

A IA está a transformar rapidamente a humanidade, com novas tecnologias e ferramentas a surgir a cada poucas semanas ou até dias, mas o CEO da DeepMind, Demis Hassabis, vencedor do Prémio Nobel de Química em 2024, acredita que o ritmo da competição em IA é demasiado acelerado; se fosse ele a decidir, a IA poderia passar mais anos a ser aperfeiçoada em laboratórios, e talvez a humanidade já tivesse vencido o câncer.

Hassabis revelou esta reflexão sobre o desenvolvimento atual da IA no podcast do jornalista de vídeo, Cleo Abram. No passado, ao ser entrevistado pela revista Time, Hassabis posicionou-se como um cientista, enfatizando que a exploração da IA visa a busca pelo conhecimento e a compreensão do mundo.

Ele mencionou que o seu objetivo ao entrar na área de IA não era criar chatbots, mas acelerar descobertas científicas. A sua conquista mais conhecida é o AlphaFold, um sistema que resolveu o “problema do dobramento de proteínas”, que há 50 anos permanecia sem solução na biologia. Hassabis destacou que isso beneficiou mais de 3 milhões de cientistas globalmente, especialmente na pesquisa de doenças como a malária, fornecendo uma base de dados estrutural gratuita que permite aos investigadores avançar para a fase de desenvolvimento de medicamentos, sem precisar de realizar experimentos básicos.

Fonte da imagem: YouTube. Os resultados de pesquisa do AlphaFold fizeram de Hassabis um dos laureados com o Nobel.

Ele acredita que, se o IA pudesse permanecer mais anos em laboratórios, focada nestas questões cruciais, a humanidade poderia já ter feito avanços decisivos no tratamento do câncer ou na ciência dos materiais.

Tecnologias de ponta chegam às mãos do público em meses, mas perdem-se recursos para questões essenciais

Hassabis descreve no entrevista a sua visão ideal para o desenvolvimento de IA — o chamado “modelo CERN”. Ele deseja que o processo de desenvolvimento de inteligência artificial geral seja semelhante à operação do Grande Colisor de Hádrons (LHC) do CERN, usando métodos científicos rigorosos, cautelosos e bem pensados, garantindo que cada passo seja compreendido antes de avançar.

No entanto, a realidade divergiu do seu roteiro ideal. O sucesso do ChatGPT no final de 2022 e os avanços em IA generativa desencadearam uma corrida empresarial caótica global. Hassabis admite que essa situação acelerou a implementação prática da IA, com tecnologias avançadas a chegar ao público em poucos meses, mas também a dispersar recursos de questões realmente críticas.

Para conquistar mercado e manter a liderança tecnológica, o ritmo de desenvolvimento foi forçado a acelerar. Hassabis confessa que eles já não conseguem seguir o ritmo de anos atrás, quando sonhava em desenvolver com uma abordagem filosófica, cautelosa, avaliando cuidadosamente cada próximo passo.

Embora os chatbots de IA sejam úteis para resumos e brainstorming, eles ainda apresentam falhas como alucinações, e a pressão comercial força esses produtos experimentais a serem rapidamente lançados ao público. Isso faz com que grande parte do foco e recursos de investigação sejam direcionados para ciclos de lançamento de modelos de base universais, que atendem ao uso geral.

Para equilibrar a realidade com a visão, Hassabis adota uma postura mais pragmática: lidera o desenvolvimento de produtos de IA de consumo, como o Gemini do Google, enquanto investe em IA aplicada (Narrow AI). Ele acredita que não é necessário esperar pela IA geral; sistemas específicos, como o AlphaFold, podem já proporcionar benefícios concretos em energia, ciência dos materiais e medicina.

AlphaGo revela potencial de IA para superar o pensamento humano

A confiança de Hassabis na IA é amplamente baseada na partida de 2016 entre AlphaGo e o campeão sul-coreano Lee Sedol, que chocou o mundo. Nessa partida, AlphaGo fez a famosa “Jogada 37”, uma jogada inicialmente considerada improvável, mas que acabou por conduzir à vitória do sistema.

Fonte: gogameguru.com. Quando AlphaGo jogou uma jogada que os mestres humanos nunca fariam, Hassabis viu nela uma possibilidade de a IA ultrapassar os limites do pensamento humano.

Hassabis percebeu, a partir desse sinal, que a IA já tinha a capacidade de ir além da experiência humana, procurando soluções inovadoras. Ele quer aplicar essa criatividade que supera o pensamento humano na ciência.

O AlphaFold é o melhor exemplo dessa mentalidade. Métodos tradicionais levam dezenas de milhares de dólares e anos para determinar a estrutura de uma proteína. O AlphaFold 2 já previu quase 200 milhões de estruturas de proteínas conhecidas na ciência.

Agora, Hassabis lidera uma equipa que avança para uma fase mais profunda de desenvolvimento de medicamentos. Tradicionalmente, a pesquisa de medicamentos leva cerca de 10 anos e tem uma taxa de sucesso de apenas 10%.

Ele fundou a Isomorphic Labs, que usa o AlphaFold 3 e modelos subsequentes para “triagem virtual”. Com IA, é possível simular milhões de combinações de compostos e proteínas em minutos, verificando também se podem ser tóxicos para as mais de 20 mil proteínas humanas, eliminando na fase de computador a maioria das combinações que provavelmente falhariam, deixando apenas os candidatos mais promissores para testes laboratoriais.

Preocupações com os riscos que a IA pode trazer

No entanto, à medida que a tecnologia de IA avança e entra na era dos agentes de IA, as preocupações de Hassabis tornam-se mais concretas. Ele categoriza os riscos em duas grandes categorias: a primeira, os “agentes mal-intencionados” (Bad Actors), indivíduos ou países que podem usar tecnologias originalmente destinadas a curar doenças ou desenvolver novos materiais para fins maliciosos.

A segunda, mais de ficção científica, mas já uma ameaça real, é o “desvio da IA” (Going rogue). Quando os sistemas se tornam extremamente inteligentes e altamente autônomos, é um desafio técnico enorme garantir que eles executem com precisão os objetivos humanos, sem contornar as salvaguardas de segurança ao longo do processo.

Diante desses desafios, Hassabis apela à cooperação internacional entre os principais centros de pesquisa em IA, governos e academia, destacando a necessidade de mais estudos de segurança na última etapa rumo à AGI (Inteligência Artificial Geral).

Apesar de lamentar que a IA não tenha ficado mais tempo em laboratórios, Hassabis mantém uma visão otimista para os próximos 50 anos. Ele acredita que a IA ajudará a humanidade a resolver a fusão nuclear, descobrir supercondutores à temperatura ambiente e até reduzir a custos energéticos na exploração espacial. Para ele, a IA não é apenas uma tecnologia, mas uma lente de ampliação na busca pela verdade do universo, e, independentemente da resposta, ele deseja conhecer a verdade.

  • Este artigo foi reproduzido com permissão de: “Digital Times”
  • Título original: “Prémio Nobel lamenta ‘rapidez demais na comercialização de IA’: se tivessem ficado mais anos em laboratório, a humanidade já teria conquistado o câncer!”
  • Autor original: Chen Jianjun
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar