Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Pesquisa revela: quase metade das recomendações médicas fornecidas por IA apresentam problemas, Grok é a pior, OpenAI ainda expande ambições na área médica
De acordo com um estudo publicado recentemente no BMJ Open, cerca de 50% das respostas de cinco grandes chatbots de IA a questões médicas apresentam problemas, sendo que quase 20% são consideradas “altamente problemáticas”. A Bloomberg destacou que esta pesquisa revela riscos sistemáticos na aplicação médica da IA, especialmente numa altura em que a OpenAI e a Anthropic expandem simultaneamente a sua presença na área da saúde, o que é particularmente irónico.
(Resumindo: Não entregues o teu historial médico ao chatbot? O jogo de privacidade por trás do ambicioso ChatGPT Health)
(Informação adicional: Estudo da Universidade da Califórnia revela fenómeno de “névoa cerebral” na IA: 14% dos trabalhadores ficam loucos com agentes e automação, com 40% a considerarem-se propensos a deixar o emprego)
Índice deste artigo
Alternar
Mais de 230 milhões de pessoas por semana perguntam a ChatGPT sobre saúde e medicina, mas quase metade das respostas pode estar incorreta. Segundo um estudo publicado esta semana na revista médica BMJ Open, investigadores dos Estados Unidos, Canadá e Reino Unido avaliaram sistematicamente cinco plataformas: ChatGPT, Gemini, Meta AI, Grok e DeepSeek, com cada uma a responder a cinco categorias médicas, totalizando 10 perguntas.
Os resultados não são tão otimistas: cerca de 50% das respostas foram consideradas problemáticas, sendo quase 20% altamente problemáticas.
Grok tem o pior desempenho, ChatGPT não fica atrás
A Bloomberg reporta que há diferenças consideráveis entre plataformas, mas nenhuma delas passou no teste. Com base na taxa de respostas às perguntas, Grok lidera com 58%, sendo a plataforma com pior desempenho; ChatGPT segue com uma taxa de 52%; Meta AI fica com 50%.
Os investigadores observaram que, em perguntas fechadas e relacionadas com vacinas e cancro, o desempenho dos chatbots foi relativamente melhor; mas em perguntas abertas e em áreas como células-tronco e nutrição, o desempenho caiu significativamente. Além disso, houve apenas duas situações de recusa em responder, ambas provenientes do Meta AI (o que, de certa forma, indica que saber que não se deve responder é uma vantagem rara).
Mais preocupante ainda, é que as respostas destas IA costumam ser cheias de confiança, com tom afirmativo e sem reservas. Os investigadores destacam que nenhum dos chatbots consegue fornecer uma lista completa e precisa de referências para qualquer questão. Isto significa que, mesmo que a IA pareça fundamentada, as fontes citadas muitas vezes não podem ser verificadas ou nem sequer existem.
Quanto mais confiante a IA, maior o risco
Os investigadores escrevem no artigo que estes sistemas podem gerar respostas que parecem autoritativas, mas que na realidade podem conter falhas, evidenciando as “limitações comportamentais significativas” dos chatbots na comunicação de saúde pública e médica, bem como a necessidade de reavaliar a sua implementação.
A Bloomberg também cita alertas da equipa de investigação: na ausência de educação pública e de mecanismos regulatórios, a maior ameaça da implementação massiva de chatbots é a propagação e disseminação de informações médicas incorretas.
Para comparação, um estudo na JAMA revelou que a taxa de falhas na fase de diagnóstico inicial com IA ultrapassa os 80%; a Universidade de Oxford também emitiu um aviso em fevereiro de 2026, alertando para os riscos sistemáticos dos chatbots na oferta de aconselhamento médico.
OpenAI e Anthropic: estudo trava, negócios aceleram
O momento em que este estudo foi divulgado é bastante dramático. Há poucos meses, a OpenAI lançou com grande destaque o ChatGPT Health em janeiro de 2026, uma funcionalidade que permite aos utilizadores conectar-se a registos eletrónicos de saúde, dispositivos vestíveis e aplicações de saúde, além de oferecer uma versão profissional para médicos. A OpenAI afirmou que, diariamente, 40 milhões de pessoas usam o ChatGPT para consultar informações de saúde.
Quase ao mesmo tempo, a Anthropic anunciou o lançamento do Claude for Healthcare, que, com certificação HIPAA, entra oficialmente no mercado da saúde.
Estas plataformas, sem licenças médicas ou capacidade de julgamento clínico, estão a expandir-se a uma velocidade surpreendente na área médica. A tensão entre os resultados do estudo e a expansão comercial revela uma lacuna regulatória: atualmente, não há uma linha clara de proteção entre a promoção de ferramentas de IA na saúde e a segurança real dos pacientes.
Confia na IA, mas com condições
Não é a primeira vez que as aplicações de IA na saúde são questionadas, mas cada estudo reforça a mesma mensagem: os chatbots são essencialmente modelos de linguagem que “parecem corretos”, mas não garantem a precisão. O problema é que, quando os utilizadores procuram ajuda com preocupações reais de saúde, a aparência de certeza pode já influenciar decisões importantes.
À medida que empresas como OpenAI e Anthropic aprofundam a sua presença na área médica, a velocidade de regulamentação e educação pública claramente não acompanha a expansão tecnológica. Antes de estabelecer limites claros, este estudo pode servir de alerta: a IA pode ser uma porta de entrada para informações de saúde, mas não deve ser o destino final.