A IA na área da saúde elimina a discriminação? Os doentes com elevados rendimentos recebem exames de precisão; pessoas negras e sem-abrigo são aconselhadas a tratamentos invasivos

ChainNewsAbmedia

À medida que as aplicações comerciais da tecnologia de inteligência artificial (IA) na indústria da saúde se tornam cada vez mais generalizadas, os seus potenciais riscos sistémicos também vão ganhando visibilidade. Um estudo mais recente da revista científica «Nature Medicine» indica que, ao tomar decisões, as ferramentas de IA na área da saúde acabam por fornecer recomendações médicas claramente diferentes com base no rendimento, raça, género e orientação sexual dos doentes, o que poderá causar danos reais aos direitos dos pacientes e à atribuição global dos recursos de saúde.

Investigação: doentes com maior rendimento são mais facilmente recomendados para exames avançados

O estudo testou 9 modelos de linguagem de grande escala (LLM) disponíveis no mercado, introduzindo 1.000 casos de urgência. A equipa de investigação manteve deliberadamente consistentes os sintomas médicos de todos os doentes, alterando apenas características de fundo como rendimento e raça, bem como condições de residência. Os resultados mostram que o sistema de IA, ao dar recomendações médicas, apresenta uma diferença evidente entre os «ricos e os pobres».

Os doentes marcados como «de alto rendimento» têm uma probabilidade muito mais elevada de receber recomendações para exames de imagem avançados, como ressonância magnética (RM) ou tomografia computorizada (TC), do que os doentes de baixos rendimentos. Isto significa que, mesmo com a mesma condição clínica, a IA ainda pode distribuir de forma desigual os recursos de saúde com base na posição socioprofissional pré-definida.

Não negros, sem-abrigo e as comunidades LGBTQ+ são mais propensos a receber recomendações para tratamentos invasivos e avaliação psiquiátrica

Além das diferenças entre classes de riqueza, a IA também apresenta um tratamento marcadamente desigual nas suas decisões médicas relativamente a raças e grupos vulneráveis. O relatório da investigação refere que, quando os doentes são identificados como negros, sem-abrigo ou LGBTQIA+ (comunidade de género diverso), a IA tende mais a recomendar que sejam enviados para a urgência, submetidos a intervenções médicas invasivas e até que realizem avaliações de psiquiatria, mesmo quando estes procedimentos são, na prática clínica, completamente desnecessários. Estas recomendações médicas excessivas e inadequadas divergem fortemente do juízo dos profissionais médicos na vida real, demonstrando que o sistema de IA está a reforçar, de forma invisível, estereótipos negativos já existentes na sociedade.

1,7 milhões de testes em contexto real: a IA baseada em dados pode aumentar o risco de erros de diagnóstico clínico

Este estudo executou mais de 1,7 milhões de respostas de IA, e os especialistas indicam que a lógica de tomada de decisão da inteligência artificial deriva dos dados históricos de treino produzidos por humanos, pelo que herda também os preconceitos latentes nesses dados. A triagem na urgência, os exames avançados e o acompanhamento subsequente são passos fundamentais para alcançar diagnósticos precisos; se estas decisões iniciais forem influenciadas pelas características demográficas do doente, isso ameaçará seriamente a exatidão do diagnóstico.

Embora os investigadores tenham constatado que, ao orientar alguns modelos através de «prompts» específicos («prompt»), é possível reduzir cerca de 67% dos preconceitos, ainda assim não é possível eliminar completamente este problema sistémico.

Especialistas apelam a que instituições de saúde e decisores criem mecanismos de proteção

Com a publicação deste estudo, as regras de aplicação da IA no sistema de saúde tornaram-se o foco de atenção da indústria e das entidades reguladoras. Para os profissionais de saúde na linha da frente, é necessário reconhecer que as recomendações de IA podem incluir preconceitos explícitos e implícitos, não podendo depender cegamente das suas decisões; os gestores das instituições de saúde, por sua vez, devem criar mecanismos contínuos de avaliação e monitorização, de modo a garantir a equidade dos serviços de saúde.

Em simultâneo, os decisores políticos também obtiveram evidência científica fundamental: no futuro, deverá ser promovida uma maior transparência dos algoritmos de IA e a definição de padrões de auditoria. Para o público em geral, este é igualmente um importante sinal de alerta: ao utilizar serviços de aconselhamento de saúde baseados em várias formas de IA, introduzir demasiado dados pessoais sobre contexto social e económico pode, sem intenção, influenciar as avaliações médicas fornecidas pela IA.

Este artigo, «IA médica com discriminação em massa! Doentes com alto rendimento recebem exames de alta precisão; pessoas negras e sem-abrigo são aconselhadas a tratamentos invasivos», apareceu pela primeira vez em Cadeia de Notícias ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Samsung SDS Expande Parceria com Google Cloud para Atender Setores Regulados com Serviços de IA e Segurança

Mensagem do Gate News, 23 de abril — A Samsung SDS expandiu sua parceria com o Google Cloud para oferecer serviços de IA, computação em nuvem e segurança a setores regulados, incluindo governo e serviços financeiros. As empresas vão implantar o Google Distributed Cloud para clientes que exigem localização de dados

GateNews8m atrás

Sullivan & Cromwell Pede Desculpas por Alucinações de IA em Petição Judicial com 40 Citações Errôneas

Mensagem do Gate News, 23 de abril — Sullivan & Cromwell, um grande escritório de advocacia de Wall Street, pediu desculpas a um juiz federal depois de apresentar uma petição judicial contendo aproximadamente 40 citações incorretas e outros erros causados por alucinações de IA. Andrew Dietderich, co-chefe da equipe global de reestruturação do escritório,

GateNews23m atrás

Tencent Lança e Disponibiliza em Código Aberto Prévia do Hunyuan Hy3 com 295B de Parâmetros

Mensagem do Gate News, 23 de abril — A Tencent revelou e disponibilizou em código aberto a prévia do Hunyuan Hy3, um modelo híbrido de linguagem mixture-of-experts (mistura de especialistas) com fusão de pensamento rápido e lento. O modelo possui 295 bilhões de parâmetros no total e 21 bilhões de parâmetros ativos, com suporte a um comprimento máximo de contexto de 256K

GateNews37m atrás

Coreia do Sul e Vietnã firmam 70+ MOUs em IA, Energia e Infraestrutura de Dados

Mensagem do Gate News, 23 de abril — A Coreia do Sul e o Vietnã assinaram mais de 70 memorandos de entendimento (MOUs) durante a visita oficial do presidente Lee Jae Myung a Hanói em 23 de abril, cobrindo IA, energia, infraestrutura e telecomunicações. Um fórum empresarial, com a participação de mais de 500 executivos, discutiu ecossistemas de IA e da indústria de energia, com grandes conglomerados coreanos, incluindo Samsung, SK, LG e Hyundai, representados.

GateNews38m atrás

Engenho de respostas por IA é alvo de poluição coletiva: 56% das respostas corretas no Gemini 3 não têm suporte de fonte

Este texto aponta que, ao consultar um mecanismo de respostas por IA, ele cita páginas da web em tempo real; se a fonte for gerada por IA ou faltar evidências, isso polui os resultados. Não é necessário mais treinar para que funcione, sendo isso chamado de contaminação por recuperação (retrieval contamination). Embora o Gemini3 tenha alta taxa de acerto, 56% das respostas não têm fontes verificáveis; casos como Lily Ray, Grokipedia etc. mostram que a IA é facilmente enganada por conteúdo inventado. A conclusão é que a camada de citação se desconecta de autores confiáveis, formando um ciclo de poluição autorreforçado; ainda assim, os usuários precisam voltar à fonte original e não devem tratar a resposta como o ponto final da verificação de fatos.

ChainNewsAbmedia46m atrás

Anthropic Diz ao Tribunal que Modelos de IA do Pentágono Implantados Não Têm 'Kill Switch'

Mensagem do Gate News, 23 de abril — A Anthropic protocolou um documento na U.S. Court of Appeals for the D.C. Circuit afirmando que, uma vez que seus modelos de IA sejam implantados em ambientes do Pentágono, a empresa não tem visibilidade nem meios técnicos para controlar ou desligar os modelos, e não existe um "kill switch"

GateNews48m atrás
Comentário
0/400
Sem comentários