Um estudo internacional recente acendeu um alerta sobre o uso de inteligência artificial em orientações médicas: cerca de metade das respostas fornecidas por chatbots de IA apresenta problemas que podem comprometer a segurança dos usuários.
A pesquisa analisou o desempenho de cinco plataformas amplamente utilizadas — ChatGPT, Gemini, Meta AI, Grok e DeepSeek — a partir de 10 perguntas relacionadas à saúde, distribuídas em cinco áreas temáticas. O levantamento foi conduzido por especialistas dos Estados Unidos, Canadá e Reino Unido, e os resultados foram divulgados nesta semana na revista científica BMJ Open.
Segundo os pesquisadores, aproximadamente 50% das respostas continham informações problemáticas, sendo que quase 20% foram classificadas como gravemente inadequadas.
Áreas com mais falhas
Os sistemas tiveram desempenho melhor em questões objetivas, especialmente sobre vacinas e câncer. Em contrapartida, apresentaram maior índice de erros em perguntas abertas e em temas mais complexos, como nutrição e terapias com células-tronco.
Outro ponto preocupante destacado no estudo foi o grau de confiança com que as respostas incorretas eram apresentadas. Mesmo quando equivocadas, as informações eram formuladas de maneira convincente, transmitindo segurança ao usuário. Além disso, nenhum dos chatbots conseguiu fornecer referências bibliográficas completas e totalmente corretas quando solicitado.
Entre todas as plataformas avaliadas, apenas o Meta AI recusou responder a duas perguntas específicas.
Cresce o uso, aumentam os riscos
Os autores do estudo alertam que, apesar da popularização dessas ferramentas, elas não possuem autorização nem capacitação clínica para substituir profissionais da saúde. A ausência de julgamento médico especializado pode levar a interpretações erradas, diagnósticos imprecisos e disseminação de desinformação.
A expansão do uso dessas tecnologias é rápida: somente o ChatGPT, segundo a OpenAI, recebe semanalmente mais de 200 milhões de consultas relacionadas à saúde e bem-estar.
Setor investe, especialistas pedem cautela
Diante dessa demanda crescente, empresas do setor vêm ampliando suas iniciativas na área médica. Em janeiro, a OpenAI anunciou novos recursos voltados tanto para pacientes quanto para profissionais de saúde. No mesmo período, a Anthropic informou que também prepara soluções específicas para o segmento com seu chatbot Claude.
Apesar dos avanços, os pesquisadores reforçam que a adoção desses sistemas sem supervisão adequada e sem educação pública sobre seus limites pode agravar a circulação de informações falsas. Para eles, a implementação de IA na saúde exige revisão cuidadosa, regulamentação e critérios mais rigorosos antes de ser incorporada amplamente à comunicação médica.





