Avaliação independente publicada na Nature Medicine revela que sistema pode subestimar riscos graves e comprometer a segurança do paciente.

A pesquisa alerta que a inteligência artificial pode atrasar diagnósticos críticos de asma e ideação suicida. O impacto direto é a criação de uma falsa sensação de segurança, evidenciando a urgência de protocolos rigorosos antes da adoção em larga escala na saúde pública.

Análise aponta riscos na identificação de quadros graves

Uma avaliação independente do ChatGPT Health revelou falhas preocupantes na identificação de emergências médicas e sinais de ideação suicida. O estudo concluiu que o sistema pode subestimar quadros clínicos graves, atrasar a busca por atendimento adequado e, em casos extremos, contribuir para mortes evitáveis. A pesquisa foi publicada nesta semana na revista Nature Medicine e analisou a eficiência da versão do ChatGPT voltada para consultas de saúde.

Metodologia e inconsistências nos resultados

Para testar a ferramenta, pesquisadores criaram 60 cenários clínicos realistas, variando de situações leves a emergências críticas. Três médicos avaliaram previamente cada caso para definir a conduta correta. Em seguida, os cenários foram submetidos ao sistema em diferentes variações, gerando cerca de mil respostas para comparação. Os dados revelaram os seguintes pontos:

  • Em 51,6% das situações emergenciais, o sistema recomendou permanecer em casa ou agendar consulta de rotina.
  • Quase 65% dos casos sem risco receberam orientações desnecessárias de procura imediata por atendimento urgente.
  • Houve falhas críticas em quadros de asma com sinais de insuficiência respiratória, onde a recomendação foi apenas aguardar.
  • Embora o chatbot tenha acertado em diagnósticos clássicos como acidente vascular cerebral (AVC) e reações alérgicas graves, o comportamento oscilou drasticamente em outros contextos. O sistema tendeu a minimizar sintomas quando o cenário incluía a opinião de terceiros sugerindo que o problema não era sério.

Impacto na saúde mental e resposta da OpenAI

No âmbito da saúde mental, as respostas variaram de forma alarmante. Em casos de pensamentos suicidas, o ChatGPT Health apresentava alertas de crise ao ler apenas os sintomas. No entanto, ao incluir resultados laboratoriais normais no mesmo relato, os avisos de segurança deixaram de ser exibidos. Os autores alertam que a ferramenta pode gerar uma falsa sensação de segurança ou sobrecarregar desnecessariamente o sistema de saúde.

Em resposta ao jornal The Guardian, a OpenAI afirmou que apoia pesquisas independentes, mas declarou que o estudo "não necessariamente reflete o uso real da ferramenta no cotidiano". A empresa informou ainda que o modelo passa por atualizações constantes. Para os especialistas, o estudo evidencia a necessidade de maior transparência sobre o treinamento do sistema e a implementação de protocolos de segurança mais rigorosos.


Siga-nos no Google notícias

Google News

Tags

  • ChatGPT
  • ChatGPT Health
  • Estudo
  • inteligência artificial
  • Nature Medicine
  • saúde digital
  • segurança do paciente