Estudos que comparam IA e médicos esbarram em limitações e reforçam cenário de colaboração
São Paulo – Pesquisas recentes que analisam o desempenho de sistemas de inteligência artificial (IA) em atividades médicas voltaram a sugerir que algoritmos podem superar profissionais de saúde em diagnósticos e condutas clínicas. Uma avaliação mais detalhada, porém, indica que esses estudos apresentam restrições metodológicas que distanciam os resultados da realidade dos consultórios e hospitais, apontando para um futuro de integração, e não de substituição.
O exemplo mais citado é um estudo conduzido pela Microsoft, no qual médicos foram submetidos a um teste de perguntas clínicas com tempo limitado. Ao grupo humano foi proibido consultar livros, colegas ou qualquer recurso eletrônico, inclusive outra IA. A metodologia criou um cenário artificial que contrasta com a prática médica de 2025, na qual o exercício profissional envolve consultas frequentes a diretrizes, base de dados, teleconferências e sistemas de suporte à decisão.
Pesquisadores que analisaram o desenho do experimento afirmam que, ao eliminar formas de assistência comumente empregadas, o estudo empurrou os profissionais para uma competição desvantajosa. Consequentemente, algoritmos treinados em grandes bases de conhecimento demonstraram desempenho percentual superior, mas em condições que não refletiam o ecossistema colaborativo no qual médicos atuam atualmente.
O debate sobre a melhor maneira de avaliar ferramentas de IA na saúde ocorre em paralelo a avanços tecnológicos notáveis. Na China, o modelo Kimi K2, apresentado como alternativa de código aberto ao ChatGPT, registrou pontuações elevadas em testes de linguagem médica. No campo cirúrgico, um robô guiado inteiramente por inteligência artificial realizou pela primeira vez um procedimento sem interferência humana. Em laboratório, outra plataforma experimental foi capaz de simular respostas que se aproximam do comportamento analisado em estudos de psicologia cognitiva.
Embora esses marcos ilustrem a velocidade da inovação, especialistas lembram que a adoção segura de algoritmos depende de etapas rigorosas de validação. Isso inclui avaliar vieses nos dados de treinamento, transparência nos critérios de decisão e integração eficiente aos fluxos de trabalho clínico. Sem essas garantias, resultados positivos em ambientes controlados podem não se repetir na diversidade de pacientes, equipamentos e protocolos ao redor do mundo.
Outro ponto de atenção é a chamada adaptação tecnológica, processo que envolve capacitação de equipes, revisão de normas éticas e atualização de sistemas de informação. Hospitais que implementaram prontuários eletrônicos ao longo da última década relatam que ganhos de produtividade surgem apenas após fase de ajuste que pode durar meses ou anos. Especialistas em saúde digital observam que o mesmo deverá ocorrer com a IA: algoritmos precisam ser continuamente avaliados, atualizados e alinhados a evidências clínicas recentes.
Nesse cenário, a projeção considerada mais plausível por pesquisadores e órgãos reguladores é a de um modelo híbrido no qual médicos permanecem como responsáveis finais pelas decisões, apoiados por sistemas que aceleram a análise de exames, sugerem diagnósticos diferenciais ou destacam interações medicamentosas. A combinação tende a reduzir erros, padronizar protocolos e ampliar o acesso a atendimentos especializados em regiões com escassez de profissionais.
Instituições de pesquisa defendem, ainda, que estudos comparativos adotem desenhos que reflitam a prática cotidiana. Isso inclui permitir que médicos utilizem recursos de apoio disponíveis e que algoritmos sejam avaliados não apenas pela acurácia, mas também pela capacidade de justificar recomendações de forma compreensível. A transparência é considerada fundamental para manter a confiança da população e para que profissionais possam contestar ou confirmar sugestões emitidas pela máquina.
Com a expansão de projetos-piloto em hospitais públicos e privados, autoridades sanitárias acompanham a evolução das ferramentas de IA e discutem parâmetros de certificação. Diretrizes preliminares recomendam que resultados de algoritmos sejam submetidos a revisão médica, que os dados de pacientes sejam protegidos por camadas adicionais de segurança e que casos de falha sejam reportados de maneira padronizada para avaliação contínua.
Em síntese, os indícios atuais apontam que a inteligência artificial, isoladamente, não superará a experiência humana em medicina, mas funcionará como complemento que potencializa a atuação de clínicos, cirurgiões e outros especialistas. A despeito de manchetes que exaltam a superioridade dos algoritmos, o consenso emergente é que a colaboração entre homem e máquina representa a via mais promissora para melhorar desfechos e ampliar o alcance dos serviços de saúde.

