Selo IA

Fonte: SaúdeDigitalNews
Por Teresa Sacchetta*

A inteligência artificial deixa de ser promessa para se tornar parte invisível do cotidiano em saúde. Algoritmos auxiliam na prevenção e nos diagnósticos, contribuem para a escolha de terapias, apoiam análises de imagens e otimizam fluxos hospitalares. O essencial é garantir que esses avanços produzam impacto real e se incorporem a processos existentes, em vez de figurarem como modelos sofisticados e não utilizados. Em saúde, cada dado produzido tem potencial de orientar uma decisão que afeta vidas, aumentando a segurança do cuidado e garantindo desfechos adequados para os pacientes. Aspectos como redução de desperdícios, otimização do uso de recursos, gerenciamento de riscos, aumento do acesso para populações vulneráveis e mesmo como complemento da educação médica podem ser amplamente estimulados nesse novo contexto.

O Brasil vive um momento decisivo. O país concentra um conjunto expressivo de registros e informações em saúde, apoiado por um sistema público universal e um ecossistema de inovação em desenvolvimento. Ao mesmo tempo, enfrenta a fragmentação dos dados, o que limita o uso inteligente desses ativos. A Estratégia de Saúde Digital para o Brasil 2028[1] e o avanço de padrões como o HL7 FHIR[2] representam passos importantes que precisam ser assimilados pela cultura das instituições de saúde. Algoritmos de IA dependem, para funcionar bem, de dados íntegros, de contexto, diversidade e supervisão técnica e ética para servir à sociedade.

Nesse cenário, a ética deixa de ser um complemento e se torna o próprio núcleo da inovação. Os sistemas de IA são tão confiáveis quanto os valores que os orientam. A explicabilidade dos modelos, a replicabilidade, a supervisão humana e a mitigação de vieses são condições essenciais para preservar a confiança, em particular no setor de saúde. O debate regulatório brasileiro, materializado no PL 2338/2023[3], aproxima-se das melhores práticas internacionais, como as diretrizes da Comissão Europeia para uma IA Confiável[4] e os princípios da Organização Mundial da Saúde sobre IA para a Saúde[5]. A tecnologia evolui com velocidade crescente, enquanto a confiança se constrói com tempo, transparência e responsabilidade nas decisões.

Ainda é necessário reduzir a distância entre protótipo e realidade. Muitos projetos de IA não evoluem por falta de integração a fluxos de trabalho ou avaliação dos resultados clínicos. A tecnologia precisa ir além da eficiência e eficácia, contribuindo para um sistema de saúde mais equitativo, evitando desigualdades ou novas formas de exclusão. Isso implica medir impacto em desfechos, qualidade de vida e acesso.

O futuro da saúde digital será definido pela capacidade de cooperação entre instituições, profissionais e cidadãos. Dados de qualidade, marcos éticos sólidos e políticas públicas ancoradas nos desafios da sociedade sustentam confiança, de forma que a adoção em larga escala virá quando a IA deixar de ser notícia e se tornar ferramenta invisível de um sistema mais humano, eficiente, eficaz e inclusivo.

[1] https://www.gov.br/saude/pt-br/acesso-a-informacao/acoes-e-programas/estrategia-de-saude-digital- para-o-brasil-2028

[2] https://build.fhir.org/

[3] https://www.camara.leg.br/proposicoesWeb/fichadetramitacao?idProposicao=2346646

[4] https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai

[5] https://www.who.int/publications/i/item/9789240029200

____
*Diretora de Saúde, InterSystems e líder da vertical de negócios de saúde da ABES.

Compartilhe