Neste artigo
Uma nova resolução do Conselho Federal de Medicina (CFM) coloca o uso de inteligência artificial (IA) na medicina brasileira sob regras mais claras, com impactos diretos para hospitais, clínicas, operadoras e, na prática, para equipes multiprofissionais que convivem com ferramentas de apoio à decisão, triagem, previsão de risco e automação administrativa. Embora o texto seja voltado à atividade médica, a norma mexe no “como” as instituições vão implementar, registrar e auditar sistemas de IA, e isso atravessa rotinas de enfermagem, segurança do paciente e governança clínica.
Publicada como Resolução CFM nº 2.454/2026, a regra reforça um princípio central: a IA é ferramenta de apoio, e não substituto do julgamento profissional. A resolução também estabelece deveres de transparência, documentação e gestão de riscos para ambientes que adotam modelos algorítmicos em assistência e gestão.
“A tecnologia não pode substituir o julgamento clínico, e a decisão final diagnóstica, terapêutica e prognóstica permanece sob responsabilidade do profissional.”
O que muda na prática (e por que a enfermagem deve prestar atenção)
Mesmo quando a ferramenta é acionada por um médico, é comum que o seu “rastro” operacional esteja no dia a dia da equipe: alertas em prontuário eletrônico, protocolos de deterioração clínica, sugestões de exames, listas de priorização e painéis de risco. Com a resolução, as instituições tendem a precisar formalizar quando e como esses sistemas são usados, e como o uso é registrado no cuidado.
- Registro e rastreabilidade: cresce a pressão por documentação clara do uso de IA (por exemplo, quando uma recomendação automatizada influenciou uma conduta ou encaminhamento).
- Transparência ao paciente: o paciente deve ser informado quando houver uso relevante de IA em seu cuidado, o que pode exigir fluxos e linguagem padronizada na admissão, no consentimento e na comunicação assistencial.
- Governança e comissões internas: a resolução sinaliza a necessidade de estruturas de governança (e, em muitos serviços, comissões específicas) para classificar riscos, definir critérios de validação e monitorar desempenho.
Supervisão humana, validação e limites de uso
Um dos pontos mais enfatizados é a supervisão humana. A resolução reforça que sistemas não validados cientificamente podem ser recusados, e que a autonomia profissional precisa ser preservada. Também veda a delegação de comunicações sensíveis, como diagnósticos e decisões terapêuticas, para sistemas automatizados, o que é relevante em tempos de chatbots e “assistentes” conversacionais embutidos em plataformas.
Na prática, isso tende a acelerar um movimento que já vinha acontecendo em hospitais com maior maturidade digital: exigir documentação de validação (clínica e técnica), definir responsáveis, estabelecer métricas (como falso positivo e falso negativo) e criar rotinas de auditoria, especialmente para modelos que se atualizam com o tempo.
Classificação por risco e impacto na segurança do paciente
A resolução também traz a ideia de classificar sistemas de IA por níveis de risco (de baixo a inaceitável), considerando autonomia do sistema, sensibilidade dos dados e potencial impacto em direitos e segurança. Para enfermagem, isso dialoga diretamente com práticas de gestão de risco e segurança do paciente: um algoritmo que apenas organiza fila de atendimento tem um perfil muito diferente de um modelo que sugere condutas ou sinaliza deterioração clínica.
Um cuidado importante aqui é evitar que “alertas inteligentes” virem ruído. Em setores como emergência e UTI, alertas em excesso aumentam fadiga de alarmes e podem reduzir adesão. Regras mais claras de governança podem ajudar a transformar IA em ferramenta útil, com limites definidos, treinamento e monitoramento contínuo.
Prazo de adequação e o que hospitais podem fazer agora
Segundo a própria comunicação de especialistas sobre a norma, há um período de 180 dias até a entrada em vigor, o que cria uma janela para revisão de processos. Para serviços de saúde, alguns passos iniciais são relativamente diretos: mapear onde já existe IA (inclusive “escondida” em módulos de fornecedores), identificar responsáveis, definir quando a ferramenta pode ser usada e como isso será registrado.
Para a enfermagem, o melhor caminho é participar dessa governança desde o começo, porque muitos sistemas impactam fluxos de triagem, priorização, documentação e continuidade do cuidado. IA em saúde não é só “tecnologia”, é mudança de processo, responsabilidade e comunicação.
Fonte (texto integral)
Resolução CFM nº 2.454/2026 (PDF): https://sistemas.cfm.org.br/normas/arquivos/resolucoes/BR/2026/2454_2026.pdf
Data na norma: 11 de fevereiro de 2026. A publicação no DOU e o prazo de vigência devem ser confirmados conforme o texto oficial.