Brasil cria primeira regra para IA na medicina: diagnóstico não pode ser automático e paciente poderá recusar uso

Brasil cria primeira regra para IA na medicina: diagnóstico não pode ser automático e paciente poderá recusar uso
Nova resolução estabelece que IA é ferramenta de apoio, reforça responsabilidade do médico e obriga hospitais a criarem comissões de governança tecnológica.
O Conselho Federal de Medicina definiu aprimeira norma específica sobre o uso de inteligência artificial (IA) na prática médica no Brasil.

A resolução, publicada nesta sexta-feira (27) no Diário Oficial da União, estabelece que a tecnologia deve funcionar apenas como ferramenta de apoio —nunca substituindo a decisão clínica do médico.

A norma determina, ainda, que a responsabilidade final por diagnósticos, prognósticos e tratamentos continua sendo exclusivamente do profissional. Tambémproíbe que sistemas de IA comuniquem diagnósticosou decisões terapêuticas diretamente ao paciente sem mediação humana.

A resolução entra em vigor em 180 dias.

IA como apoio, não como substituição

O texto deixa explícito que a inteligência artificial pode ser utilizada para apoiar decisões clínicas, gestão em saúde, pesquisa e educação médica continuada. No entanto, reforça que:

A norma afirma ainda que “as soluções apresentadas pelos modelos de IA não são soberanas, sendo obrigatória a supervisão humana”.

Proibição de diagnósticos automatizados

Um dos pontos centrais é avedação expressa à delegação da comunicação de diagnósticos à máquina. Segundo o texto:

“É vedado ao médico delegar à IA a comunicação de diagnósticos, prognósticos ou decisões terapêuticas, sem a devida mediação humana.”

Além disso,o paciente deve ser informado de forma clara quando a IA for utilizada como apoio relevante em seu cuidado. Ele também poderá recusar o uso da tecnologia.

Médico continua responsável

Mesmo utilizando sistemas avançados, o profissional permanece integralmente responsável pelos atos praticados. A resolução reforça que:

Também passa a ser obrigatório registrar em prontuário quando a IA for utilizada como apoio à decisão.

Classificação de risco: de baixo a inaceitável

A norma cria uma categorização dos sistemas de IA em quatro níveis de risco:

A classificação deve considerar fatores como impacto nos direitos fundamentais, sensibilidade dos dados utilizados, grau de autonomia do sistema e criticidade do contexto clínico.

Instituições públicas e privadas terão querealizar avaliação preliminar antes de adotar a tecnologia.

Hospitais terão que criar Comissão de IA

Hospitais e instituições que desenvolverem ou utilizarem sistemas próprios deverão criar uma Comissão de IA e Telemedicina,subordinada à diretoria técnica e sob coordenação médica.

Essa comissão será responsável por:

A fiscalização do cumprimento das regras caberá aos Conselhos Regionais de Medicina.

Proteção de dados e Lei Geral de Proteção de Dados

A resolução também reforça a necessidade de cumprimento rigoroso da Lei Geral de Proteção de Dados (LGPD). O uso de dados para treinamento ou validação de sistemas deverá observar princípios éticos e científicos, além de padrões mínimos de segurança da informação.

Modelos que não garantam proteção adequada a dados sensíveis não poderão ser utilizados.

O que muda na prática

Com a nova regulamentação:

A publicação marca a primeira regulamentação específica da inteligência artificial na medicina brasileira e estabelece um marco ético para a incorporação da tecnologia no cuidado em saúde.