A Inteligência Artificial na Saúde: Equilibrando Inovação e Proteção de Dados na Era da LGPD

O cenário brasileiro de IA na saúde está em plena ascensão. Um levantamento realizado pela Associação Nacional de Hospitais Privados (Anahp) em parceria com a Associação Brasileira de Startups de Saúde (ABSS) revelou que 62,5% das instituições de saúde no Brasil já implementam soluções baseadas em Inteligência Artificial. Essa tecnologia revoluciona o atendimento médico, permitindo transcrição automática de consultas, estruturação de dados e até sugestões de condutas clínicas, trazendo ganhos significativos em produtividade e qualidade assistencial.

No entanto, esse avanço tecnológico vem acompanhado de responsabilidades importantes quanto à proteção dos dados dos pacientes. A Lei Geral de Proteção de Dados (LGPD) estabelece regras claras para o tratamento dessas informações, mas sua implementação no setor de saúde ainda enfrenta desafios consideráveis, especialmente quando falamos de dados processados por sistemas de IA.

Os dados de saúde são classificados pela LGPD como sensíveis e, portanto, exigem proteções adicionais. Diferentemente de informações cadastrais simples, esses dados revelam aspectos íntimos da vida física e emocional dos pacientes – diagnósticos, resultados de exames, histórico clínico e até conversas confidenciais com profissionais da saúde. Quando algoritmos de IA capturam, processam e armazenam essas informações, surgem questões críticas: onde esses dados estão sendo guardados? Quem tem acesso a eles? Estão sendo utilizados apenas para o atendimento ou também para treinar sistemas de IA fora do país?

O artigo 7º da LGPD é explícito ao exigir consentimento específico e destacado para o tratamento de dados sensíveis. Já o artigo 33 estabelece restrições para a transferência internacional desses dados, permitindo-a apenas para países com nível equivalente de proteção ou mediante garantias específicas. Essas exigências impactam diretamente a escolha de soluções de IA na saúde, especialmente considerando que muitos dos grandes fornecedores globais de tecnologia operam em nuvens estrangeiras.

Os riscos de vazamento de dados na área da saúde não são mera especulação. Em 2021, mais de 45,9 milhões de registros de saúde foram violados no Brasil, conforme reportado pelo The HIPAA Journal. As consequências desses incidentes vão além das multas administrativas previstas pela LGPD (que podem chegar a R$ 50 milhões por infração) – incluem danos à reputação das instituições e, principalmente, prejuízos aos pacientes expostos.

Para responder a esses desafios, instituições de saúde estão adotando estratégias que equilibram inovação e conformidade legal. Uma abordagem eficaz é a utilização de soluções integradas ao prontuário eletrônico (EHR), que estruturam e armazenam dados diretamente em sistemas auditáveis. Grandes players tecnológicos como Oracle e Google já oferecem infraestrutura local que garante a hospedagem de dados em território nacional, facilitando a conformidade com a LGPD.

No entanto, é preciso cautela: nem toda solução nacional está automaticamente em conformidade com a lei. Mesmo empresas brasileiras podem utilizar, nos bastidores, tecnologias terceirizadas hospedadas no exterior e sem anonimização efetiva dos dados. A transparência contratual torna-se, portanto, um elemento crucial na seleção de fornecedores de tecnologia.

O papel do Data Protection Officer (DPO) ganha relevância nesse contexto. Este profissional, obrigatório para instituições de saúde segundo a LGPD, deve ter autonomia real para implementar políticas de proteção de dados e conduzir avaliações de impacto. O DPO atua como ponte entre a instituição, os titulares dos dados e a Autoridade Nacional de Proteção de Dados (ANPD), garantindo que as medidas técnicas e organizacionais adequadas estejam em vigor.

Os profissionais de saúde também carregam responsabilidade significativa neste cenário. Médicos, enfermeiros e outros especialistas precisam estar envolvidos na escolha das soluções de IA, compreendendo seus riscos e benefícios. A segurança da informação tornou-se parte integrante do cuidado ao paciente, e esses profissionais devem estar capacitados para avaliar criticamente as tecnologias que utilizam em sua prática diária.

Casos de sucesso já demonstram que é possível implementar IA na saúde de forma ética e segura. Hospitais como Albert Einstein e Sírio-Libanês, em São Paulo, têm adotado soluções de IA para diagnóstico por imagem e análise de dados clínicos, sempre com atenção rigorosa à proteção de dados. Estas instituições implementaram comitês de ética específicos para avaliar projetos de IA e estabeleceram políticas claras de consentimento informado para os pacientes.

A questão da transferência internacional de dados representa um desafio particular para instituições brasileiras de saúde. Quando uma solução de IA processa dados em servidores localizados no exterior, isso configura transferência internacional e deve atender aos requisitos do artigo 33 da LGPD. As instituições precisam verificar se o país destinatário oferece grau de proteção adequado ou implementar salvaguardas específicas, como cláusulas contratuais padrão aprovadas pela ANPD.

Ao escolher entre infraestrutura local ou nuvem estrangeira, as instituições devem considerar não apenas aspectos técnicos e financeiros, mas também as implicações legais. Soluções em nuvem nacional podem simplificar a conformidade com a LGPD, embora possam representar custos mais elevados ou oferecer menos recursos avançados de IA. Por outro lado, plataformas internacionais frequentemente lideram em inovação, mas exigem mecanismos adicionais para garantir a conformidade legal.

Para equilibrar inovação tecnológica e proteção de dados sensíveis, recomenda-se uma abordagem estratégica em camadas: primeiro, implementar uma política robusta de governança de dados, com classificação clara das informações e níveis de acesso; segundo, adotar o princípio da minimização, coletando apenas os dados estritamente necessários; terceiro, incorporar privacidade desde a concepção (privacy by design) em todos os projetos de IA; e quarto, realizar avaliações periódicas de impacto sobre a proteção de dados.

É importante reconhecer que a convergência entre IA e LGPD representa uma oportunidade, não um obstáculo. Instituições que conseguem implementar IA de forma ética e compliant ganham não apenas em eficiência operacional, mas também em confiança – um ativo invaluável no setor de saúde. A tecnologia deve reforçar, não comprometer, os princípios fundamentais da medicina: a confidencialidade, a autonomia do paciente e o compromisso primário com seu bem-estar.

O futuro da saúde brasileira dependerá da nossa capacidade de navegar este novo território com responsabilidade. A IA transformará progressivamente todos os aspectos da assistência à saúde, mas seu valor real será determinado não apenas por sua capacidade técnica, mas também por como respeitamos os direitos e a dignidade dos pacientes no processo. Inovar com responsabilidade não é apenas uma obrigação legal – é um imperativo ético para todos os envolvidos no ecossistema de saúde.

Referências:

Associação Brasileira de Startups de Saúde. (2023). Panorama da IA na Saúde no Brasil. https://abss.com.br/wp-content/uploads/2023/09/Panorama_IA_na_Saude_no_Brasil_ABSS.pdf

Data Privacy Brasil. (2023). LGPD na Saúde: Desafios e Oportunidades. https://www.dataprivacybrasil.org/lgpd-na-saude-desafios-e-oportunidades/

Mearim, M. (2025). Privacidade em risco: por que a saúde precisa levar a LGPD a sério na era da inteligência artificial. Startupi. https://startupi.com.br/saude-lgpd-inteligencia-artificial/

The HIPAA Journal. (2022). Dados sobre violações de registros de saúde no Brasil. https://m.youtube.com/watch?v=2VqmnxG8F6w