A adoção rápida da inteligência artificial no setor da saúde digital levanta sérias preocupações sobre a privacidade de dados. Entenda os riscos, as exigências da LGPD e a necessidade urgente de segurança da informação na saúde para proteger pacientes e evitar sanções.
Imagine que seu histórico médico, com detalhes íntimos sobre sua saúde física e emocional, esteja sendo compartilhado sem seu consentimento explícito, utilizado para treinar sistemas que você nem conhece ou armazenado em locais onde a proteção de dados é incerta. Essa não é uma cena de ficção científica, mas um risco real e crescente no setor da saúde com a expansão da inteligência artificial. À medida que hospitais e clínicas buscam a eficiência prometida pela tecnologia, uma camada fundamental de confiança e segurança está sendo, em muitos casos, deixada de lado: o respeito rigoroso à Lei Geral de Proteção de Dados (LGPD). Tratar dados de saúde como meros registros administrativos em nome da inovação é um caminho perigoso que coloca em xeque a confidencialidade e a dignidade do paciente.
A Revolução da Inteligência Artificial na Saúde
A inteligência artificial deixou de ser uma promessa distante e se tornou uma realidade palpável no cotidiano da saúde. O crescimento da adoção de soluções baseadas em inteligência artificial neste setor tem sido, como aponta um levantamento da Anahp e ABSS, verdadeiramente explosivo. Impressionantes 62,5% das instituições de saúde no Brasil já utilizam algum tipo de solução baseada em inteligência artificial. Esses sistemas são capazes de realizar tarefas que até pouco tempo atrás pareciam improváveis, como transcrever consultas em tempo real, organizar e estruturar grandes volumes de dados de pacientes de forma automática e até mesmo oferecer sugestões de condutas clínicas para os profissionais de saúde.
Tais avanços representam um potencial enorme para otimizar processos, aumentar a produtividade das equipes médicas e administrativas, e, crucialmente, melhorar a qualidade e a agilidade do atendimento oferecido aos pacientes. A capacidade de analisar rapidamente exames de imagem, identificar padrões em dados genéticos ou prever riscos de saúde com base em históricos complexos são apenas alguns exemplos de como a inteligência artificial está redefinindo a prática médica. No entanto, essa corrida pela eficiência e inovação traz consigo uma série de desafios complexos, especialmente nos campos jurídico e ético, que exigem atenção imediata e rigorosa por parte de todas as partes envolvidas, desde os desenvolvedores de tecnologia até as instituições de saúde e os próprios profissionais.
Os Desafios da LGPD Frente à Inovação
O principal ponto de preocupação reside na forma superficial como muitas instituições de saúde têm abordado a LGPD diante da implementação de ferramentas de inteligência artificial. A impressão generalizada é que, movidas pela urgência em incorporar as mais recentes inovações tecnológicas, essas organizações acabam por não dedicar a devida atenção às salvaguardas legais necessárias para a proteção de dados sensíveis. Dados médicos, que incluem informações sobre diagnósticos, resultados de exames, histórico familiar e conversas confidenciais entre médico e paciente, possuem um caráter intrinsecamente íntimo e não podem, sob hipótese alguma, ser tratados da mesma forma que registros administrativos genéricos. Eles revelam aspectos profundos da vida física e emocional de um indivíduo e, por isso, exigem um nível de proteção e cuidado muito superior.
O Valor dos Dados Sensíveis
A LGPD categoriza explicitamente dados relacionados à saúde como dados sensíveis, impondo requisitos mais rigorosos para o seu tratamento. O artigo 7º da lei é claro ao exigir consentimento específico e em destaque do titular para que dados sensíveis possam ser tratados. Isso significa que um simples “aceito” em um termo genérico não é suficiente quando se trata de informações médicas delicadas. Os pacientes precisam ser informados de forma clara e inequívoca sobre quais dados serão coletados, por que estão sendo coletados, como serão utilizados e com quem serão compartilhados, antes de conceder sua autorização. A falta de um processo de consentimento adequado e transparente representa uma violação direta da lei e expõe a instituição a riscos significativos.
Transferência Internacional e Armazenamento em Nuvem
Outro ponto crítico abordado pela LGPD, e particularmente relevante no contexto da inteligência artificial, é a transferência internacional de dados. O artigo 33 da lei proíbe a transferência de dados pessoais para países que não possuam um nível adequado de proteção de dados similar ao do Brasil, a menos que se enquadre em exceções muito bem definidas, como cláusulas contratuais específicas, autorização da Autoridade Nacional de Proteção de Dados (ANPD) ou mecanismos formais de compliance que garantam a segurança da informação.
Muitas soluções de inteligência artificial, especialmente aquelas oferecidas por grandes fornecedores globais, operam em infraestruturas de nuvem localizadas fora do Brasil. Isso, por si só, não é necessariamente proibido, mas exige que as instituições de saúde se certifiquem de que existem mecanismos legais robustos que garantam a proteção dos dados dos pacientes durante e após a transferência. Contratos que não preveem cláusulas adequadas, a ausência de autorizações necessárias ou a falta de compliance formal para a transferência internacional colocam as instituições em uma posição de vulnerabilidade jurídica real, sujeitas a investigações e sanções por parte da ANPD.
Riscos, Vazamentos e Sanções
A negligência com a segurança da informação na saúde não é apenas uma questão teórica ou burocrática; ela tem consequências práticas e muitas vezes devastadoras. Casos recentes de vazamento de dados sensíveis no setor de saúde brasileiro servem como um alerta contundente para a urgência em levar a LGPD a sério.
Incidentes de Segurança na Prática
Em 2021, por exemplo, o Brasil testemunhou a violação de mais de 45,9 milhões de registros de saúde, conforme documentado pelo The HIPAA Journal. Esses vazamentos incluíram uma gama extremamente sensível de informações, desde resultados de exames laboratoriais e de imagem até detalhes de conversas confidenciais entre pacientes e profissionais de saúde. O impacto de tais incidentes vai muito além da exposição de informações; eles podem gerar danos irreparáveis à reputação das instituições, abalar a confiança dos pacientes no sistema de saúde e, em casos extremos, até mesmo levar à discriminação ou outros prejuízos na vida pessoal dos indivíduos afetados. A fragilidade na proteção de dados de saúde abre precedentes perigosos para o mau uso dessas informações.
Multas e Penalidades
A LGPD não se limita a estabelecer diretrizes; ela prevê consequências severas para o seu descumprimento. Além de exigir a implementação de medidas técnicas e organizacionais rigorosas para garantir a segurança da informação na saúde, a lei estabelece multas que podem atingir cifras astronômicas, chegando a R$ 50 milhões por infração. Para uma instituição de saúde, uma multa desse porte pode representar um impacto financeiro significativo, colocando em risco sua sustentabilidade e operação. Portanto, investir em conformidade com a LGPD não é apenas uma obrigação legal ou ética, mas também uma medida essencial de gestão de riscos financeiros e reputacionais.
Caminhos Seguros e Melhores Práticas
Diante do cenário complexo que envolve a adoção da inteligência artificial e os requisitos da LGPD no setor de saúde, é fundamental reconhecer que existem caminhos mais seguros e práticas que podem mitigar significativamente os riscos e garantir a conformidade.
Soluções Integradas
Uma abordagem que tende a estar mais alinhada com os princípios da LGPD é a utilização de soluções de inteligência artificial que são integradas diretamente aos prontuários eletrônicos (EHR) já existentes nas instituições. Quando os dados são estruturados e armazenados dentro de sistemas de prontuário eletrônico que possuem trilhas de auditoria robustas e controles de acesso bem definidos, o risco de exposição e mau uso dos dados é consideravelmente reduzido. Essa integração permite que o tratamento dos dados ocorra dentro de um ambiente controlado e já submetido a regras de segurança da informação, facilitando o rastreamento e a gestão do ciclo de vida da informação do paciente.
A Importância da Infraestrutura Nacional
Outro fator a ser considerado é a localização da infraestrutura de TI que suporta as soluções de inteligência artificial. Grandes players do mercado de tecnologia, como Oracle e Google, já oferecem infraestrutura de nuvem com data centers localizados em território nacional. Optar por hospedar dados de saúde em servidores localizados no Brasil pode simplificar a conformidade com o artigo 33 da LGPD, que trata da transferência internacional. No entanto, é crucial exercer um cuidado adicional. Mesmo empresas brasileiras podem, por trás das cortinas, utilizar tecnologias de terceiros ou infraestruturas hospedadas no exterior sem a devida anonimização ou pseudonimização dos dados, e muitas vezes sem clareza contratual para os clientes sobre onde e como os dados estão sendo processados. Portanto, a nacionalidade do fornecedor não é, por si só, uma garantia de conformidade; é essencial investigar a fundo a arquitetura de dados e as práticas de segurança da informação na saúde adotadas.
Transparência Contratual
Independentemente de a solução ser nacional ou internacional, a transparência nos contratos de licenciamento e prestação de serviços é imperativa. As instituições de saúde precisam exigir de seus fornecedores de soluções de inteligência artificial e infraestrutura de nuvem cláusulas contratuais claras e detalhadas sobre como os dados dos pacientes serão tratados, armazenados, protegidos e, se aplicável, anonimizados ou pseudonimizados. O contrato deve especificar as medidas de segurança técnica e organizacional implementadas pelo fornecedor e garantir que o tratamento dos dados esteja em conformidade com a LGPD e outras regulamentações aplicáveis. A falta de clareza ou a presença de cláusulas genéricas e ambíguas nos contratos são sinais de alerta que não devem ser ignorados.
Ética, Responsabilidade Profissional e o Papel do DPO
Além dos aspectos legais e técnicos, a convergência entre a inteligência artificial e a saúde levanta profundas questões éticas e exige uma redefinição do conceito de responsabilidade profissional.
A Participação do Profissional de Saúde
É fundamental que os profissionais de saúde, como médicos, enfermeiros e terapeutas, estejam ativamente envolvidos na escolha e implementação de soluções de inteligência artificial. Afinal, são eles que lidam diretamente com os dados dos pacientes no dia a dia e que, em última instância, são responsáveis pela integridade e confidencialidade dessas informações. Os profissionais precisam compreender como as ferramentas de inteligência artificial funcionam, quais dados elas utilizam, como esses dados são processados e quais são os potenciais riscos associados ao seu uso. A segurança da informação na saúde deixou de ser uma preocupação exclusiva do departamento de TI e se tornou parte integrante do cuidado ao paciente. Treinamentos e educação contínua sobre LGPD e segurança cibernética para profissionais de saúde são essenciais para garantir que a tecnologia seja utilizada de forma ética e responsável.
O Oficial de Proteção de Dados
Para fortalecer a governança e garantir a conformidade contínua com a LGPD, as instituições de saúde devem considerar a nomeação de um Data Protection Officer (DPO) com autonomia real e recursos suficientes. O DPO é a figura central responsável por orientar a instituição sobre as melhores práticas de proteção de dados, monitorar a conformidade, atuar como ponto de contato com a ANPD e responder a incidentes de segurança. Um DPO bem capacitado e com poder de decisão é fundamental para garantir que as políticas e procedimentos de proteção de dados sejam eficazes e estejam alinhados com as exigências legais e as necessidades operacionais da instituição.
Conclusão
A era da inteligência artificial na saúde apresenta um potencial transformador para melhorar vidas, otimizar processos e impulsionar a inovação. No entanto, esse progresso não pode acontecer à custa da privacidade de dados e da segurança da informação dos pacientes. A LGPD não deve ser vista como um obstáculo, mas sim como um alicerce fundamental que reforça o compromisso ético e legal das instituições de saúde com a proteção das informações mais sensíveis de seus pacientes. Inovar com responsabilidade, garantindo a conformidade com a LGPD, investindo em segurança da informação na saúde, promovendo a transparência e capacitando os profissionais é o único caminho viável para que a inteligência artificial se consolide como uma aliada poderosa no avanço da medicina, sem se tornar uma ameaça à confiança e à dignidade dos pacientes.
O que você acha sobre esse tema? Comente abaixo!
A referência original que inspirou este notícia pode ser encontrada em https://startupi.com.br/saude-lgpd-inteligencia-artificial/, e foi produzida com o apoio de inteligência artificial.