Transparência algorítmica em pré-autorizações de procedimentos médicos: Um estudo sobre viés, governança e direitos do consumidor na saúde suplementar

ALGORITHMIC TRANSPARENCY IN MEDICAL PROCEDURE PRE-AUTHORIZATIONS: A STUDY ON BIAS, GOVERNANCE, AND CONSUMER RIGHTS IN SUPPLEMENTARY HEALTHCARE

TRANSPARENCIA ALGORÍTMICA EN LAS PREAUTORIZACIONES DE PROCEDIMIENTOS MÉDICOS: UN ESTUDIO SOBRE SESGO, GOBERNANZA Y DERECHOS DEL CONSUMIDOR EN LA SALUD SUPLEMENTARIA

Autor

URL do Artigo

https://iiscientific.com/artigos/D93C21

DOI

doi.org/10.63391/D93C21

Passos, Juciano Silva . Transparência algorítmica em pré-autorizações de procedimentos médicos: Um estudo sobre viés, governança e direitos do consumidor na saúde suplementar. International Integralize Scientific. v 5, n 51, Setembro/2025 ISSN/3085-654X

Resumo

Este estudo investiga a transparência algorítmica nos processos de pré-autorização de procedimentos médicos na saúde suplementar brasileira, com foco em viés algorítmico, governança de sistemas automatizados e proteção dos direitos do consumidor. Analisa como operadoras utilizam algoritmos para decidir sobre a aprovação ou negação de tratamentos, exames e cirurgias, muitas vezes sem justificativas claras. Com abordagem multidisciplinar envolvendo direito, tecnologia e saúde pública, examina a conformidade desses sistemas com o Código de Defesa do Consumidor, a Lei Geral de Proteção de Dados (LGPD) e normas da Agência Nacional de Saúde (ANS), avaliando transparência, não discriminação e responsabilidade. Por meio de análise documental, entrevistas e estudos de caso, identifica vieses algorítmicos que reforçam desigualdades, especialmente contra idosos, pessoas com deficiência e populações de baixa renda. A falta de auditabilidade e explicabilidade compromete o direito ao contraditório. Diante disso, propõe um modelo de governança algorítmica com transparência explicativa, auditorias independentes, participação de partes interessadas e mecanismos eficazes de contestação. Conclui que a regulação robusta é essencial para garantir equidade, ética e legalidade nas decisões automatizadas no setor saúde. Defende supervisão contínua, responsabilização das operadoras e fortalecimento da atuação de órgãos reguladores, do Poder Judiciário e da sociedade civil. A inovação tecnológica não pode sobrepor direitos fundamentais. É imperativo que algoritmos sejam ferramentas de apoio, não de restrição ao acesso a cuidados médicos. Recomenda-se a criação de um marco regulatório claro e vinculativo para governar o uso de inteligência artificial na saúde suplementar, assegurando dignidade humana e direitos do consumidor.
Palavras-chave
transparência algorítmica; viés algorítmico; governança de dados; direitos do consumidor; saúde suplementar.

Summary

This study investigates algorithmic transparency in the pre-authorization processes of medical procedures within the Brazilian supplementary healthcare system, focusing on algorithmic bias, governance of automated systems, and consumer rights protection. It analyzes how health insurers use algorithms to decide on the approval or denial of treatments, tests, and surgeries, often without clear justifications. Using a multidisciplinary approach involving law, technology, and public health, the study examines the compliance of these systems with the Consumer Protection Code, the General Data Protection Law (LGPD), and regulations from the National Health Agency (ANS), assessing transparency, non-discrimination, and accountability. Through document analysis, interviews, and case studies, it identifies algorithmic biases that reinforce inequalities, particularly against elderly individuals, people with disabilities, and low-income populations. The lack of auditability and explainability undermines the right to due process. In response, the study proposes an algorithmic governance model featuring explanatory transparency, independent audits, stakeholder participation, and effective dispute mechanisms. It concludes that robust regulation is essential to ensure equity, ethics, and legality in automated decision-making in the healthcare sector. The study advocates for continuous oversight, accountability of insurers, and strengthened action by regulatory bodies, the judiciary, and civil society. Technological innovation must not override fundamental rights. It is imperative that algorithms serve as supportive tools, not as barriers to accessing medical care. The creation of a clear and binding regulatory framework is recommended to govern the use of artificial intelligence in supplementary healthcare, ensuring human dignity and consumer rights.
Keywords
algorithmic transparency; algorithmic bias; data governance; consumer rights; supplementary healthcare.

Resumen

Este estudio investiga la transparencia algorítmica en los procesos de preautorización de procedimientos médicos en el sistema de salud suplementaria brasileño, con énfasis en el sesgo algorítmico, la gobernanza de sistemas automatizados y la protección de los derechos del consumidor. Analiza cómo las operadoras utilizan algoritmos para decidir la aprobación o denegación de tratamientos, exámenes y cirugías, muchas veces sin justificaciones claras. Mediante un enfoque multidisciplinario que integra derecho, tecnología y salud pública, examina el cumplimiento de estos sistemas con el Código de Defensa del Consumidor, la Ley General de Protección de Datos (LGPD) y las normas de la Agencia Nacional de Salud (ANS), evaluando transparencia, no discriminación y responsabilidad. A través del análisis documental, entrevistas y estudios de caso, identifica sesgos algorítmicos que refuerzan desigualdades, especialmente contra personas mayores, personas con discapacidad y poblaciones de bajos ingresos. La falta de auditabilidad y explicabilidad compromete el derecho al contraditorio. Ante esto, se propone un modelo de gobernanza algorítmica con transparencia explicativa, auditorías independientes, participación de partes interesadas y mecanismos eficaces de impugnación. Se concluye que una regulación robusta es esencial para garantizar equidad, ética y legalidad en las decisiones automatizadas en el sector salud. Se defiende la supervisión continua, la responsabilización de las operadoras y el fortalecimiento de la actuación de los órganos reguladores, del Poder Judicial y de la sociedad civil. La innovación tecnológica no puede prevalecer sobre los derechos fundamentales. Es imperativo que los algoritmos sean herramientas de apoyo, no de restricción al acceso a la atención médica. Se recomienda la creación de un marco regulatorio claro y vinculante para gobernar el uso de la inteligencia artificial en la salud suplementaria, asegurando la dignidad humana y los derechos del consumidor.
Palavras-clave
transparencia algorítmica; sesgo algorítmico; gobernanza de datos; derechos del consumidor; salud suplementaria.

INTRODUÇÃO

A crescente integração de tecnologias algorítmicas e inteligência artificial nos processos decisórios da saúde suplementar tem transformado profundamente a forma como são concedidas ou negadas as pré-autorizações de procedimentos médicos no Brasil. 

Embora a automação prometa eficiência, padronização e redução de custos, seu uso crescente nas decisões sobre acesso a tratamentos, exames e cirurgias levanta sérias preocupações quanto à transparência, equidade e respeito aos direitos fundamentais dos consumidores. Frequentemente, os beneficiários de planos de saúde recebem indeferimentos sem justificativas claras, baseados em sistemas cuja lógica interna é opaca, inacessível e muitas vezes incontestável. Nesse contexto, emerge o desafio da transparência algorítmica: como garantir que decisões automatizadas que afetam diretamente a vida e a saúde das pessoas sejam compreensíveis, justas e passíveis de revisão?

Este artigo investiga o fenômeno da transparência algorítmica nos processos de pré-autorização na saúde suplementar brasileira, com foco nos riscos de viés algorítmico, na governança de sistemas automatizados e na proteção dos direitos do consumidor. 

Partindo da constatação de que algoritmos podem reproduzir e até agravar desigualdades sociais, especialmente contra idosos, pessoas com deficiência e populações de baixa renda, analisa-se a conformidade dessas práticas com dispositivos legais como o Código de Defesa do Consumidor, a Lei Geral de Proteção de Dados e as normativas da Agência Nacional de Saúde Suplementar. Através de uma abordagem multidisciplinar, que articula direito, tecnologia e saúde pública, o estudo combina análise documental, entrevistas com especialistas e estudos de caso para evidenciar falhas estruturais na auditabilidade, explicabilidade e responsabilização dos sistemas algorítmicos empregados pelas operadoras.

Diante do potencial dessas tecnologias de comprometerem o direito ao contraditório, à dignidade humana e ao acesso equânime à saúde, propõe-se um modelo de governança algorítmica robusto, fundado na transparência explicativa, auditorias independentes, participação de partes interessadas e mecanismos eficazes de contestação. Defende-se que a inovação tecnológica, por mais avançada que seja, não pode se sobrepor aos direitos fundamentais. 

É urgente, portanto, estabelecer um marco regulatório claro, vinculativo e supervisionado para o uso da inteligência artificial na saúde suplementar, assegurando que os algoritmos atuem como ferramentas de apoio à decisão clínica e administrativa, jamais como instrumentos de restrição arbitrária ao cuidado médico.

REVISÃO DA LITERATURA

A integração de algoritmos nos processos de pré-autorização em saúde suplementar tem sido objeto de crescente atenção acadêmica. Segundo Sousa e Silva (2023, p. 45), “a automação de decisões sobre cobertura de procedimentos médicos exige um novo regime de transparência, capaz de garantir que direitos fundamentais não sejam subordinados à eficiência operacional”. A autora destaca que a falta de explicabilidade nos sistemas automatizados compromete o controle social e a responsabilização das operadoras.

Ainda em relação à opacidade algorítmica, Sousa e Silva (2023, p. 47) afirma que “a alegação de segredo comercial não pode ser usada para ocultar critérios que determinam o acesso a tratamentos essenciais, pois isso viola o princípio da boa-fé objetiva previsto no Código de Defesa do Consumidor”. A proteção de informações comerciais não pode prevalecer sobre o direito à saúde e à informação clara, especialmente em decisões que envolvem risco à vida.

Oliveira e Costa (2022, p. 112) reforçam que “a explicabilidade algorítmica é um requisito ético e jurídico para qualquer sistema que tome decisões com impacto sobre direitos humanos”. Sem a capacidade de compreender a lógica por trás de uma negativa de cobertura, o consumidor fica impossibilitado de exercer o contraditório, direito essencial no Estado democrático de Direito.

A Lei Geral de Proteção de Dados é apontada como um marco relevante. Conforme Oliveira e Costa (2022, p. 115), “a LGPD garante o direito do titular de obter informações sobre os critérios utilizados em decisões automatizadas, mas esse direito ainda é amplamente desrespeitado no setor de saúde suplementar”. A lacuna entre norma e prática revela fragilidades na fiscalização e na efetividade do direito à informação.

O viés algorítmico é outro tema central. Mendonça (2021, p. 78) observa que “algoritmos treinados com dados históricos tendem a reproduzir padrões de exclusão, especialmente contra idosos, pessoas com deficiência e populações de baixa renda”. Esses vieses, embora não intencionais, geram impactos discriminatórios significativos no acesso a cuidados médicos.

Mendonça (2021, p. 80) adverte que “a ausência de diversidade nos conjuntos de dados e a falta de auditorias éticas permitem que sistemas automatizados reforcem desigualdades já existentes na saúde”. A autora defende a inclusão de critérios de equidade no desenvolvimento de algoritmos, com supervisão contínua para evitar discriminação indireta.

Ferreira (2020, p. 33) destaca a vulnerabilidade do consumidor de plano de saúde. “O usuário de plano de saúde está em posição de hipossuficiência frente à operadora, o que exige proteção reforçada, especialmente quando decisões são tomadas por sistemas opacos e automatizados.” O autor sustenta que o Código de Defesa do Consumidor oferece fundamentos jurídicos para exigir transparência e justificativas claras.

No entanto, Ferreira (2020, p. 36) reconhece que “a aplicação do CDC a sistemas algorítmicos é desafiadora, dada a complexidade técnica e a resistência das empresas em revelar suas lógicas de decisão”. Ele defende que o Poder Judiciário deve interpretar as normas consumeristas de forma atualizada, garantindo sua eficácia em contextos tecnologicamente avançados.

A atuação da Agência Nacional de Saúde Suplementar (ANS) também é criticada. Ribeiro (2023, p. 91) afirma que “a ANS ainda não estabeleceu diretrizes claras sobre o uso de inteligência artificial em pré-autorizações, o que gera insegurança jurídica e riscos aos direitos dos consumidores”. A ausência de regulação específica permite a implementação de sistemas sem supervisão adequada.

Ribeiro (2023, p. 93) propõe que “a ANS deveria exigir protocolos obrigatórios de transparência, auditoria e avaliação de impacto para qualquer sistema algorítmico utilizado em decisões de cobertura”. O autor cita experiências internacionais, como a União Europeia, como modelo para a construção de um regime preventivo e proporcional no Brasil.

A ética no design de algoritmos é enfatizada por Almeida (2022, p. 67). “A ética não pode ser uma preocupação posterior ao desenvolvimento da tecnologia; deve estar integrada desde as fases iniciais do projeto.” A autora defende a criação de comitês éticos com participação multidisciplinar para avaliar os impactos sociais dos sistemas automatizados.

Almeida (2022, p. 69) ressalta que “a responsabilidade pelos danos causados por decisões algorítmicas permanece com os agentes humanos, não com a máquina”. A neutralidade atribuída aos algoritmos é uma falácia, pois eles incorporam escolhas, valores e interesses que devem ser examinados criticamente.

A auditabilidade é essencial para garantir justiça. Segundo Lima e Souza (2021, p. 134), “sem auditorias independentes, não é possível verificar se os algoritmos operam de forma legal, justa e não discriminatória”. Estudos revelam discrepâncias entre os critérios declarados pelas operadoras e os aplicados nos sistemas.

Lima e Souza (2021) defendem auditoria algorítmica obrigatória com acesso a dados e código-fonte, sob pena de sanções, e propõem sistema nacional coordenado pela ANS com participação acadêmica e social.

A participação social é outro pilar da governança. Gomes (2020, p. 55) afirma que “a legitimidade da governança algorítmica depende da inclusão de pacientes, profissionais de saúde e defensores de direitos na definição de políticas”. Modelos fechados de decisão excluem os afetados e minam a confiança pública.

Gomes (2020, p. 58) argumenta que “a coconstrução de diretrizes fortalece a democracia sanitária e melhora a qualidade das decisões”. Ele cita experiências em países como Canadá e Holanda, onde fóruns participativos têm orientado o uso ético da inteligência artificial na saúde.

A dignidade humana é princípio fundamental. Santos (2023, p. 102) afirma que “qualquer decisão sobre acesso a cuidados médicos deve ter como fim a dignidade da pessoa, não a redução de custos”. Negativas automatizadas sem justificativas individualizadas violam esse princípio constitucional.

Santos (2023, p. 104) destaca que “a dignidade não pode ser submetida a lógicas de eficiência desvinculadas do cuidado clínico”. A autora defende a capacitação de agentes do sistema de justiça para lidar com provas algorítmicas e exigir explicações técnicas em processos judiciais.

A inovação tecnológica também é debatida. Carvalho (2022, p. 88) reconhece que “a inteligência artificial pode melhorar a eficiência e a qualidade da saúde suplementar, mas apenas se for implementada com responsabilidade”. Os benefícios potenciais não podem ocultar os riscos éticos e jurídicos.

Por fim, a necessidade de um marco regulatório específico é consensual. Costa e Pereira (2024, p. 121) afirmam que “o Brasil precisa de uma legislação setorial sobre inteligência artificial na saúde, com direitos claros, deveres de transparência e mecanismos de fiscalização”. Sem regulação, o uso de algoritmos seguirá sendo uma ameaça aos direitos do consumidor.

Costa e Pereira (2024, p. 123) reforçam que “a regulação não inibe a inovação, mas a orienta para fins socialmente desejáveis”. Eles propõem um regime que combine ética, direito e tecnologia, garantindo que a inteligência artificial sirva ao bem comum, não apenas aos interesses privados.

Essa revisão mostra que, embora haja avanços conceituais, persistem desafios na aplicação prática dos princípios de transparência, equidade e responsabilidade. Os autores convergem para a urgência de governança algorítmica robusta, capaz de proteger direitos fundamentais no contexto da saúde suplementar.

MATERIAIS E MÉTODOS

Este estudo adota uma abordagem qualitativa de cunho multidisciplinar, integrando perspectivas jurídicas, tecnológicas e de saúde pública para investigar a transparência algorítmica nos processos de pré-autorização de procedimentos médicos na saúde suplementar brasileira. A pesquisa tem caráter exploratório-descritivo e analítico, com o objetivo de compreender como os algoritmos são utilizados pelas operadoras de planos de saúde, identificar possíveis vieses e impactos nos direitos do consumidor e propor um modelo de governança algorítmica eficaz e ética.

A metodologia foi estruturada em três eixos principais: análise documental, entrevistas semiestruturadas com especialistas e estudo de caso. Esses métodos foram escolhidos por sua capacidade de fornecer dados qualitativos ricos, permitindo uma compreensão aprofundada do fenômeno investigado, especialmente em um campo ainda pouco regulamentado e marcado por opacidade.

O primeiro eixo metodológico consistiu na análise documental, que envolveu a revisão sistemática de documentos legais, regulatórios, técnicos e acadêmicos. Foram examinados dispositivos normativos como o Código de Defesa do Consumidor (Lei nº 8.078/1990), a Lei Geral de Proteção de Dados (Lei nº 13.709/2018), as resoluções e normas técnicas da Agência Nacional de Saúde Suplementar (ANS), bem como decisões judiciais e acórdãos do Poder Judiciário e do Ministério Público relacionados a negativas de cobertura com base em decisões automatizadas. Também foram analisados relatórios de órgãos de defesa do consumidor, como o Procon, e publicações científicas recentes sobre viés algorítmico, governança de IA e direitos digitais na saúde.

A análise documental seguiu uma técnica de codificação temática, com categorias pré-definidas como “transparência”, “viés algorítmico”, “direito à explicação”, “governança” e “responsabilização”. Segundo Almeida (2022, p. 68), “a codificação temática permite organizar grandes volumes de dados qualitativos em estruturas analíticas coerentes, facilitando a identificação de padrões e contradições em contextos tecnologicamente complexos”. Essa abordagem foi essencial para mapear as lacunas entre normas e práticas no uso de algoritmos na saúde suplementar.

O segundo eixo metodológico foi composto por entrevistas semiestruturadas com especialistas, realizadas entre março e julho de 2024. Foram entrevistados 15 especialistas de diferentes áreas, incluindo juristas especializados em direito do consumidor e proteção de dados, pesquisadores em ética e inteligência artificial, médicos, representantes de operadoras de planos de saúde, membros do Ministério Público e defensores de direitos humanos. A amostragem foi intencional, buscando sujeitos com experiência direta ou conhecimento aprofundado sobre o tema.

Os roteiros de entrevista foram adaptados conforme o perfil do entrevistado, mas todos abordaram questões centrais como o uso de algoritmos em pré-autorizações, critérios de decisão, existência de auditorias, políticas de transparência, percepção de viés e propostas de regulação. Conforme Oliveira e Costa (2022, p. 114), “entrevistas semiestruturadas permitem flexibilidade no aprofundamento de temas emergentes, ao mesmo tempo em que garantem comparabilidade entre os discursos”. As entrevistas foram gravadas, com autorização prévia, e posteriormente transcritas na íntegra para análise.

A análise de conteúdo seguiu o método de análise temática, com identificação de unidades de significado e construção de categorias emergentes a partir dos discursos. Para Sousa e Silva (2023, p. 46), “a análise temática é particularmente eficaz em pesquisas interdisciplinares, pois permite integrar diferentes linguagens e perspectivas em um quadro interpretativo coeso”. Esse método possibilitou articular dados jurídicos, técnicos e clínicos em uma análise crítica da governança algorítmica.

O terceiro eixo metodológico foi o estudo de caso, que se concentrou em dois planos de saúde com diferentes perfis: um operador nacional de grande porte e uma cooperativa regional de médio porte. A seleção foi feita com base na representatividade no mercado e na disponibilidade de informações públicas sobre seus processos de pré-autorização. O estudo envolveu a análise de decisões automatizadas negadas a pacientes, obtidas por meio de pedidos de informação com base na Lei de Acesso à Informação (Lei nº 12.527/2011), além de análise de ações judiciais movidas por consumidores contra essas operadoras.

Foram examinados 30 processos judiciais com decisões sobre negativas de cobertura atribuídas a sistemas automatizados, com foco em aspectos como a justificativa fornecida, a possibilidade de contestação e a existência de referência ao algoritmo utilizado. Segundo Mendonça (2021, p. 79), “o estudo de caso permite investigar fenômenos sociais em seu contexto real, revelando dinâmicas que não são capturadas por métodos quantitativos”. Esse conjunto de dados permitiu identificar padrões de decisão, falhas na comunicação com o usuário e evidências indiretas de viés algorítmico.

A triangulação dos dados entre documentos, entrevistas e estudo de caso foi essencial para garantir a validade e a confiabilidade dos resultados. Como afirma Lima e Souza (2021, p. 135), “a triangulação metodológica fortalece a credibilidade da pesquisa ao cruzar diferentes fontes de evidência, especialmente em temas marcados por opacidade institucional”. A convergência de evidências reforça a consistência das conclusões.

A pesquisa seguiu os princípios éticos estabelecidos pela Resolução nº 510/2016 do Conselho Nacional de Saúde. Todos os participantes assinaram o Termo de Consentimento Livre e Esclarecido. Os dados foram armazenados com criptografia, em conformidade com a LGPD. Como destaca Ferreira (2020, p. 35), “a ética na pesquisa com dados sensíveis exige proteção rigorosa da privacidade e controle transparente do uso das informações”.

A metodologia permitiu uma investigação aprofundada do uso de algoritmos na saúde suplementar, combinando rigor acadêmico e sensibilidade ética. Os resultados serviram de base para a análise crítica e a formulação de recomendações concretas.

RESULTADOS

A análise dos dados coletados por meio da análise documental, entrevistas com especialistas e estudo de caso revelou um cenário preocupante quanto ao uso de algoritmos nos processos de pré-autorização de procedimentos médicos na saúde suplementar brasileira. Os resultados indicam que os sistemas automatizados são amplamente empregados por operadoras de planos de saúde, mas com baixíssima transparência, ausência de mecanismos eficazes de contestação e riscos significativos de viés algorítmico, especialmente contra populações vulneráveis.

A análise documental demonstrou que, embora a Lei Geral de Proteção de Dados (LGPD) assegure o direito do titular de obter informações sobre decisões automatizadas (art. 20, inciso III), esse direito é amplamente desrespeitado na prática. Em 92% dos processos judiciais analisados no estudo de caso, as operadoras não informaram qual algoritmo foi utilizado, quais critérios foram aplicados ou como a decisão foi fundamentada. Conforme um dos juízes entrevistados, “recebemos petições em que o consumidor alega negativa por sistema automatizado, mas a operadora responde apenas com justificativas genéricas, como ‘não indicado clinicamente’, sem detalhar a lógica da decisão”.

As entrevistas confirmaram essa opacidade. Um especialista em governança de dados afirmou: “As operadoras alegam segredo comercial para não revelar os detalhes dos algoritmos, mas isso inviabiliza o controle externo e fere o princípio da boa-fé objetiva no contrato de consumo”. Outro entrevistado, médico e pesquisador em saúde digital, destacou: “Muitos algoritmos usam critérios baseados em custo-benefício ou perfil de risco atuarial, não em evidência clínica. Isso transforma decisões médicas em cálculos financeiros automatizados”.

O estudo de caso identificou padrões claros de discriminação indireta. Em 14 dos 30 processos analisados, os pacientes eram idosos com mais de 70 anos ou pessoas com deficiência. Em todos esses casos, a negativa foi baseada em critérios como “baixa expectativa de sobrevida” ou “comorbidades associadas”, sem avaliação clínica individualizada. Um dos processos envolvia uma paciente de 78 anos com câncer de mama em estágio inicial, cuja cirurgia foi negada por um sistema que classificou o procedimento como “não prioritário” com base em parâmetros de custo e idade.

Esses achados corroboram a afirmação de Mendonça (2021, p. 79): “Algoritmos treinados com dados históricos reproduzem desigualdades, especialmente contra idosos e pessoas com deficiência, ao aplicar critérios que desconsideram o valor da vida em diferentes fases ou condições”. A falta de auditabilidade impede que esses vieses sejam detectados e corrigidos.

Outro resultado relevante foi a ausência de mecanismos internos de contestação eficazes. Em 80% dos casos analisados, os consumidores só conseguiram acesso ao procedimento após ingressar com ação judicial, o que demonstra o fracasso dos canais administrativos. Um representante de operadora entrevistado admitiu: “O sistema automatiza a maioria das negativas, e o recurso interno é apenas uma formalidade. Muitas vezes, o mesmo algoritmo reanalisa o caso, sem intervenção humana real”.

Esse cenário compromete o direito ao contraditório, previsto no art. 5º, LV, da Constituição Federal. Como ressaltou um promotor de justiça entrevistado: “Negar um tratamento com base em um algoritmo opaco e não permitir que o paciente entenda ou conteste a decisão é uma violação grave ao devido processo legal”. A LGPD exige explicabilidade, mas, na prática, essa exigência não é cumprida.

A análise das políticas de transparência das operadoras também revelou fragilidades. Nenhuma das duas instituições analisadas no estudo de caso publica relatórios sobre o uso de algoritmos, auditorias ou impactos em direitos do consumidor. A ANS não exige esse tipo de divulgação, o que permite que as operadoras operem sem prestação de contas. Conforme afirmou um pesquisador em regulação sanitária: “A ANS regula indicadores de tempo de espera e cobertura, mas ignora completamente a governança algorítmica. Isso é uma falha grave na supervisão do setor”.

As entrevistas indicaram ainda que não há comitês éticos ou equipes multidisciplinares envolvidas no desenvolvimento ou revisão dos algoritmos. “Os sistemas são desenvolvidos por equipes de TI e atuária, sem participação de médicos, juristas ou representantes de consumidores”, disse um especialista em IA aplicada à saúde. “Isso aumenta o risco de decisões desalinhadas com princípios éticos e jurídicos”.

Apesar disso, alguns avanços foram observados. Uma das cooperativas analisadas iniciou um projeto-piloto de auditoria interna de algoritmos, com apoio de uma universidade pública. “Estamos mapeando os critérios de decisão e testando o sistema com casos simulados para identificar vieses”, explicou um gestor da cooperativa. Esse tipo de iniciativa, ainda que pontual, mostra que a governança algorítmica é tecnicamente viável.

Os resultados também revelaram que o Poder Judiciário tem atuado como principal instância de proteção dos direitos do consumidor nesse contexto. Em 26 dos 30 processos analisados, os juízes determinaram a cobertura do procedimento, reconhecendo a ilegalidade da negativa automatizada. Um dos acórdãos destacou: “A automação não exime a operadora do dever de fundamentação clara e individualizada. Decisões que afetam a vida e a saúde não podem ser tomadas por ‘caixas-pretas’”.

No entanto, a judicialização excessiva não é uma solução sustentável. Como afirmou um defensor público: “Não podemos depender do Judiciário para corrigir falhas de design de sistemas. É preciso prevenção, não apenas reparação”. A regulação preventiva é essencial para evitar danos irreversíveis à saúde.

Em síntese, os resultados mostram que o uso de algoritmos na pré-autorização de procedimentos médicos ocorre com grave déficit de transparência, explicabilidade e responsabilização. Há evidências claras de viés algorítmico que reforçam desigualdades, especialmente contra grupos vulneráveis. A falta de auditabilidade e de mecanismos de contestação compromete direitos fundamentais como o acesso à saúde, a dignidade humana e o devido processo legal. 

Embora haja reconhecimento do problema entre especialistas e algumas iniciativas isoladas, a ausência de um marco regulatório específico pela ANS mantém o setor em uma zona de risco ético, jurídico e social. Esses achados fundamentam a necessidade urgente de um modelo de governança algorítmica robusto, com transparência explicativa, auditorias independentes e participação social, como será discutido na próxima seção.

DISCUSSÃO

Os resultados deste estudo revelam que o uso de algoritmos nos processos de pré-autorização na saúde suplementar brasileira ocorre em um ambiente de opacidade estrutural, com graves implicações para os direitos do consumidor, a equidade no acesso à saúde e a ética na aplicação da inteligência artificial. A ausência de transparência, a falta de explicabilidade das decisões automatizadas e a ausência de mecanismos eficazes de contestação configuram uma ruptura com princípios fundamentais do Estado democrático de Direito, como o contraditório, a dignidade humana e a boa-fé objetiva nas relações de consumo.

Um dos pontos centrais da discussão é a contradição entre o avanço normativo representado pela LGPD e a realidade prática das operadoras. Embora a Lei Geral de Proteção de Dados assegure, em seu artigo 20, o direito do titular de obter informações sobre os critérios utilizados em decisões automatizadas, esse direito é amplamente desrespeitado. Conforme demonstrado nos processos judiciais analisados, as justificativas fornecidas são genéricas, técnicas e desprovidas de conteúdo explicativo. Isso configura o que Zuboff (2019) denomina de “expropriação epistêmica”: o usuário é privado do conhecimento sobre como decisões que o afetam são tomadas, o que enfraquece sua autonomia e capacidade de defesa.

Além disso, a alegação de segredo comercial, frequentemente invocada pelas operadoras para justificar a não divulgação dos algoritmos, não pode prevalecer sobre direitos fundamentais. Como afirma Ferreira (2020, p. 36), “o segredo comercial não é absoluto, especialmente quando envolve serviços essenciais como a saúde”. A jurisprudência do Superior Tribunal de Justiça já reconheceu que a transparência é condição para a validade de cláusulas contratuais em planos de saúde, o que deve ser estendido às decisões algorítmicas.

O viés algorítmico identificado, especialmente contra idosos e pessoas com deficiência, revela um fenômeno de discriminação indireta que reproduz desigualdades históricas. Algoritmos treinados com dados históricos tendem a perpetuar lógicas de exclusão, como a associação entre idade avançada e baixa eficácia de tratamentos, sem considerar a individualidade clínica. Mendonça (2021, p. 80) adverte que “a neutralidade algorítmica é uma ilusão; os sistemas refletem os preconceitos embutidos nos dados e nos objetivos econômicos das empresas”. Nesse sentido, a automação não elimina o viés humano, mas o codifica e o escala.

A ausência de auditabilidade compromete ainda mais o cenário. Sem auditorias independentes, não há como verificar se os algoritmos operam de forma justa, legal e não discriminatória. Lima e Souza (2021, p. 136) defendem que “a auditoria algorítmica deve ser obrigatória, com acesso pleno aos dados e ao código-fonte, sob pena de sanções”. A experiência de países como a França e a Alemanha, que exigem auditorias de IA em setores regulados, mostra que é possível conciliar inovação e controle.

Outro aspecto crítico é a judicialização excessiva como única via de reparação. O fato de 87% dos pacientes analisados só terem obtido o procedimento após ação judicial indica o fracasso dos mecanismos administrativos e regulatórios. Isso sobrecarrega o Poder Judiciário e atrasa o acesso a cuidados médicos, muitas vezes em situações de urgência. Como destacou um defensor público entrevistado, “o Judiciário não pode ser o principal regulador da saúde suplementar”. A ANS tem o dever legal de fiscalizar, mas ainda carece de diretrizes específicas sobre governança algorítmica.

A proposta de um modelo de governança algorítmica robusto surge como resposta necessária. Esse modelo deve incluir: transparência explicativa, com justificativas claras e acessíveis para decisões automatizadas; auditorias independentes periódicas; participação de partes interessadas no design e na avaliação dos sistemas; e mecanismos ágeis de contestação, com revisão humana obrigatória em casos de negativa. Gomes (2020, p. 58) reforça que “a coconstrução de políticas algorítmicas com participação social fortalece a legitimidade e a eficácia da regulação”.

A inovação tecnológica não pode ser um fim em si mesma. Como argumenta Carvalho (2022, p. 90), “a tecnologia deve servir aos direitos humanos, não ao lucro ou à eficiência cega”. A inteligência artificial tem potencial para melhorar a qualidade e a agilidade dos processos de pré-autorização, mas apenas se for implementada com ética, responsabilidade e supervisão contínua.

Destarte, é urgente a criação de um marco regulatório específico para o uso de algoritmos na saúde suplementar, com diretrizes claras da ANS, fiscalização ativa e sanções efetivas. A regulação não inibe a inovação, mas a orienta para fins socialmente desejáveis. A dignidade humana e os direitos do consumidor devem prevalecer sobre a opacidade algorítmica.

CONSIDERAÇÕES FINAIS

Este estudo demonstrou que o uso de algoritmos nos processos de pré-autorização de procedimentos médicos na saúde suplementar brasileira ocorre com graves falhas de transparência, explicabilidade e responsabilização. Apesar do potencial da inteligência artificial para agilizar decisões e reduzir custos, sua aplicação atual reforça desigualdades, compromete direitos fundamentais e opera em um regime de opacidade que fere princípios jurídicos centrais, como a boa-fé objetiva, o contraditório e a dignidade da pessoa humana.

A análise revelou que os sistemas automatizados são frequentemente utilizados como “caixas-pretas”, cuja lógica de decisão é ocultada sob a alegação de segredo comercial, em desconformidade com o Código de Defesa do Consumidor e a Lei Geral de Proteção de Dados. A falta de justificativas claras e a ausência de mecanismos eficazes de contestação deixam os consumidores à mercê de decisões que impactam diretamente sua saúde e bem-estar, muitas vezes sem possibilidade de revisão imediata.

Identificou-se também a presença de vieses algorítmicos que afetam desproporcionalmente populações vulneráveis, como idosos, pessoas com deficiência e indivíduos de baixa renda. Esses vieses, embora muitas vezes não intencionais, reproduzem e amplificam desigualdades históricas, configurando uma forma de discriminação indireta que exige intervenção regulatória e ética.

Diante desse cenário, torna-se imperativo estabelecer um modelo de governança algorítmica robusto, com transparência explicativa, auditorias independentes, participação de partes interessadas e revisão humana obrigatória em decisões que negam cobertura. A Agência Nacional de Saúde Suplementar deve assumir um papel ativo na regulação desse campo, emitindo diretrizes claras e fiscalizando o uso de sistemas automatizados.

A inovação tecnológica não pode se sobrepor aos direitos humanos. É urgente criar um marco regulatório vinculativo que assegure que os algoritmos sejam ferramentas de apoio ao cuidado, nunca de restrição ao acesso à saúde. A regulação efetiva é condição para garantir equidade, ética e legalidade nas decisões automatizadas, protegendo a dignidade de todos os usuários da saúde suplementar.

REFERÊNCIAS BIBLIOGRÁFICAS

ALMEIDA, Luciana Mendes. Ética no design de algoritmos: integração desde as fases iniciais do projeto. Revista Brasileira de Tecnologia e Sociedade, v. 14, n. 2, p. 65-72, 2022.

CARVALHO, Rafael Souza. Inteligência artificial na saúde suplementar: inovação responsável e equilíbrio entre eficiência e direitos. Direito, Tecnologia e Inovação, v. 9, n. 1, p. 87-95, 2022.

COSTA, Mariana Oliveira; PEREIRA, Felipe Alves. Marco regulatório para inteligência artificial na saúde: necessidade de legislação setorial no Brasil. Revista de Direito Digital e Saúde, v. 6, n. 3, p. 120-130, 2024.

FERREIRA, Eduardo Martins. Vulnerabilidade do consumidor e opacidade algorítmica nos planos de saúde. Revista de Direito do Consumidor, v. 44, n. 177, p. 30-42, 2020.

GOMES, André Luiz Silva. Participação social na governança algorítmica: legitimidade e coconstrução de políticas em saúde digital. Saúde e Sociedade, v. 29, n. 2, p. 54-61, 2020.

LIMA, Fernanda Rocha; SOUZA, Carlos Eduardo. Auditabilidade algorítmica como garantia de justiça: necessidade de auditorias independentes em decisões automatizadas. Revista de Direito e Tecnologia, v. 8, n. 3, p. 132-145, 2021.

MENDONÇA, Tatiane Aparecida. Viés algorítmico na saúde: reprodução de desigualdades por meio de dados históricos. Revista de Bioética e Direito, v. 15, n. 2, p. 76-84, 2021.

OLIVEIRA, Camila Ribeiro; COSTA, Daniel Ferreira. Explicabilidade algorítmica como requisito ético e jurídico em decisões com impacto humano. Revista Jurídica da Saúde, v. 7, n. 2, p. 110-120, 2022.

RIBEIRO, Gustavo Henrique Alves. Falhas regulatórias na governança de inteligência artificial pela ANS: necessidade de diretrizes claras. Revista de Regulação em Saúde, v. 5, n. 1, p. 89-96, 2023.

SANTOS, Juliana Ferreira. Dignidade humana como princípio fundante nas decisões de cobertura em saúde suplementar. Revista de Direito Constitucional e Saúde, v. 11, n. 4, p. 101-110, 2023.

SOUSA, Renata Silva; SILVA, Carla Mendes. Transparência algorítmica em saúde: entre eficiência operacional e direitos fundamentais. Revista Digital de Direito e Tecnologia, v. 10, n. 1, p. 44-52, 2023.

ZUBOFF, Shoshana. The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. London: Profile Books, 2019. 691 p.

Passos, Juciano Silva . Transparência algorítmica em pré-autorizações de procedimentos médicos: Um estudo sobre viés, governança e direitos do consumidor na saúde suplementar.International Integralize Scientific. v 5, n 51, Setembro/2025 ISSN/3085-654X

Referencias

Vivian Caroline Coraucci.
BAILEY, C. J.; LEE, J. H.
Management of chlamydial infections: A comprehensive review.
Clinical infectious diseases.
v. 67
n. 7
p. 1208-1216,
2021.
Disponível em: https://academic.oup.com/cid/article/67/7/1208/6141108.
Acesso em: 2024-09-03.

Share this :

Edição

v. 5
n. 51
Transparência algorítmica em pré-autorizações de procedimentos médicos: Um estudo sobre viés, governança e direitos do consumidor na saúde suplementar

Área do Conhecimento

Análise do comportamento aplicada – ABA
autismo; crianças; intervenções; habilidades sociais; comportamentais.
A psicologia das pessoas da melhor idade no contexto da ansiedade, depressão e tristeza: Uma perspectiva psicanalítica
psicologia; ansiedade; depressão; tristeza; saúde mental.
Abordagem da leishmaniose tegumentar americana em Laranjal do Jari/Amapá: Uma análise por faixa etária de 2009 a 2015
leishmaniose; região Amazônica; Amapá.
Levantamento de metabólitos secundários com alguma aplicabilidade produzidos por fungos
metabólitos bioativos; bioprospecção fúngica; aplicações farmacológicas; diversidade química; produção sustentável.
Acessibilidade à saúde bucal em comunidades ribeirinhas: Obstáculos e soluções
comunidades ribeirinhas; saúde bucal; pesquisa-ação; acessibilidade; políticas públicas.
Edentulismo no Brasil: Determinantes socioculturais, informacionais e perspectivas futuras
edentulismo; saúde bucal; políticas públicas; prevenção; cultura e saúde.

Últimas Edições

Confira as últimas edições da International Integralize Scientific

feat-jan

Vol.

6

55

Janeiro/2026
feat-dez

Vol.

5

54

Dezembro/2025
feat-nov

Vol.

5

53

Novembro/2025
feat-out

Vol.

5

52

Outubro/2025
Setembro-F

Vol.

5

51

Setembro/2025
Agosto

Vol.

5

50

Agosto/2025
Julho

Vol.

5

49

Julho/2025
junho

Vol.

5

48

Junho/2025