Discriminação por planos de saúde com base em previsões de IA   Migalhas

Discriminação por planos de saúde com base em previsões de IA – Migalhas

CompartilharComentarSiga-nos noGoogle News A A

A IA – Inteligência Artificial tem revolucionado o setor de saúde, oferecendo ferramentas poderosas para prever riscos individuais e personalizar tratamentos. No entanto, seu uso por planos de saúde para negar cobertura ou ajustar preços com base em predisposições genéticas ou de saúde levanta sérias preocupações éticas e jurídicas. A discriminação algorítmica, onde sistemas de IA perpetuam vieses e desigualdades, pode violar direitos fundamentais, como o acesso à saúde e a privacidade, além de ampliar disparidades sociais.

Em 2022, um estudo publicado na revista Nature alertou que algoritmos de saúde podem exacerbar desigualdades raciais e socioeconômicas ao priorizar eficiência em detrimento da equidade1. Este artigo propõe uma reflexão crítica sobre os riscos de planos de saúde usarem previsões de IA para discriminar usuários, explorando as implicações jurídicas e éticas desse fenômeno e sugerindo caminhos para mitigar esses riscos.

Previsões de IA e discriminação algorítmica no setor de saúde

Os sistemas de IA utilizados por planos de saúde analisam grandes volumes de dados, incluindo histórico médico, predisposições genéticas e hábitos de vida, para prever riscos individuais. No entanto, esses algoritmos podem perpetuar vieses existentes, discriminando grupos específicos com base em características como raça, gênero ou condição socioeconômica.

Um exemplo emblemático ocorreu em 2019, quando um algoritmo utilizado por um grande plano de saúde nos Estados Unidos foi acusado de priorizar pacientes brancos em detrimento de negros, refletindo vieses raciais nos dados de treinamento2. Esse caso destacou como a discriminação algorítmica pode violar princípios éticos e legais, como a igualdade de acesso à saúde.

Riscos de negação de cobertura e aumento de preços

A utilização de previsões de IA para negar cobertura ou aumentar preços com base em predisposições genéticas ou de saúde representa um risco significativo para os usuários. Em 2021, um relatório da OMS – Organização Mundial da Saúde alertou para o uso de algoritmos que discriminam pacientes com base em dados preditivos, como probabilidade de desenvolver doenças crônicas ou custos futuros de tratamento3.

No Brasil, a LGPD – Lei Geral de Proteção de Dados e o CDC oferecem proteção contra práticas discriminatórias, mas são insuficientes para abordar a complexidade da discriminação algorítmica. Um exemplo recente é o uso de IA por planos de saúde para ajustar preços com base em dados preditivos, levantando questões sobre a transparência e a justiça dessas práticas4.

Implicações jurídicas e éticas

A discriminação por planos de saúde com base em previsões de IA coloca em xeque princípios éticos e jurídicos fundamentais, como o direito à saúde, a privacidade e a não discriminação. A jurista Karen Yeung, em Algorithmic Regulation: A Critical Interrogation (2018), argumenta que a regulamentação de sistemas de IA deve priorizar a accountability (prestação de contas) e a transparência, garantindo que as decisões algorítmicas possam ser auditadas e compreendidas5.

No Brasil, a ANS – Agência Nacional de Saúde Suplementar tem um papel crucial na regulação do setor, mas ainda não há normas específicas que abordem a discriminação algorítmica. A criação de diretrizes claras sobre o uso ético de IA em planos de saúde é essencial para proteger os direitos dos usuários.

Casos concretos e jurisprudência

Em 2023, um caso nos Estados Unidos trouxe à tona a questão da discriminação algorítmica em planos de saúde. Um paciente foi negado cobertura para um tratamento com base em uma previsão de IA que indicava alto risco de complicações. O caso resultou em uma ação judicial que questionou a legalidade do uso de algoritmos para tomar decisões que afetam o acesso à saúde6.

No Brasil, ainda não há jurisprudência consolidada sobre o tema, mas a discussão ganha relevância à medida que planos de saúde adotam sistemas de IA para gerenciar riscos e custos. Um exemplo recente é o uso de algoritmos para ajustar preços com base em dados preditivos, levantando questões sobre a transparência e a justiça dessas práticas7.

Conclusão

A discriminação por planos de saúde com base em previsões de IA representa um dos maiores desafios éticos e jurídicos da era digital. A utilização de algoritmos para negar cobertura ou aumentar preços com base em predisposições genéticas ou de saúde viola princípios fundamentais, como o direito à saúde e a não discriminação.

Como soluções práticas, propõe-se a criação de frameworks legais que promovam a transparência e a responsabilidade no uso de IA por planos de saúde, a adoção de normas específicas para combater a discriminação algorítmica e a promoção da educação e conscientização sobre os riscos dessas práticas. O futuro do setor de saúde dependerá de nossa capacidade de equilibrar o avanço tecnológico com a preservação de valores fundamentais, como a equidade e a justiça.

________

1 Nature. Risks of Algorithmic Bias in Healthcare. 2022.

2 Caso de Algoritmo de Saúde nos EUA. Journal of Medical Ethics, 2019.

3 Organização Mundial da Saúde (OMS). Relatório sobre Discriminação Algorítmica. 2021.

4 BRASIL. Lei Geral de Proteção de Dados (LGPD). Lei nº 13.709, de 14 de agosto de 2018.

5 YEUNG, Karen. Algorithmic Regulation: A Critical Interrogation. Oxford University Press, 2018.

6 Caso de Discriminação Algorítmica nos EUA. International Journal of Law and Technology, 2023.

7 Uso de IA em Planos de Saúde no Brasil. Revista de Direito Digital, 2023.

Jamille Porto Rodrigues

Jamille Porto Rodrigues

Advogada e Professora de Direito Digital, Inteligência Artificial e Novas tecnologias aplicada ao Direito e Marketing Jurídico.

Leave a Comment

Your email address will not be published. Required fields are marked *