11 de novembro de 2025
A IA e a ética em setores sensíveis
Potencial de transformação, riscos e diretrizes para o uso responsável de sistemas inteligentes na saúde, segurança e demais áreas críticas

A inteligência artificial (IA) já se firmou como uma das forças mais marcantes de transformação do nosso tempo. Com a capacidade de processar volumes imensos de dados, identificar padrões e gerar previsões em tempo real, ela vem remodelando cadeias produtivas, decisões estratégicas e até modelos inteiros de negócios. No entanto, esse avanço não é isento de riscos.
Imagine um sistema de seleção de enfermeiros que, de forma consistente, aprove apenas mulheres brancas. Ou um exame moderno para diagnóstico de câncer de pele que falha com frequência em pacientes negros. Ou ainda um algoritmo que destina pessoas de baixa renda a unidades de internação prolongada, enquanto pacientes mais ricos recebem alta para casa. Casos assim mostram como a IA, quando não supervisionada, pode cristalizar e até ampliar preconceitos existentes (Nelson, 2019).
Nesse sentido, a aplicação dessa tecnologia em áreas sensíveis exige atenção redobrada e uma base sólida de princípios éticos e regras claras. Temas como viés algorítmico, transparência e impacto social precisam estar no centro da discussão para que o avanço tecnológico caminhe lado a lado com justiça e responsabilidade (Kim; Kim; Lee, 2025). Compreender tanto o potencial quanto os riscos da IA é essencial para que governos, empresas e sociedade construam juntos os limites e condições para o seu uso.
IA na saúde
No campo da saúde, a IA já desempenha funções que vão desde a análise de exames de imagem até o suporte a diagnósticos clínicos complexos. Ferramentas baseadas em aprendizado profundo podem identificar doenças em estágios iniciais, aumentando a eficácia de tratamentos e reduzindo custos hospitalares. Contudo, a integração desses sistemas exige cuidados quanto à privacidade dos pacientes, à confiabilidade das bases de dados e à explicabilidade dos algoritmos utilizados. Falhas ou vieses em modelos preditivos podem resultar em diagnósticos incorretos ou tratamentos inadequados, com implicações éticas e jurídicas relevantes. É necessário que a inovação seja acompanhada por protocolos de validação clínica rigorosos e mecanismos de auditoria contínua.
Um dos casos mais emblemáticos sobre riscos éticos e técnicos na aplicação de sistemas computacionais em setores sensíveis ocorreu na década de 1980, com a série de acidentes envolvendo a máquina de radioterapia Therac-25. O equipamento, desenvolvido para tratar pacientes com câncer por meio de feixes de elétrons e radiação, apresentava uma falha de software que, em determinadas condições, fazia com que doses extremamente elevadas fossem aplicadas. Diferentemente de incidentes causados por falha mecânica, no Therac-25 o erro estava no código de controle, que não possuía salvaguardas adequadas e se manifestava apenas em situações operacionais muito específicas, tornando sua detecção difícil. Como resultado, diversos pacientes sofreram queimaduras graves, danos neurológicos irreversíveis e até óbitos (Leveon; Turner, 1993).
A análise posterior revelou não apenas problemas de programação e ausência de testes rigorosos, mas também falhas no processo de engenharia de software e na governança do produto, como falta de documentação clara, riscos subestimados e ausência de protocolos de auditoria externa. O caso tornou-se um marco na história da segurança de sistemas críticos, evidenciando que, em ambientes como saúde, transporte e energia, erros tecnológicos não são apenas falhas técnicas, mas eventos com profundas implicações éticas, jurídicas e sociais, reforçando a necessidade de validação rigorosa, supervisão contínua e responsabilidade compartilhada entre desenvolvedores, fabricantes e operadores (Leveon; Turner, 1993).
IA na segurança pública
Se na saúde os riscos envolvem a vida e a integridade física, na segurança pública o debate se volta para direitos fundamentais e igualdade de tratamento. Na segurança, a IA é aplicada em reconhecimento facial, monitoramento de áreas de risco e análise preditiva de criminalidade. Essas soluções prometem maior eficiência no emprego de recursos policiais e prevenção de delitos. No entanto, o uso de tecnologias de vigilância em larga escala levanta preocupações sobre o direito à privacidade e o risco de discriminação algorítmica. Estudos mostram que sistemas de reconhecimento facial podem apresentar taxas de erro mais elevadas para determinados grupos raciais ou de gênero, reforçando desigualdades. Dessa forma, é imprescindível a existência de marcos legais claros, garantindo que a aplicação dessas ferramentas respeite os direitos fundamentais e seja submetida a auditorias independentes.
Em 2016, uma investigação conduzida pelo site ProPublica revelou que o sistema Compas (Correctional Offender Management Profiling for Alternative Sanctions), utilizado em diversos estados norte-americanos para avaliar o risco de reincidência criminal, apresentava viés racial significativo. O algoritmo atribuía pontuações mais altas de risco a réus negros em comparação a réus brancos em situações semelhantes, superestimando a probabilidade de reincidência para os primeiros e subestimando para os segundos. Como o Compas era empregado por juízes para subsidiar decisões de fiança, liberdade condicional e sentenças, esse viés teve impacto direto na liberdade e nos direitos de indivíduos, perpetuando desigualdades no sistema de justiça criminal. A análise revelou não apenas falhas técnicas no modelo e na escolha das variáveis, mas também falta de transparência — já que o algoritmo era proprietário e não podia ser auditado publicamente. O caso tornou-se emblemático no debate sobre ética em inteligência artificial na segurança pública, destacando a necessidade de auditorias independentes, explicabilidade dos modelos e supervisão constante para evitar discriminação sistêmica (Angwin et al., 2016).
IA na justiça
No campo jurídico, os dilemas ganham outra dimensão: a preservação da imparcialidade, da autonomia e das garantias processuais. Além da saúde e da segurança, setores como o jurídico também enfrentam dilemas éticos no uso da IA. Um exemplo emblemático do uso de inteligência artificial é o sistema chinês conhecido como Smart Court, implementado em algumas províncias desde 2017. Integrando processamento de linguagem natural, análise de dados e reconhecimento de voz, a plataforma auxilia magistrados na redação de sentenças, na triagem de processos e na gestão de provas digitais. Embora apresente ganhos de celeridade e padronização, o sistema levanta preocupações quanto à autonomia da decisão judicial e à possibilidade de reforço de vieses já presentes no histórico de julgamentos.
Críticos apontam que, ao treinar o algoritmo com dados de decisões passadas, corre-se o risco de perpetuar padrões discriminatórios ou interpretações restritivas da lei. Além disso, a opacidade dos critérios utilizados e a ausência de mecanismos robustos de auditoria externa dificultam a contestação das decisões sugeridas ou influenciadas pela IA. Esse caso ilustra que, na Justiça, o desafio não é apenas técnico, mas envolve a preservação de garantias processuais e a manutenção do controle humano sobre a decisão final (Wang et al., 2021).
Uso responsável
A adoção ética e responsável da IA requer não apenas princípios gerais, mas também práticas concretas que garantam a conciliação entre inovação tecnológica e proteção social. Experiências internacionais demonstram que o uso indiscriminado ou mal regulamentado da IA pode gerar impactos significativos em direitos fundamentais, reforçando desigualdades e minando a confiança pública. Por isso, organismos como a Unesco, a OCDE e a União Europeia têm publicado frameworks de governança que enfatizam valores como transparência, justiça, segurança, privacidade e responsabilidade. Essas orientações partem do pressuposto de que a tecnologia deve ser projetada de forma centrada no ser humano (human-centered design), assegurando que decisões críticas permaneçam sob controle humano efetivo e que qualquer impacto negativo seja identificado e mitigado de forma tempestiva. A proteção de dados e a segurança cibernética, por sua vez, devem ser incorporadas desde a concepção (privacy by design e security by design), evitando que sejam apenas correções posteriores diante de incidentes.
Nesse contexto, diretrizes detalhadas se mostram fundamentais para operacionalizar esses princípios. A transparência implica que tanto os critérios de decisão como as limitações da IA sejam comunicados de forma clara, permitindo auditoria externa e participação social. A responsabilização demanda que desenvolvedores, fornecedores e usuários assumam obrigações específicas, com mecanismos para atribuir e cobrar responsabilidades em caso de falhas ou abusos. A não discriminação exige a detecção e mitigação de vieses nos dados e algoritmos, especialmente em aplicações que afetam direitos, como saúde, justiça e segurança pública.
A supervisão humana contínua é imprescindível para reverter decisões automatizadas injustas ou incorretas, preservando garantias processuais. Além disso, a educação digital e literacia algorítmica precisam ser fomentadas para que cidadãos, profissionais e autoridades entendam o funcionamento, as limitações e os riscos da IA, podendo interagir criticamente com essas ferramentas. Por fim, a segurança e resiliência dos sistemas deve ser priorizada, garantindo robustez contra ataques cibernéticos e falhas operacionais, de modo que a confiança social na tecnologia seja preservada. Algumas sugestões podem ajudar a balizar o uso ético e responsável da inteligência artificial:
- Transparência e explicabilidade: tornar visíveis as lógicas de decisão e limitações do sistema;
- Supervisão humana efetiva: manter pessoas aptas a intervir e reverter decisões automatizadas;
- Auditorias independentes periódicas: verificar vieses, desempenho e conformidade regulatória;
- Responsabilização clara: atribuir deveres e consequências a todos os atores envolvidos no ciclo de vida da IA;
- Proteção de dados e segurança desde a concepção (by design): prevenir vazamentos e ataques;
- Mitigação ativa de vieses: garantir que grupos vulneráveis não sejam prejudicados;
- Educação digital e literacia algorítmica: capacitar a sociedade para compreender e questionar a tecnologia;
- Robustez e resiliência operacional: assegurar que os sistemas funcionem de forma confiável, mesmo em cenários adversos.
A IA representa um divisor de águas na evolução tecnológica global, com potencial para transformar radicalmente setores como saúde, segurança, justiça, educação e economia. Sua capacidade de processar grandes volumes de dados, identificar padrões complexos e oferecer soluções em tempo real já se traduz em ganhos expressivos de eficiência, precisão e qualidade. No entanto, a mesma tecnologia que pode gerar avanços inéditos também carrega o risco de ampliar desigualdades estruturais, comprometer direitos fundamentais e provocar impactos sociais e econômicos de grande magnitude, especialmente quando utilizada de forma indiscriminada ou sem regulamentação adequada.
Para que a IA seja uma aliada do progresso e não um vetor de exclusão ou injustiça, é indispensável que seu desenvolvimento e aplicação estejam ancorados em um compromisso ético sólido, com regras claras, mecanismos de fiscalização independentes e governança participativa. Isso implica criar estruturas institucionais capazes de auditar algoritmos, prevenir vieses, garantir a proteção de dados e assegurar que a tomada de decisão permaneça, em última instância, sob controle humano. A participação ativa da sociedade — por meio de consulta pública, educação digital e debate aberto — é fundamental para que as soluções tecnológicas reflitam valores democráticos e atendam ao interesse coletivo. Somente por meio dessa combinação de inovação responsável, supervisão contínua e envolvimento social será possível colher, de forma equitativa e sustentável, os benefícios dessa revolução tecnológica. O futuro da IA não será definido apenas por sua capacidade técnica, mas pela forma como sociedades, governos e empresas escolhem utilizá-la, equilibrando eficiência e justiça, velocidade e prudência, potencial transformador e responsabilidade ética.
| Para ter acesso às referências desse texto clique aqui. |
Quem publicou esta coluna
Renato Máximo Sátiro
Doutor em Administração pela UFG, professor e orientador no MBA em Data Science & Analytics da USP/ESALQ. Administrador de Empresas na Saneago e pesquisador em grupos de pesquisa da UFG e da UnB, com foco em IA, políticas públicas e acesso à Justiça. Desenvolve projetos em machine learning, deep learning, modelos estatísticos, algoritmos e ética na IA, domínio de ferramentas R, Python, Gretl, SPSS e Stata.





























