Imagem Tecnologia e ética no desenvolvimento de um serviço de anonimização de imagens

19 de fevereiro de 2026

Tecnologia e ética no desenvolvimento de um serviço de anonimização de imagens

Rodrigo Mendes de Souza; Diego Pedroso dos Santos

Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.

Esta pesquisa investiga as melhores práticas para o uso ético e legal de imagens no desenvolvimento de modelos de inteligência artificial e, a partir dessa análise, desenvolve um serviço de anonimização de imagens em nuvem em conformidade com a Lei Geral de Proteção de Dados (LGPD). A transição para uma economia digital global transformou os dados em ativos estratégicos de valor inestimável, superando em importância recursos tradicionalmente dominantes como o petróleo (The Economist, 2017). Esta nova realidade econômica não apenas reconfigurou mercados, mas também criou uma demanda sem precedentes por profissionais com competências analíticas avançadas, capazes de extrair insights e gerar valor a partir de vastos e complexos volumes de informações. A habilidade de interpretar dados tornou-se, portanto, uma competência crucial para a inovação e a competitividade em praticamente todos os setores da indústria.

Um reflexo claro e local dessa tendência foi observado nos resultados do Enem-USP de 2025, onde, pela primeira vez na história do exame, os cursos de ciência da computação e estatística ultrapassaram o tradicionalmente mais concorrido curso de medicina em nota de corte, sinalizando uma mudança paradigmática nas aspirações de carreira e na percepção de valor profissional pela sociedade (Chiavegatto, 2025). A crescente valorização dos dados, contudo, trouxe consigo um conjunto complexo de dilemas éticos e desafios regulatórios, especialmente no que tange à sua utilização, armazenamento e compartilhamento (Moor, 2005). A proliferação de incidentes de segurança, como vazamentos massivos de informações pessoais, expôs a fragilidade dos sistemas de armazenamento e a premente necessidade de uma regulamentação robusta para proteger os direitos fundamentais dos cidadãos.

Um caso emblemático que marcou o debate público no Brasil ocorreu em 2014, quando a empresa de telecomunicações Velox foi acusada de comercializar ilegalmente dados cadastrais e de navegação de seus clientes, um evento que não apenas gerou indignação pública, mas também catalisou discussões legislativas sobre a urgência de uma lei de proteção de dados no país (Zannata, 2015). Em resposta a essa e outras pressões sociais e internacionais, o Brasil promulgou a Lei nº 13.709/2018, conhecida como Lei Geral de Proteção de Dados (LGPD), que estabeleceu um marco regulatório abrangente e detalhado para o tratamento de dados pessoais por organizações públicas e privadas (Brasil, 2018). Dentro deste novo paradigma regulatório, a utilização de imagens de pessoas, um tipo de dado pessoal particularmente sensível, ganhou uma camada adicional de complexidade.

A imagem de uma pessoa não é apenas um dado, mas um direito fundamental da personalidade, protegido explicitamente pelo artigo 5º, inciso X, da Constituição Federal, que declara como invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas, assegurando o direito à indenização pelo dano material ou moral decorrente de sua violação (Brasil, 1988). Esta proteção constitucional é reforçada e detalhada pelo artigo 20 do Código Civil, que proíbe expressamente a exposição ou a utilização da imagem de uma pessoa sem a sua devida autorização, especialmente quando tal uso se destina a fins comerciais, sob pena de sanções cíveis (Brasil, 2002).

O jurista Parra (2022) salienta a importância crítica de alinhar todas as práticas de coleta e uso de imagens com as rigorosas exigências da LGPD, a fim de garantir não apenas a legalidade das operações, mas também a manutenção de um padrão ético elevado que respeite a dignidade e a privacidade dos indivíduos. A proliferação de tecnologias de inteligência artificial, especialmente no campo da visão computacional, intensificou exponencialmente o uso de imagens para o treinamento de algoritmos de reconhecimento de padrões, detecção de objetos e análise de comportamento. A aparente facilidade de coleta de imagens em larga escala, seja por meio de câmeras de vigilância, redes sociais ou bancos de dados públicos, e a capacidade crescente da IA de interpretar esses dados visuais, geraram desafios éticos e legais de grande magnitude.

A ausência de práticas adequadas de proteção de dados pode resultar em consequências severas para as organizações, incluindo multas que podem chegar a 2% do faturamento anual, danos reputacionais de difícil reversão e a interrupção compulsória de projetos de inovação. A metodologia adotada para esta pesquisa é de natureza exploratória e bibliográfica, com uma componente de desenvolvimento tecnológico aplicada. O objetivo é analisar profundamente o estado da arte no treinamento de modelos de IA com imagens, bem como suas complexas implicações legais sob a ótica dos direitos autorais e da proteção de dados.

Para alcançar tal objetivo, a pesquisa foi estruturada em quatro etapas sequenciais e interdependentes: análise legal aprofundada, coleta de dados bibliográficos, modelagem da análise para definição de requisitos e, por fim, o desenvolvimento do protótipo do serviço de anonimização. A primeira fase, a análise legal, concentrou-se em um exame minucioso da LGPD para compreender em detalhe as diretrizes que governam o tratamento de dados pessoais, categoria na qual as imagens de pessoas identificáveis ou identificadas se enquadram inequivocamente. Foram investigados os princípios fundamentais da lei, como os da finalidade, adequação, necessidade, livre acesso, qualidade dos dados, transparência, segurança, prevenção, não discriminação e responsabilização.

A análise buscou entender como cada um desses princípios se aplica ao ciclo de vida das imagens em sistemas de IA, desde a coleta até o descarte. A coleta de dados, segunda etapa metodológica, foi estritamente bibliográfica, com foco em fontes acadêmicas e técnicas de alta relevância e impacto. Foram utilizadas bases de dados científicas renomadas, como Scopus, Web of Science, IEEE Xplore e Google Scholar, para a busca de artigos, dissertações e teses. Os termos de busca empregados incluíram combinações como “LGPD e reconhecimento facial”, “anonimização de dados visuais”, “ética em inteligência artificial”, “privacidade por design em visão computacional” e “copyright e machine learning”. Além das fontes acadêmicas, foram consultados documentos técnicos de órgãos de padronização, relatórios de agências de proteção de dados e publicações de conferências de prestígio nas áreas de computação e direito, a fim de compor um panorama abrangente e atualizado sobre o tema.

A terceira etapa, denominada modelagem da análise, consistiu na síntese e na estruturação dos conhecimentos adquiridos nas fases anteriores. O objetivo desta etapa foi traduzir os complexos requisitos legais e as melhores práticas éticas em um conjunto de especificações técnicas e funcionais para o serviço de anonimização a ser desenvolvido. Este processo envolveu a criação de um framework de conformidade que mapeia diretamente os artigos e princípios da LGPD a funcionalidades tecnológicas concretas. Por exemplo, o princípio da necessidade (art. 6º, III) foi traduzido no requisito de que o serviço deve oferecer diferentes níveis de anonimização, permitindo que o usuário aplique a técnica menos invasiva que ainda atenda à finalidade do tratamento. Da mesma forma, o requisito de segurança (art. 6º, VII) levou à especificação de que todas as comunicações com o serviço devem ser criptografadas e que os dados processados não devem ser armazenados permanentemente.

Este framework serviu como a planta baixa para o desenvolvimento do protótipo. A quarta e última etapa da metodologia foi o desenvolvimento prático do serviço de anonimização em nuvem. Optou-se por uma arquitetura baseada em microsserviços e disponibilizada através de uma API RESTful, visando garantir escalabilidade, flexibilidade e facilidade de integração com outros sistemas. A implementação utilizou tecnologias de código aberto amplamente adotadas, como Python para o backend, e bibliotecas especializadas em visão computacional, como OpenCV e Dlib, para as tarefas de detecção de faces e outros elementos identificáveis. Foram implementados e testados diferentes algoritmos de anonimização, incluindo o desfoque gaussiano, a pixelização e a aplicação de máscaras opacas. Os resultados obtidos ao longo desta pesquisa podem ser segmentados de acordo com as etapas metodológicas.

A análise legal e bibliográfica revelou uma tensão fundamental entre a necessidade de grandes volumes de dados para o treinamento de modelos de IA eficazes e os princípios de proteção de dados consagrados na LGPD, em especial o da minimização de dados. Concluiu-se que, na ausência de consentimento explícito, específico e informado de cada indivíduo retratado, a anonimização se apresenta como a base legal mais robusta e segura para viabilizar o uso de grandes conjuntos de imagens para fins de pesquisa e desenvolvimento tecnológico. A pesquisa também evidenciou que o conceito de anonimização não é absoluto; a eficácia de uma técnica deve ser avaliada em relação aos meios disponíveis para a reidentificação, o que exige uma abordagem baseada em risco.

Além disso, a questão dos direitos autorais sobre imagens usadas para treinamento de IA permanece uma área cinzenta no ordenamento jurídico brasileiro, com debates em curso sobre a aplicabilidade de exceções e limitações. Do ponto de vista técnico, a revisão da literatura e os experimentos práticos demonstraram a existência de um trade-off crucial entre a eficácia da anonimização e a utilidade dos dados resultantes. Técnicas mais agressivas, como a aplicação de máscaras pretas sobre os rostos, garantem um alto nível de privacidade, mas podem degradar significativamente a qualidade da imagem a ponto de torná-la inútil para certas tarefas de treinamento de IA que dependem de características contextuais. Por outro lado, técnicas mais suaves, como um leve desfoque, podem preservar mais informações úteis, mas correm um risco maior de permitir a reidentificação por meio de algoritmos avançados.

O resultado desta análise foi a decisão de implementar múltiplas técnicas no serviço, permitindo que o usuário escolha o método e a intensidade mais adequados à sua finalidade específica e ao seu nível de tolerância ao risco. O resultado prático e central desta pesquisa é o protótipo de um serviço em nuvem, denominado provisoriamente de “Anonymize. AI”. Este serviço foi desenvolvido como uma API RESTful que permite a qualquer desenvolvedor ou organização submeter imagens e receber de volta versões anonimizadas em tempo real. A API foi projetada para ser simples e intuitiva, com endpoints claros para diferentes tipos de anonimização, como detecção e ofuscação de faces, placas de veículos e textos que possam conter informações pessoais. O serviço implementa os requisitos definidos no framework de conformidade, garantindo que o processo seja seguro e alinhado aos princípios da LGPD.

Por exemplo, uma empresa de varejo que deseja analisar o fluxo de clientes em suas lojas pode utilizar o serviço para anonimizar as imagens de suas câmeras de segurança antes de alimentar seus modelos de IA, garantindo assim que a análise seja realizada sobre dados não pessoais e em conformidade com a lei. Os testes de desempenho do protótipo demonstraram sua capacidade de processar imagens de forma eficiente, com um tempo de resposta baixo, viabilizando sua aplicação em cenários que exigem processamento em lote ou em tempo real. Em suma, a pesquisa partiu de um problema jurídico e ético complexo e culminou na entrega de uma solução tecnológica tangível. O estudo aprofundou a compreensão das intersecções entre IA, direito de imagem e proteção de dados no contexto brasileiro, sistematizando os desafios e as possíveis soluções.

A principal contribuição teórica é o framework de conformidade que traduz os preceitos da LGPD em requisitos técnicos para sistemas de processamento de imagens. A contribuição prática é o protótipo do serviço Anonymize. AI, que serve como uma prova de conceito de que é possível desenvolver e utilizar tecnologias de IA de maneira inovadora e, ao mesmo tempo, respeitosa aos direitos fundamentais dos indivíduos. As implicações deste trabalho são vastas, oferecendo um caminho para que empresas, pesquisadores e o setor público possam continuar a inovar com o uso de visão computacional sem infringir a legislação e a ética. Naturalmente, o estudo possui limitações, como o fato de o protótipo não ter sido testado em um ambiente de produção em larga escala e a paisagem legal estar em constante evolução.

Como trabalhos futuros, sugere-se a expansão do serviço para incluir a anonimização de vídeos, a exploração de técnicas mais avançadas como a geração de faces sintéticas com GANs (Generative Adversarial Networks) para substituir os rostos originais, e a realização de estudos de caso com parceiros da indústria para validar a eficácia e a usabilidade da solução em cenários reais.

Conclui-se que o objetivo foi atingido.

Referências:
ADOPT. Multas na LGPD – Quais são, valores e prazos de adequação. [S. l.]: AdOpt, [s. d.]. Disponível em: https://goadopt. io/blog/multas-na-lgpd/. Acesso em: 25 maio 2025.
ANDRADE, Antônio et al. Captura e Armazenamento de Fotos: Desafios da LGPD em Foco. APDADOS, 21 nov. 2024. Disponível em: https://apdados. org/noticia/captura-e-armazenamento-de-fotos-desafios-da-lgpd-em-foco-21-11-2024. Acesso em: 22 maio 2025.
AUTORIDADE NACIONAL DE PROTEÇÃO DE DADOS (Brasil). ANPD publica Regulamento de Dosimetria. Brasília, DF: Gov. br, 27 fev. 2023. Disponível em: https://www. gov. br/anpd/pt-br/assuntos/noticias/anpd-publica-regulamento-de-dosimetria. Acesso em: 25 maio 2025.
BECHARA, Erika; MORAES, Beatriz de Oliveira; IZIDORO, Leila Giovana. Proteção de dados pessoais no uso de imagem e voz por organizações da sociedade civil. Migalhas, 26 set. 2023. Disponível em: https://www. migalhas. com. br/depeso/394075/protecao-de-dados-pessoais-no-uso-de-imagem-e-voz. Acesso em: 21 maio 2025.
BRASIL. Constituição da República Federativa do Brasil de 1988. Brasília, DF: Senado Federal: Centro Gráfico, 1988.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Brasília, DF: Senado Federal, 2002. Art. 20.
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Disponível em: http://bit. ly/2YgUqMZ. Acesso em: 01 mar. 2025.
CHIAVEGATTO FILHO, A. Estatística e computação passaram medicina como sonho profissional da geração Z. Estadão, São Paulo, 22 jan. 2025. Disponível em: https://www. estadao. com. br/link/alexandre-chiavegatto-filho/estatistica-e-computacao-passaram-medicina-como-sonho-profissional-da-geracao-z/? srsltid=AfmBOor-ESv4IV8isSWotIXVgjxR6kZZT-31wI015QP00QN3mzCqel17. Acesso em: 01 mar. 2025.
FASTAPI. FastAPI: The modern, fast (high-performance) web framework. Disponível em: https://fastapi. tiangolo. com/. Acesso em: 23 set. 2025.
GONÇALES, Juliana Callado. Câmeras de Segurança e a LGPD: monitoramento de indivíduos sob a ótica de proteção de dados. Silveira Law, [s. d.]. Disponível em: https://www. silveiralaw. com. br/cameras-de-seguranca-e-a-lgpd-monitoramento-de-individuos-sob-a-otica-de-protecao-de-dados/. Acesso em: 22 maio 2025.
MEDEIROS, Júlia Mayara. LGPD: Como a lei protege suas imagens e dados biométricos. HSBS, [s. d.]. Disponível em: https://hsbs. com. br/dados-biometricos/. Acesso em: 21 maio 2025.
MENDES ADVOCACIA. Inteligência artificial: LGPD, uso de imagem e direitos. OCP News, 14 mar. 2024. Disponível em: https://ocp. news/colunistas/inteligencia-artificial-lgpd-uso-de-imagem-e-direitos. Acesso em: 25 maio 2025.
MOOR, J. H. Why we need better ethics for emerging technologies. Ethics and Information Technology, v. 7, p. 111–119, 2005. DOI: 10.1007/s10676-006-0008-0.
NGROK. ngrok: Secure introspectable tunnels to localhost. Disponível em: https://ngrok. com/. Acesso em: 23 set. 2025.
OPENCV. Open-Source Computer Vision Library. 2015. Disponível em: https://github. com/opencv/opencv. Acesso em: 12 mar. 2025.
PARRA, M. H. de M. Autorização de uso de imagem e seu fundamento face à LGPD. 2022. Disponível em: https://dspace. mackenzie. br/items/541e945c-f72b-4ee5-b7cd-a592e429d83d. Acesso em: 01 mar. 2025.
PENA, Fernando. A LGPD e o Direito de Imagem. Camargo e Vieira Advogados, 10 jul. 2024. Disponível em: https://blog. camargoevieira. adv. br/a-lgpd-e-o-direito-de-imagem/. Acesso em: 25 maio 2025.
RENDER. Cloud Application Hosting for developers. Disponível em: https://render. com/. Acesso em: 23 set. 2025.
SERPRO. Dados anonimizados — LGPD: Lei Geral de Proteção de Dados Pessoais. [Brasília, DF]: Serpro, 19 maio 2021. Disponível em: https://www. serpro. gov. br/lgpd/menu/protecao-de-dados/dados-anonimizados-lgpd. Acesso em: 25 maio 2025.
STREAMLIT. Streamlit: The fastest way to build and share data apps. Disponível em: https://streamlit. io/. Acesso em: 23 set. 2025.
THE ECONOMIST. The world’s most valuable resource is no longer oil, but data. The Economist, Londres, 6 maio 2017. Disponível em: https://www. economist. com/leaders/2017/05/06/the-worlds-most-valuable-resource-is-no-longer-oil-but-data. Acesso em: 01 mar. 2025.

Resumo executivo oriundo de Trabalho de Conclusão de Curso de Especialização em Data Science e Analytics do MBA USP/Esalq

Saiba mais sobre o curso; clique aqui:

Quem editou este artigo

Você também pode gostar

Quer ficar por dentro das nossas últimas publicações? Inscreva-se em nossa newsletter!

Receba conteúdos e fique sempre atualizado sobre as novidades em gestão, liderança e carreira com a Revista E&S.

Ao preencher o formulário você está ciente de que podemos enviar comunicações e conteúdos da Revista E&S. Confira nossa Política de Privacidade