Resumo Executivo

27 de abril de 2026

IA na Cibersegurança: Riscos, Defesa e Guia de Boas Práticas

Hellen Cristina Gurgacz Fiori; Bruno Henrique Coleto

Resumo elaborado pela ferramenta ResumeAI, solução de inteligência artificial desenvolvida pelo Instituto Pecege voltada à síntese e redação.

A integração da inteligência artificial no cotidiano contemporâneo promoveu transformações estruturais em diversos setores, desde a otimização de recursos na agricultura até o fortalecimento de sistemas de defesa digital. No entanto, essa evolução tecnológica ocorre de forma ambivalente, pois as mesmas ferramentas que potencializam a proteção de dados são exploradas por agentes maliciosos para sofisticar ataques cibernéticos. O cenário atual revela que o Brasil ocupa a posição de segundo país com maior volume de ataques virtuais no mundo, registrando aproximadamente 700 milhões de tentativas em um intervalo de apenas 12 meses, o que representa uma média de 1379 investidas por minuto (CNN Brasil, 2023). Esse panorama exige uma análise profunda sobre como algoritmos inteligentes podem ser utilizados tanto para comprometer a integridade de sistemas quanto para servir como pilares de uma nova arquitetura de cibersegurança. A dualidade da tecnologia reflete-se na capacidade de automatizar processos complexos, permitindo que criminosos executem campanhas de engenharia social em larga escala com um nível de realismo sem precedentes (Crowdstrike, 2025).

A fundamentação teórica que sustenta a segurança da informação moderna baseia-se na tríade de confidencialidade, integridade e disponibilidade, conceitos que agora enfrentam desafios inéditos com a popularização de modelos de linguagem de grande porte e ferramentas de geração de conteúdo sintético. A rápida adoção dessas tecnologias é evidenciada pela velocidade com que novas plataformas atingem marcos de milhões de usuários, superando em dias o que redes sociais levaram meses para conquistar. Essa acessibilidade amplifica a superfície de risco, uma vez que usuários sem conhecimentos técnicos avançados podem agora gerar códigos maliciosos ou mensagens de phishing altamente persuasivas. A sofisticação dos ataques é impulsionada pela capacidade da inteligência artificial de aprender com tentativas anteriores de mitigação, criando malwares adaptáveis que desafiam as defesas tradicionais baseadas em assinaturas estáticas (Geer, 2025). Diante desse contexto, a implementação de arquiteturas de confiança zero torna-se uma necessidade estratégica, assumindo que nenhum usuário ou dispositivo é inerentemente confiável, independentemente de sua localização na rede (Microsoft, 2025).

A justificativa para o estudo de caso e a elaboração de diretrizes práticas reside na disparidade observada entre o avanço das ameaças e a maturidade das organizações brasileiras. Dados indicam que, embora a inteligência artificial tenha sido utilizada em mais de 50% dos ataques recentes contra empresas no território nacional, uma parcela significativa das instituições ainda subestima os riscos associados ou carece de políticas de governança específicas para o uso dessas ferramentas (Forbes Brasil, 2024a). O objetivo central desta análise concentra-se em identificar as principais vulnerabilidades introduzidas pela automação inteligente e propor um modelo de melhores práticas que permita às organizações mitigar riscos operacionais, financeiros e reputacionais. A transição de uma postura reativa para uma estratégia proativa de ciberdefesa depende da compreensão técnica de como os ataques são estruturados, desde a manipulação de metadados até a injeção de instruções maliciosas em sistemas embarcados.

A metodologia adotada para esta investigação possui caráter descritivo e aplicado, utilizando uma abordagem qualitativa para explorar os impactos da inteligência artificial no campo do cibercrime e da defesa digital. O processo operacional foi dividido em três etapas fundamentais: análise de casos reais documentados, aplicação de um questionário estruturado com profissionais do setor e o desenvolvimento de um protótipo técnico para detecção de anomalias. Na primeira fase, foram selecionados incidentes críticos onde a tecnologia foi o vetor principal, incluindo fraudes financeiras baseadas em deepfakes e manipulação de chatbots corporativos. A seleção desses casos baseou-se na relevância e na atualidade das ocorrências, garantindo que os exemplos refletissem as táticas mais recentes empregadas por grupos organizados. A análise concentrou-se em entender as consequências sistêmicas desses ataques e em identificar as brechas de segurança que permitiram a exploração bem-sucedida.

A segunda etapa metodológica envolveu a coleta de dados primários por meio de um questionário composto por 15 itens, sendo 13 perguntas objetivas em escala de múltipla escolha e duas questões abertas para comentários qualitativos. A amostragem foi constituída por 52 participantes com experiência comprovada em desenvolvimento de software, segurança da informação e gestão de inovação. O recrutamento ocorreu via contatos diretos e redes profissionais, buscando alcançar uma diversidade de contextos organizacionais, desde startups até multinacionais. O instrumento de pesquisa buscou mensurar o nível de familiaridade dos profissionais com técnicas de inteligência artificial, a percepção de risco em seus ambientes de trabalho e a existência de diretrizes éticas ou de segurança em suas respectivas empresas. As respostas foram tratadas de forma anônima, garantindo a confidencialidade e permitindo uma análise fidedigna da maturidade do mercado brasileiro.

Para complementar a análise qualitativa, foi desenvolvido um protótipo de detecção de anomalias utilizando o algoritmo Isolation Forest, uma técnica de aprendizado não supervisionado eficaz na identificação de registros que se desviam do comportamento normal em grandes volumes de dados. O experimento utilizou dados simulados de tráfego de rede e eventos de login, contendo atributos como carimbo de tempo, endereço de protocolo de internet de origem, volume de dados transmitidos e portas de destino. O modelo foi treinado para reconhecer padrões típicos de acesso e sinalizar eventos suspeitos, como picos anômalos de exfiltração de informações ou múltiplas tentativas de autenticação falhas em curtos intervalos. Essa etapa prática permitiu validar como a automação pode reduzir o esforço manual de analistas de segurança, aumentando a precisão na identificação de incidentes em tempo real. A análise final integrou os achados da literatura, os resultados do questionário e as evidências do protótipo para fundamentar a criação de um guia de boas práticas.

Os resultados obtidos revelam um cenário de rápida evolução das ameaças potencializadas por algoritmos inteligentes. No Brasil, o uso de inteligência artificial em ataques cibernéticos saltou de 55% em 2023 para 77% em 2024, gerando prejuízos que ultrapassam a marca de R$ 160 bilhões (SecurityLeaders, 2025). Entre os principais incidentes registrados, destacam-se o roubo de modelos ou acesso não autorizado, presente em 43% dos casos, e a engenharia social aprimorada, que afeta 42% das organizações. Outras vulnerabilidades críticas incluem tentativas de envenenamento de dados, com 38%, e ataques de injeção de comandos em prompts de sistemas integrados, que atingem 35% das empresas monitoradas. Esses dados evidenciam que a sofisticação tecnológica dos criminosos supera a capacidade de resposta de muitas instituições, onde apenas uma pequena fração das empresas brasileiras é considerada madura em áreas críticas de segurança digital.

Um caso emblemático de engenharia social ocorreu em 2024, na cidade de Hong Kong, onde criminosos utilizaram tecnologias de deepfake para simular uma videoconferência inteira com a presença de diretores e acionistas de uma empresa. O diretor financeiro, acreditando estar em uma reunião legítima com seus superiores, foi induzido a realizar transferências que totalizaram 25 milhões de dólares, o equivalente a aproximadamente R$ 129 milhões (Forbes Brasil, 2024b). Esse episódio demonstra que a manipulação audiovisual atingiu um nível de perfeição capaz de enganar profissionais experientes, tornando obsoletos os métodos tradicionais de verificação visual. A mitigação de tais riscos exige a implementação de autenticação multifatorial rigorosa e a criação de protocolos de validação financeira que não dependam exclusivamente de interações por vídeo ou áudio. O treinamento contínuo de funcionários para identificar sinais sutis de manipulação digital torna-se, portanto, um componente indispensável da defesa corporativa.

Além da engenharia social, os ataques de injeção de comandos em inteligências artificiais embarcadas representam uma ameaça crescente para sistemas que utilizam chatbots para automação de serviços. Em uma ocorrência documentada em 2024, um invasor conseguiu manipular um sistema de atendimento ao cliente para alterar regras internas de processamento, resultando no desvio de 47 mil dólares para uma conta externa (Secureworld, 2024). O ataque consistiu na inserção de instruções maliciosas no campo de entrada do usuário, enganando o modelo para que ele ignorasse suas restrições de segurança originais. Esse tipo de vulnerabilidade reforça a necessidade de realizar verificações rígidas de integridade em todas as informações processadas por modelos de linguagem, estabelecendo uma separação clara entre a lógica crítica do sistema e as permissões concedidas ao usuário final. A blindagem de prompts e a realização de testes de invasão periódicos são medidas essenciais para garantir a confiabilidade de sistemas automatizados.

O phishing também sofreu uma metamorfose significativa com o auxílio da inteligência artificial generativa. Estima-se que cerca de 3,4 bilhões de e-mails de spam sejam enviados diariamente, e o uso de ferramentas automatizadas permitiu um crescimento de 466% nos casos de phishing registrados recentemente (Norton, 2024). A tecnologia permite que criminosos redijam mensagens altamente persuasivas, sem erros gramaticais e personalizadas de acordo com o perfil da vítima, aumentando drasticamente a taxa de sucesso das campanhas maliciosas. Além disso, a capacidade de replicar vozes humanas tem sido explorada em golpes direcionados a populações vulneráveis, como idosos, simulando situações de emergência com entes queridos para extorquir valores financeiros. Os prejuízos globais com esse tipo de personificação somaram mais de 3,4 bilhões de dólares em 2023, evidenciando a urgência de disseminar o conhecimento sobre os riscos da tecnologia para toda a sociedade (Forbes Brasil, 2024c).

A análise dos dados coletados via questionário com os 52 profissionais de tecnologia oferece uma visão detalhada sobre a percepção interna das empresas. A amostra revelou uma predominância de profissionais atuando em desenvolvimento de software (43,4%), seguidos por especialistas em segurança da informação (13,2%) e gestores de inovação (15,1%). Quanto ao tempo de atuação, 39,6% possuem mais de cinco anos de experiência, o que confere autoridade às percepções coletadas. Observou-se que 35,8% dos respondentes trabalham em empresas de grande porte nacionais, enquanto 35,8% atuam em multinacionais. Um dado relevante é que 45,3% dos profissionais utilizam soluções de inteligência artificial ocasionalmente em suas rotinas, e 37,7% as utilizam frequentemente, indicando que a tecnologia já está consolidada no ambiente operacional.

Apesar da alta adoção, a governança sobre o uso dessas ferramentas ainda é incipiente. Cerca de 20,8% dos participantes afirmaram que suas organizações não possuem diretrizes claras sobre o uso ético e seguro da tecnologia, e 34% indicaram que tais políticas ainda estão em fase de construção. Essa lacuna institucional é apontada como um dos principais desafios para a aplicação segura da inteligência artificial, juntamente com a falta de conhecimento técnico (27%) e a escassez de mão de obra especializada (16,9%). No que diz respeito à proteção de dados sensíveis, as práticas mais comuns citadas foram a remoção ou anonimização de informações antes do uso em modelos e a limpeza de dados coletados. No entanto, a aplicação de técnicas robustas como criptografia e auditoria de modelos ainda é realizada de forma desigual, sugerindo uma necessidade de padronização dos processos de segurança (Kaspersky, 2025).

A experiência prática com o protótipo de detecção de anomalias demonstrou a viabilidade de utilizar algoritmos de aprendizado de máquina para fortalecer a ciberdefesa. O modelo Isolation Forest foi capaz de identificar com precisão eventos de login em horários incomuns e picos de tráfego que simulavam a exfiltração de dados. Cada evento analisado recebeu uma pontuação de anomalia, permitindo que os analistas priorizassem a investigação de registros com scores mais baixos, que indicam maior probabilidade de comportamento suspeito. Essa abordagem automatizada reduz significativamente o tempo de resposta a incidentes, permitindo que a equipe de segurança foque em ameaças reais em vez de processar manualmente milhares de logs irrelevantes. A integração de tais modelos em sistemas de monitoramento contínuo é uma recomendação central para organizações que buscam elevar seu nível de maturidade digital (Terra, 2024).

Com base nas evidências coletadas, o guia de boas práticas proposto estrutura-se em seis eixos fundamentais para a implementação segura da inteligência artificial. O primeiro eixo trata da governança e política de uso, estabelecendo papéis claros para a gestão, desenvolvedores e equipes de segurança. É essencial definir o escopo de aplicação da tecnologia e criar planos de resposta a incidentes específicos para falhas em modelos automatizados. O segundo eixo foca na proteção de dados e conformidade legal, exigindo a classificação rigorosa de informações e a aderência às normas da Lei Geral de Proteção de Dados. A segregação de ambientes de desenvolvimento, teste e produção é indispensável para evitar a exposição indevida de dados sensíveis durante o treinamento de algoritmos (CONAPE/IBM Consulting, 2025).

O terceiro eixo aborda a segurança de modelos e aplicações, recomendando a homologação de fontes confiáveis e a realização de testes adversariais periódicos para identificar vulnerabilidades como o envenenamento de dados. O quarto eixo estabelece diretrizes éticas e de uso responsável, visando a prevenção de vieses algorítmicos e a transparência nas decisões automatizadas. O quinto eixo enfatiza a importância da capacitação e do preparo individual, sugerindo a criação de planos de treinamento direcionados e a promoção de uma cultura de aprendizado contínuo sobre riscos emergentes. Por fim, o sexto eixo trata da avaliação e monitoramento pós-implantação, definindo métricas de desempenho e segurança que devem ser acompanhadas regularmente para garantir a integridade do sistema ao longo do tempo (F5, 2025a).

A aplicação prática dessas diretrizes pode ser observada em iniciativas inovadoras que utilizam a própria inteligência artificial para combater fraudes. Um exemplo é o desenvolvimento de sistemas que simulam comportamentos humanos para interagir com golpistas em chamadas telefônicas, fazendo-os perder tempo e reduzindo o número de vítimas reais. Tais soluções demonstram que a tecnologia, quando aplicada com criatividade e rigor técnico, pode inverter a lógica do ataque e proteger públicos vulneráveis (Veja, 2025a). Outro exemplo relevante é a adoção de plataformas de segurança que utilizam autoaprendizagem para monitorar o comportamento normal da rede e bloquear automaticamente e-mails maliciosos que escapam de filtros tradicionais. Essas ferramentas permitem que as empresas gerenciem um volume massivo de eventos com uma equipe reduzida, aumentando a eficiência operacional e a resiliência contra ameaças desconhecidas (Hackerone, 2025).

As limitações deste estudo residem na natureza dinâmica das tecnologias de inteligência artificial, cujas capacidades e vulnerabilidades evoluem em ciclos extremamente curtos. As análises qualitativas e os relatórios de mercado utilizados oferecem um retrato do cenário atual, mas podem exigir atualizações frequentes para contemplar novas táticas de ataque. Além disso, a efetividade das recomendações propostas depende da cultura organizacional e da disponibilidade de recursos para investimento em infraestrutura e treinamento. Pesquisas futuras devem explorar a aplicação do guia de boas práticas em ambientes reais de produção, realizando testes de usabilidade e medindo o impacto das diretrizes na redução de incidentes de segurança em diferentes setores da economia (PUC-Rio, 2025). A colaboração entre academia, indústria e órgãos reguladores é fundamental para o desenvolvimento de padrões globais que garantam o uso seguro e ético da automação inteligente (ScienceDirect, 2025).

Conclui-se que o objetivo foi atingido, uma vez que a pesquisa detalhou os impactos da inteligência artificial na segurança da informação e forneceu um guia estruturado para a mitigação de riscos em ambientes corporativos. A análise demonstrou que, embora a tecnologia amplifique a sofisticação dos ataques cibernéticos, ela também oferece ferramentas poderosas para a detecção precoce e a resposta automatizada a incidentes. A maturidade organizacional no Brasil ainda enfrenta desafios significativos, especialmente no que diz respeito à governança e à capacitação técnica, mas a adoção de diretrizes claras e o investimento em monitoramento contínuo podem transformar a inteligência artificial em uma aliada estratégica. A proteção de dados e a integridade dos sistemas dependem de um equilíbrio entre inovação tecnológica e rigor normativo, garantindo que os benefícios da automação sejam potencializados enquanto as vulnerabilidades são sistematicamente reduzidas.

Referências Bibliográficas:

CNN BRASIL. 2023. Brasil é vice-campeão em ataques cibernéticos, com 1.379 golpes por minuto, aponta estudo. Disponível em: https://www.cnnbrasil.com.br/economia/negocios/brasil-e-vice-campeao-em-ataques-ciberneticos-com-1-379-golpes-por-minuto-aponta-estudo/. Acesso em: 11 mai. 2025.

CONAPE/IBM CONSULTING. 2025. Quase 90% das empresas brasileiras não têm política de governança para inteligência artificial. Disponível em: https://www.conape.cnt.br/noticias/empresariais/2025/07/31/quase-90-das-empresas-brasileiras-nao-tem-politica-de-governanca-para-inteligencia-artificial.html?utm_source=chatgpt.com. Acesso em: 25 set. 2025.

CROWDSTRIKE. 2025. AI-powered cyberattacks. Disponível em: https://www.crowdstrike.com/en-us/cybersecurity-101/cyberattacks/ai-powered-cyberattacks/. Acesso em: 25 set. 2025.

F5. 2025a. Apenas 29% das empresas estão prontas para explorar a IA generativa, aponta estudo da F5. Disponível em: https://securityleaders.com.br/apenas-29-das-empresas-estao-prontas-para-explorar-a-ia-generativa-aponta-estudo-da-f5/?utm_source=chatgpt.com. Acesso em: 25 set. 2025.

FORBES BRASIL. 2024a. IA foi utilizada em mais de 50% dos ataques recentes contra empresas brasileiras. Disponível em: https://forbes.com.br/forbes-tech/2024/05/ia-foi-utilizada-em-mais-de-50-dos-ataques-recentes-contra-empresas-brasileiras/. Acesso em: 11 mai. 2025.

FORBES BRASIL. 2024b. Alerta deepfake: entenda como empresa de Hong Kong caiu em golpe milionário. Disponível em: https://forbes.com.br/forbes-tech/2024/02/alerta-deepfake-entenda-como-empresa-de-hong-kong-caiu-em-golpe-milionario/. Acesso em: 5 jun. 2025.

FORBES BRASIL. 2024c. Como proteger seus avós de golpes online. Disponível em: https://forbes.com.br/forbes-tech/2024/09/como-proteger-seus-avos-de-golpes-online/. Acesso em: 5 jun. 2025.

GEER, David. 2025. AI and Cybersecurity. Communications of the ACM, v. 68, n. 5, p. 12–14, abr. 2025. Disponível em: https://cacm.acm.org/news/ai-and-cybersecurity/?utm_source=chatgpt.com. Acesso em: 10 abr. 2025.

HACKERONE. 2025. AI SecOps: how AI impacting red and blue team operations. Disponível em: https://www.hackerone.com/blog/ai-secops-how-ai-impacting-red-and-blue-team-operations. Acesso em: 10 abr. 2025.

KASPERSKY. 2025. Ciberataques com IA já atingem 20% das empresas brasileiras. Disponível em: https://itsection.com.br/2025/04/24/ciberataques-com-ia-ja-atingem-20-das-empresas-brasileiras-revela-kaspersky/?utm_source=chatgpt.com. Acesso em: 25 set. 2025.

MICROSOFT. 2025. Como a IA está transformando a cibersegurança: abordando o aumento das ameaças cibernéticas. Disponível em: https://news.microsoft.com/source/latam/features/seguranca/como-a-ia-esta-transformando-a-ciberseguranca-abordando-o-aumento-das-ameacas-ciberneticas/?lang=pt-br. Acesso em: 16 jul. 2025.

NORTON. [2024?]. Cybersecurity statistics. Disponível em: https://us.norton.com/blog/emerging-threats/cybersecurity-statistics. Acesso em: 5 jun. 2025.

PUC-RIO. 2025. Como a inteligência artificial está transformando a cibersegurança. Disponível em: https://especializacao.ccec.puc-rio.br/blog/ia-ciberseguranca#como_a_ia_est%C3%A1_transformando-a-ciberseguran%C3%A7a%C2%A0. Acesso em: 16 jul. 2025.

SCIENCEDIRECT. 2025. Disponível em: https://www.sciencedirect.com/science/article/pii/S1566253523001136. Acesso em: 10 abr. 2025.

SECUREWORLD. [2024?]. Hong Kong deepfake cybercrime. Disponível em: https://www-secureworld-io.translate.goog/industry-news/hong-kong-deepfake-cybercrime?_x_tr_sl=en&_x_tr_tl=pt&_x_tr_hl=pt&_x_tr_pto=tc. Acesso em: 5 jun. 2025.

SECURITYLEADERS. 2025. Deepfakes: ataques envolvendo troca de rostos aumentam 704%. Disponível em: https://securityleaders.com.br/deepfakes-ataques-envolvendo-troca-de-rostos-aumentam-704/?utm_source=chatgpt.com. Acesso em: 10 abr. 2025.

TERRA. 2024. Cibersegurança cresce com avanço da inteligência artificial. Disponível em: https://www.terra.com.br/noticias/ciberseguranca-cresce-com-avanco-da-inteligencia-artificial,42f084659a53fa03dc5925e1539a7b87tms7e8bh.html#:~:text=Dados%20do%20%22Global%20%20Risks%20%20Report,globais%20para%20%20os%20%20pr%C3%B3ximos%20%20anos. Acesso em: 10 jun. 2025.

VEJA. 2025a. Crimes cibernéticos com o uso de inteligência artificial avançam em todo mundo. Disponível em: https://veja.abril.com.br/economia/crimes-ciberneticos-com-o-uso-de-inteligencia-artificial-avancam-em-todo-mundo. Acesso em: 10 abr. 2025.

Resumo executivo oriundo de Trabalho de Conclusão de Curso da Especialização em Engenharia de Software do MBA USP/Esalq

Para saber mais sobre o curso, clique aqui e acesse a plataforma MBX Academy

Quem editou este artigo

Mais recentes

Você também pode gostar

Quer ficar por dentro das nossas últimas publicações? Inscreva-se em nossa newsletter!

Receba conteúdos e fique sempre atualizado sobre as novidades em gestão, liderança e carreira com a Revista E&S.

Ao preencher o formulário você está ciente de que podemos enviar comunicações e conteúdos da Revista E&S. Confira nossa Política de Privacidade