Golpes com IA:
o perigo dos DeepFakes e da Engenharia Reversa
A tecnologia evolui rapidamente – e, infelizmente, os golpes também. Com o avanço da inteligência artificial, surgiram novas formas de fraudes que são mais difíceis de detectar. Um exemplo recente que chocou o mundo foi o de uma empresa que perdeu mais de 25 milhões de dólares em uma reunião falsa com executivos criados por IA.
Neste artigo, a Corebit te explica como golpes com deepfakes, engenharia reversa e outros truques digitais vêm sendo usados por criminosos para enganar empresas e pessoas. Mais importante: vamos mostrar como se proteger.
O que são DeepFakes?
DeepFake é uma técnica que usa inteligência artificial para criar vídeos e áudios falsos, mas extremamente realistas. Com essa tecnologia, é possível fazer com que alguém diga ou faça algo que nunca aconteceu. Isso já tem sido usado para criar vídeos de políticos, celebridades e, mais recentemente, executivos de empresas.
O problema é que os golpistas agora usam essas criações para simular reuniões, ligações e até mensagens com aparência totalmente autêntica. O funcionário vê o rosto do chefe, ouve a voz dele, recebe uma ordem — e acredita. Mas tudo é falso.

Engenharia Reversa: outro lado da moeda
Enquanto os deepfakes tentam imitar rostos e vozes, a engenharia reversa com IA foca em entender e copiar comportamentos, sistemas e até protocolos de segurança para explorar falhas. Com essa técnica, criminosos conseguem:
- Replicar páginas de login de forma quase idêntica
- Decifrar padrões de senhas com mais agilidade
- Simular interações humanas para ganhar a confiança da vítima
A IA aprende com dados reais, e quanto mais dados estão disponíveis (em redes sociais, sites corporativos, vídeos institucionais), mais convincente ela se torna.
O golpe que chocou o mundo
O caso mais emblemático até agora aconteceu em Hong Kong. Um funcionário do setor financeiro de uma multinacional recebeu um e-mail pedindo que participasse de uma reunião confidencial com o CFO da empresa. Durante a videoconferência, vários “colegas” estavam presentes, e o executivo pediu a ele que realizasse transferências urgentes.
O funcionário, vendo e ouvindo os rostos familiares, obedeceu. No total, foram enviados mais de 25 milhões de dólares. Só depois se descobriu: todos os participantes da reunião, menos ele, eram falsos — criados por IA com base em vídeos e áudios públicos dos executivos reais.
Por que esses golpes funcionam tão bem?
A resposta é simples: confiança visual e emocional. Quando vemos alguém que conhecemos, ouvimos uma voz familiar ou uma instrução aparentemente legítima, nosso cérebro baixa a guarda. E os golpistas sabem disso.
Além disso, a IA consegue criar simulações em tempo real, ajustando expressões faciais, entonações de voz e até o ambiente ao fundo, para parecer ainda mais realista.
E se fosse na sua empresa?
Imagine que você está em uma reunião por vídeo com um diretor da sua empresa. Ele compartilha a tela, mostra documentos, pede uma ação urgente. Como saber que tudo aquilo é real? E se for um deepfake?
É por isso que a Corebit alerta: não basta mais treinar os colaboradores contra phishing e links maliciosos. É preciso mudar a cultura de segurança digital. Os golpes a cada dia que se passa se torna mais elaborado e sofisticados.
Como sua empresa irá se comportar em uma tentativa de golpe elaborado? Estejam preparados para não serem alvos fáceis.

Como se proteger?
A boa notícia é que existem formas de reduzir o risco, evitando passar por esses golpes elaborados. Aqui vão algumas dicas práticas:
1. Crie protocolos de verificação
Não confie apenas em videoconferências ou e-mails para aprovar ações financeiras. Sempre exija uma segunda confirmação por outro canal, como ligação ou aplicativo interno.
2. Limite informações públicas
Quanto menos dados sobre executivos e processos internos estiverem disponíveis na internet, menor a chance da IA ser usada para criar cópias falsas. Reduza a exposição online de vídeos, falas e até fotos em redes sociais corporativas.
3. Use autenticação multifatorial
Essa é uma das defesas mais simples e eficazes. Com autenticação em dois ou mais fatores, mesmo que um golpista engane um colaborador, ele terá dificuldade para completar o golpe.
4. Treine sua equipe
Faça simulações e treinamentos regulares sobre golpes com IA. Mostre exemplos reais, atualize os procedimentos e envolva todos — do estagiário ao diretor.
5. Implemente soluções de segurança com IA
A mesma inteligência artificial que pode ser usada para golpes também pode proteger. Plataformas modernas de segurança usam IA para detectar comportamentos suspeitos, padrões de acesso incomuns e tentativas de fraude.
Nos siga em nosso instagram.
