A IA generativa é uma tecnologia poderosa que traz riscos que precisam ser abordados, principalmente no campo da segurança cibernética
Técnicas avançadas de malware e evasão, phishing, engenharia social e representação, engenharia reversa e contornar ferramentas CAPTCHA são algumas das ameaças criadas pela IA generativa.
Para enfrentar as crescentes ameaças de métodos generativos orientados por IA, o setor de segurança cibernética deve evoluir e adaptar suas estratégias.
A inteligência artificial (IA) generativa está mudando o mundo, oferecendo inúmeras possibilidades em vários setores. Esse tipo de IA pode produzir novos conteúdos, como textos, imagens, músicas, sons e vídeos. Os modelos de aprendizado de máquina são treinados em conjuntos de dados massivos para aprender padrões, estruturas e relacionamentos, gerando saídas que se assemelham ao conteúdo original e além.
A série GPT da OpenAI é um exemplo bem conhecido de IA generativa, demonstrando capacidades impressionantes na produção de textos e interações semelhantes aos humanos. Essa poderosa tecnologia, no entanto, também traz riscos que precisam ser abordados, principalmente no campo da segurança cibernética. Aqui, exploro alguns cenários de ameaças potenciais que a IA e a IA generativa podem apresentar à segurança cibernética.
Técnicas avançadas de malware e evasão
Sistemas generativos de IA, como o GPT-4, podem criar texto e código realistas e coerentes. Esse recurso, embora tenha muitos aplicativos positivos, também pode ser usado de forma maliciosa para desenvolver malware avançado que é difícil de detectar usando medidas de segurança tradicionais. O malware gerado por IA pode ser mais sofisticado do que o malware gerado por humanos, pois pode se adaptar rapidamente a diferentes alvos e ambientes. Essa adaptabilidade dificulta a detecção e neutralização de malwares orientados por IA em tempo real.
Técnicas avançadas de evasão usando aprendizado de máquina para reconhecer e ignorar sistemas de segurança representam outra ameaça significativa. Essas técnicas incluem malware polimórfico, que muda constantemente seu código para evitar detecção baseada em assinatura, e malware metamórfico, que altera sua estrutura sem afetar sua funcionalidade. Esforços devem ser feitos para garantir o uso responsável da IA e proteger contra aplicativos maliciosos.
Phishing, engenharia social e falsificação de identidade
Os ataques de phishing, que enganam os usuários para que cliquem em links maliciosos ou forneçam informações confidenciais, também podem se beneficiar da IA generativa. Ao gerar e-mails ou mensagens convincentes que imitam comunicações legítimas, os invasores podem aumentar suas chances de sucesso.
Ataques de engenharia social, que dependem de interações humanas e manipulação para obter acesso não autorizado a informações ou sistemas, também podem se tornar mais eficazes usando IA generativa. Os invasores podem criar mensagens altamente convincentes e personalizadas que podem contornar os filtros de segurança e enganar até mesmo usuários vigilantes.
A tecnologia Deepfake, por exemplo, pode ser usada para gerar conteúdo realista de vídeo ou áudio que se faz passar por indivíduos confiáveis, o que pode ser particularmente eficaz em ataques de spear phishing.
A IA generativa também pode facilitar a criação de perfis falsos nas mídias sociais, tornando mais fácil para os invasores se passarem por usuários legítimos e ganharem confiança. Esses perfis falsos podem ser usados para coletar informações, espalhar desinformação ou lançar ataques direcionados, representando uma ameaça para indivíduos e organizações.
Engenharia reversa
A engenharia reversa envolve desmontar e analisar software ou hardware para entender sua funcionalidade, design e implementação. Esse conhecimento pode ser utilizado para diversas finalidades, incluindo melhoria de sistemas existentes, identificação de vulnerabilidades e desenvolvimento de novas tecnologias.
A IA generativa pode impactar a engenharia reversa automatizando o processo e produzindo resultados de alta qualidade rapidamente. Isso pode ser benéfico e prejudicial. Ele pode ajudar os pesquisadores de segurança a identificar e mitigar vulnerabilidades, mas também ajudar agentes mal-intencionados a descobrir e explorar pontos fracos em sistemas de software e hardware. Ao aproveitar a IA generativa, os invasores podem analisar e modificar o malware existente para criar variantes novas e mais potentes que podem evitar estratégias de detecção e mitigação.
Além disso, a IA generativa pode ser usada para criar explorações personalizadas adaptadas a vulnerabilidades e alvos específicos, tornando-os mais eficazes e difíceis de se defender.
Ignorando as ferramentas CAPTCHA
As ferramentas CAPTCHA são usadas online para diferenciar entre usuários humanos e bots. Essas ferramentas exigem que os usuários concluam tarefas relativamente fáceis para humanos, mas difíceis para sistemas automatizados, como identificar objetos em imagens ou resolver quebra-cabeças simples. Avanços recentes em IA e aprendizado de máquina, incluindo IA generativa, permitiram o desenvolvimento de modelos de aprendizado de máquina que podem ignorar efetivamente as ferramentas CAPTCHA.
Esse avanço prejudica a eficácia das ferramentas CAPTCHA, essenciais para proteger os serviços online contra ataques automatizados, como spam, ataques de força bruta e raspagem. Portanto, expõe os serviços online a uma gama cada vez maior de ameaças cibernéticas.
A IA generativa oferece muitos benefícios, mas também apresenta ameaças potenciais à segurança cibernética. À medida que exploramos o potencial dessa tecnologia, é vital priorizar considerações éticas e proteger nosso ecossistema digital.
Para lidar com as crescentes ameaças dos métodos baseados em IA, o setor de segurança cibernética deve evoluir e adaptar suas estratégias. Isso inclui investir em pesquisa e desenvolvimento e implementar soluções de segurança de ponta que podem neutralizar usos maliciosos de IA e proteger nosso cenário digital. O desenvolvimento de algoritmos avançados de aprendizado de máquina para identificar e responder a ameaças geradas por IA é crucial.
A colaboração constante entre pesquisadores, especialistas em segurança cibernética, formuladores de políticas, aplicação da lei e setores público e privado pode ajudar a garantir o uso responsável da IA e construir defesas robustas contra ameaças cibernéticas em evolução.
Fonte:
Traduzido para o Português pela Redação Sustentabilidades
Tarek Abudawood
WEF