Selecione seu Idioma

A IA generativa abre mais ameaças à segurança cibernética.
A IA generativa abre mais ameaças à segurança cibernética.

A IA generativa é uma tecnologia poderosa que traz riscos que precisam ser abordados, principalmente no campo da segurança cibernética
Técnicas avançadas de malware e evasão, phishing, engenharia social e representação, engenharia reversa e contornar ferramentas CAPTCHA são algumas das ameaças criadas pela IA generativa.
Para enfrentar as crescentes ameaças de métodos generativos orientados por IA, o setor de segurança cibernética deve evoluir e adaptar suas estratégias.

A inteligência artificial (IA) generativa está mudando o mundo, oferecendo inúmeras possibilidades em vários setores. Esse tipo de IA pode produzir novos conteúdos, como textos, imagens, músicas, sons e vídeos. Os modelos de aprendizado de máquina são treinados em conjuntos de dados massivos para aprender padrões, estruturas e relacionamentos, gerando saídas que se assemelham ao conteúdo original e além.

A série GPT da OpenAI é um exemplo bem conhecido de IA generativa, demonstrando capacidades impressionantes na produção de textos e interações semelhantes aos humanos. Essa poderosa tecnologia, no entanto, também traz riscos que precisam ser abordados, principalmente no campo da segurança cibernética. Aqui, exploro alguns cenários de ameaças potenciais que a IA e a IA generativa podem apresentar à segurança cibernética.

Técnicas avançadas de malware e evasão

Sistemas generativos de IA, como o GPT-4, podem criar texto e código realistas e coerentes. Esse recurso, embora tenha muitos aplicativos positivos, também pode ser usado de forma maliciosa para desenvolver malware avançado que é difícil de detectar usando medidas de segurança tradicionais. O malware gerado por IA pode ser mais sofisticado do que o malware gerado por humanos, pois pode se adaptar rapidamente a diferentes alvos e ambientes. Essa adaptabilidade dificulta a detecção e neutralização de malwares orientados por IA em tempo real.

Técnicas avançadas de evasão usando aprendizado de máquina para reconhecer e ignorar sistemas de segurança representam outra ameaça significativa. Essas técnicas incluem malware polimórfico, que muda constantemente seu código para evitar detecção baseada em assinatura, e malware metamórfico, que altera sua estrutura sem afetar sua funcionalidade. Esforços devem ser feitos para garantir o uso responsável da IA e proteger contra aplicativos maliciosos.

Phishing, engenharia social e falsificação de identidade

Os ataques de phishing, que enganam os usuários para que cliquem em links maliciosos ou forneçam informações confidenciais, também podem se beneficiar da IA generativa. Ao gerar e-mails ou mensagens convincentes que imitam comunicações legítimas, os invasores podem aumentar suas chances de sucesso.

Ataques de engenharia social, que dependem de interações humanas e manipulação para obter acesso não autorizado a informações ou sistemas, também podem se tornar mais eficazes usando IA generativa. Os invasores podem criar mensagens altamente convincentes e personalizadas que podem contornar os filtros de segurança e enganar até mesmo usuários vigilantes.

A tecnologia Deepfake, por exemplo, pode ser usada para gerar conteúdo realista de vídeo ou áudio que se faz passar por indivíduos confiáveis, o que pode ser particularmente eficaz em ataques de spear phishing.

A IA generativa também pode facilitar a criação de perfis falsos nas mídias sociais, tornando mais fácil para os invasores se passarem por usuários legítimos e ganharem confiança. Esses perfis falsos podem ser usados para coletar informações, espalhar desinformação ou lançar ataques direcionados, representando uma ameaça para indivíduos e organizações.

Engenharia reversa

A engenharia reversa envolve desmontar e analisar software ou hardware para entender sua funcionalidade, design e implementação. Esse conhecimento pode ser utilizado para diversas finalidades, incluindo melhoria de sistemas existentes, identificação de vulnerabilidades e desenvolvimento de novas tecnologias.

A IA generativa pode impactar a engenharia reversa automatizando o processo e produzindo resultados de alta qualidade rapidamente. Isso pode ser benéfico e prejudicial. Ele pode ajudar os pesquisadores de segurança a identificar e mitigar vulnerabilidades, mas também ajudar agentes mal-intencionados a descobrir e explorar pontos fracos em sistemas de software e hardware. Ao aproveitar a IA generativa, os invasores podem analisar e modificar o malware existente para criar variantes novas e mais potentes que podem evitar estratégias de detecção e mitigação.

Além disso, a IA generativa pode ser usada para criar explorações personalizadas adaptadas a vulnerabilidades e alvos específicos, tornando-os mais eficazes e difíceis de se defender.

Ignorando as ferramentas CAPTCHA

As ferramentas CAPTCHA são usadas online para diferenciar entre usuários humanos e bots. Essas ferramentas exigem que os usuários concluam tarefas relativamente fáceis para humanos, mas difíceis para sistemas automatizados, como identificar objetos em imagens ou resolver quebra-cabeças simples. Avanços recentes em IA e aprendizado de máquina, incluindo IA generativa, permitiram o desenvolvimento de modelos de aprendizado de máquina que podem ignorar efetivamente as ferramentas CAPTCHA.

Esse avanço prejudica a eficácia das ferramentas CAPTCHA, essenciais para proteger os serviços online contra ataques automatizados, como spam, ataques de força bruta e raspagem. Portanto, expõe os serviços online a uma gama cada vez maior de ameaças cibernéticas.

A IA generativa oferece muitos benefícios, mas também apresenta ameaças potenciais à segurança cibernética. À medida que exploramos o potencial dessa tecnologia, é vital priorizar considerações éticas e proteger nosso ecossistema digital.

Para lidar com as crescentes ameaças dos métodos baseados em IA, o setor de segurança cibernética deve evoluir e adaptar suas estratégias. Isso inclui investir em pesquisa e desenvolvimento e implementar soluções de segurança de ponta que podem neutralizar usos maliciosos de IA e proteger nosso cenário digital. O desenvolvimento de algoritmos avançados de aprendizado de máquina para identificar e responder a ameaças geradas por IA é crucial.

A colaboração constante entre pesquisadores, especialistas em segurança cibernética, formuladores de políticas, aplicação da lei e setores público e privado pode ajudar a garantir o uso responsável da IA e construir defesas robustas contra ameaças cibernéticas em evolução.

Fonte:

Traduzido para o Português pela Redação Sustentabilidades

Tarek Abudawood
WEF

 

Copyright © 2009 - 2024 Sustentabilidades - Todos os direitos reservados - All rights reserved.