Ferramentas de Inteligência Artificial (IA), como o ChatGPT, têm potencial para serem armas e também escudos quando o assunto é cibersegurança

ChatGPT: OpenAI e Microsoft falam sobre uso de IA em ataques hackers

Nos últimos anos, temos testemunhado um aumento exponencial na sofisticação dos ciberataques, em paralelo com o rápido desenvolvimento e adoção da Inteligência Artificial (IA), graças principalmente à popularização do ChatGPT. 

Esse fenômeno é alimentado pela convergência de dois fatores principais: o crescente acesso à tecnologia avançada e a habilidade dos hackers em explorar essas ferramentas de maneira cada vez mais efetiva.

Pouco a pouco as empresas estão percebendo a importância de se manterem à frente dos adversários, e a IA pode ser também uma ajuda crucial nessa batalha pela segurança cibernética.

Recentemente a Microsoft e a OpenAI comentaram em uma matéria de seu blog sobre as ameaças e potenciais da IA nesse novo cenário que se desenha. Dentre muitos pontos interessantes, a empresa reafirma a necessidade das organizações de segurança cibernética em começarem a utilizar a IA como uma forma de proteção contra os hackers.

Inteligência Artificial e os ataques hackers

Os hackers aproveitam as capacidades da IA para aprimorar seus ataques de diversas maneiras. Por exemplo: eles utilizam modelos de linguagem generativa para criar páginas de phishing e campanhas de engenharia social mais convincentes, capazes de enganar até mesmo os usuários mais vigilantes. 

Além disso, esses grupos estão explorando a capacidade da IA de automatizar processos e acelerar o desenvolvimento de malware.

De acordo com a nota, as IAs têm sido vistas tanto como uma arma, quanto como um escudo na área dos ciberataques. Os sistemas de proteção estão começando a aproveitar o poder da IA generativa para equilibrar a cibersegurança a seu favor. 

A capacidade de prever e responder a ameaças de forma autônoma e em tempo real oferece uma vantagem significativa na detecção e mitigação de ataques cibernéticos, e à medida que os sistemas de defesa aprendem com cada interação, eles se tornam mais inteligentes e eficazes na identificação de padrões suspeitos.

Diante dessas ameaças crescentes, a nota das duas empresas afirma que elas estão intensificando seus esforços para proteger os usuários de possíveis ameaças de IA. 

Em uma iniciativa conjunta, as organizações desenvolveram pesquisas sobre ameaças emergentes na era da IA, identificando atividades associadas a hackers conhecidos e técnicas avançadas de ataques, como injeções de comandos, uso indevido de modelos de linguagem e fraudes.

De acordo com a OpenAI, embora as capacidades do ChatGPT para tarefas maliciosas de segurança cibernética sejam limitadas, a empresa acredita ser importante permanecer à frente de ameaças significativas e em evolução. 

Desta forma, algumas ações foram tomadas contra agentes mal-intencionados que estavam abusando da ferramenta:

“Com base na colaboração e no compartilhamento de informações com a Microsoft, interrompemos cinco agentes mal-intencionados afiliados ao Estado: dois afiliados à China, conhecidos como Charcoal Typhoon e Salmon Typhoon; o hacker afiliado ao Irã conhecido como Crimson Sandstorm; o hacker afiliado à Coreia do Norte conhecido como Emerald Sleet; e o hacker afiliado à Rússia conhecido como Forest Blizzard. As contas OpenAI identificadas associadas a esses agentes foram encerradas”, diz o comunicado da OpenAI.

Os hackers geralmente procuravam usar os serviços OpenAI para consultar informações de código aberto, traduzir, encontrar erros de codificação e executar tarefas básicas de codificação. 

“Embora trabalhemos para minimizar o potencial uso indevido, não seremos capazes de impedir todas as instâncias. Mas, ao continuarmos a inovar, investigar, colaborar e partilhar, tornamos mais difícil para os agentes maliciosos permanecerem despercebidos em todo o ecossistema digital, resultando em uma melhora na experiência para todos os outros”, explicou a empresa criadora do ChatGPT.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *