Russos, Norte-Coreanos, Iranianos e Chineses foram detectados adicionando modelos de linguagem grande, como o ChatGPT da OpenAI , ao seu kit de ferramentas, muitas vezes nos estágios preliminares de suas operações de hacking, descobriram os pesquisadores. Alguns grupos estavam a utilizar a tecnologia para melhorar os seus e-mails de phishing, recolher informações sobre vulnerabilidades e resolver os seus próprios problemas técnicos, de acordo com as conclusões.
É a maior indicação até agora de que grupos de ciberespionagem patrocinados pelo Estado, que têm assombrado empresas e governos durante anos, estão a melhorar as suas tácticas com base em tecnologias disponíveis publicamente, como grandes modelos de linguagem. Especialistas em segurança alertaram que tal evolução ajudaria os hackers a reunir mais informações, aumentar a sua credibilidade ao tentar enganar os alvos e violar mais rapidamente as redes das vítimas. A OpenAI disse na quarta-feira que encerrou contas associadas a hackers patrocinados pelo Estado.
“Os atores de ameaças, assim como os defensores, estão olhando para a IA, incluindo LLMs, para aumentar sua produtividade e aproveitar plataformas acessíveis que poderiam avançar seus objetivos e técnicas de ataque”, disse a Microsoft no relatório.
Nenhum ataque significativo incluiu o uso da tecnologia LLM, segundo a empresa. Pesquisadores de políticas alertaram em janeiro de 2023 que hackers e outros malfeitores online encontrariam maneiras de usar indevidamente a tecnologia emergente de IA, inclusive para ajudar a escrever códigos maliciosos ou espalhar operações de influência.
A Microsoft investiu US$ 13 bilhões na OpenAI, a movimentada startup por trás do ChatGPT.
Os grupos de hackers que usaram IA em suas operações cibernéticas incluíram a Forest Blizzard, que a Microsoft afirma estar ligada ao governo russo. O grupo Velvet Chollima da Coreia do Norte, que se fez passar por organizações não governamentais para espionar as vítimas, e os hackers Charcoal Typhoon da China, que se concentram principalmente em Taiwan e na Tailândia, também utilizaram essa tecnologia, disse a Microsoft. Um grupo iraniano ligado à Guarda Revolucionária Islâmica do país alavancou LLMs criando e-mails enganosos, um que foi usado para atrair feministas famosas e outro que se disfarçou como uma agência de desenvolvimento internacional.
As descobertas da Microsoft surgem em meio a preocupações crescentes de especialistas e do público sobre os graves riscos que a IA pode representar para o mundo, incluindo desinformação e perda de empregos. Em Março de 2023, mais de mil pessoas, incluindo líderes proeminentes de grandes empresas tecnológicas, assinaram uma carta aberta alertando sobre os riscos que a IA poderia representar para a sociedade. Mais de 33 mil pessoas assinaram a carta .
Outro grupo suspeito de hackers russos, conhecido como Midnight Blizzard, já havia comprometido e-mails de executivos da Microsoft e membros da equipe de segurança cibernética, disse a empresa em janeiro.
Um Comentário