Compania Anthropic, dezvoltatorul chatbot-ului AI Claude, susține că a descoperit grupuri de hackeri sponsorizate de guvernul chinez folosind tehnologia sa pentru a desfășura atacuri cibernetice automate împotriva a aproximativ 30 de organizații la nivel global.
Potrivit unui blog publicat de companie, atacatorii s-au prezentat drept cercetători în securitate cibernetică și au convins Claude să efectueze sarcini automate, care combinate au format ceea ce Anthropic numește „prima campanie raportată de spionaj cibernetic orchestrat de AI”.
Cum ar fi funcționat atacul
Cercetătorii Anthropic afirmă că hackerii au folosit Claude pentru a construi un program capabil să compromită ținte cu intervenție umană minimă. Printre țintele vizate s-ar fi aflat companii mari din sectorul tehnologic, instituții financiare, firme de chimie și agenții guvernamentale, deși detaliile exacte nu au fost dezvăluite.
Chatbot-ul ar fi reușit să extragă date sensibile și să le organizeze pentru a identifica informații de valoare. Compania susține că, după descoperirea incidentului în septembrie, hackerii au fost blocați și companiile afectate și autoritățile au fost notificate.
CITEȘTE ȘI – Microsoft lansează un update pentru a repara actualizările Windows 10 – sistemul de operare refuză să „moară”
Reacții mixte din lumea securității cibernetice
Cu toate acestea, experții rămân sceptici. Martin Zugec, de la firma de securitate cibernetică Bitdefender, a declarat:
Raportul Anthropic face afirmații îndrăznețe și speculative, dar nu oferă dovezi verificabile. Este important să avem cât mai multe informații despre modul în care au avut loc atacurile pentru a putea evalua adevărata amenințare a atacurilor automate prin AI.
Alți analiști avertizează că tehnologia AI este încă prea greoaie pentru a fi folosită eficient în atacuri cibernetice complet autonome, iar unele companii din domeniu au fost criticate pentru exagerarea riscurilor pentru a-și promova propriile soluții de securitate.
Context mai larg: AI și securitatea cibernetică
Acesta nu este primul caz în care AI este implicat în activități cibernetice. În februarie 2024, OpenAI a anunțat că a blocat acțiuni similare ale unor actori statali, inclusiv din China, care foloseau serviciile OpenAI pentru traduceri, interogarea informațiilor open-source și sarcini de codare de bază.
Anthropic susține că propria tehnologie AI poate fi folosită și pentru apărare cibernetică, subliniind că abilitățile care permit Claude să fie exploatat în atacuri îl fac și util pentru protecția sistemelor informatice.
Urmărește România Liberă pe Google News, Linkedin, Twitter, Facebook și Youtube.
