Google slaat alarm: hackers gebruiken AI om beveiliging te kraken
In dit artikel:
Google’s Threat Intelligence Group meldt voor het eerst bewijs dat cybercriminelen een groot taalmodel (LLM) hebben ingezet om zelfstandig een onbekende softwarezwakte te vinden en actief te misbruiken. Onderzoekers troffen een omvangrijke campagne aan waarbij een zero-day in veelgebruikte open‑source systeembeheer-software werd uitgebuit. Die kwetsbaarheid stelde aanvallers in staat om tweefactorauthenticatie (2FA) te omzeilen, nadat zij in het bezit waren gekomen van geldige inloggegevens.
Aan de hand van de exploitcode trof Google meerdere sporen aan die wijzen op AI‑gegenereerde output: karakteristieke formattering van LLM’s en zelfs een typische “hallucinatie” in de code. Volgens het bedrijf ging het niet om een eenvoudige programmeerfout, maar om een complexe semantische logische fout — precies het soort probleem waarin moderne AI-systemen steeds beter kunnen assisteren (of in dit geval misbruik van kunnen maken).
Google meldt dat de aanval georganiseerd was en meerdere handelende partijen omvatte. De impact reikt verder dan algemene webdiensten: 2FA speelt een cruciale rol bij het beveiligen van accounts in onder meer de cryptomarkt, waardoor dergelijke omzeilingen aanzienlijke risico’s voor exchanges en wallet‑providers met zich meebrengen.
Daarnaast waarschuwt het rapport dat staten zoals China en Noord‑Korea aanzienlijke interesse tonen in AI‑ondersteunde cyberoperaties. Diverse malwarefamilies — waaronder PROMPTFLUX, HONESTCUE en CANFAIL — gebruiken AI om automatisch extra code te genereren en zo detectie door beveiligingssoftware te bemoeilijken. Ook neemt het misbruik van commerciële AI‑diensten toe: gedeelde accounts, gestolen API‑sleutels en omzeilde beschermlagen geven criminelen langdurige toegang tot krachtige modellen.
Google concludeert dat het hele AI‑ecosysteem een aantrekkelijk doelwit is geworden, vooral systemen met koppelingen naar externe data of autonome functies. Tegelijk benadrukt het bedrijf dat aanvallers nog niet succesvol de kernbeveiliging van geavanceerde AI‑modellen volledig hebben doorbroken.
Kort advies voor organisaties en gebruikers: houd software up‑to‑date, beperk en rooteer geheimen en API‑sleutels, zet waar mogelijk phishing‑resistente authenticatiemiddelen (zoals hardware‑tokkens) in en monitor accounts op verdachte toegangspatronen.