Anthropic vindt duizenden kwetsbaarheden met AI en deelt ze niet: te gevaarlijk

woensdag, 8 april 2026 (14:54) - Newsbit.nl

In dit artikel:

Anthropic heeft de toegang tot een nieuw algemeen AI-model beperkt nadat het systeem duizenden kwetsbaarheden in veelgebruikte software ontdekte — 99% daarvan is nog niet gepatcht. Het model vond al bestaande, soms decennialange bugs in grote besturingssystemen en libraries, waaronder een 27 jaar oud lek in OpenBSD, en fouten in FFmpeg, FreeBSD en de Linux-kernel. Ook kernbeveiligingstechnieken zoals TLS, AES-GCM en SSH bleken kwetsbaar, terwijl webapplicaties gevoelig waren voor bekende aanvallen als phishing, cross-site scripting en SQL‑injectie.

Uit voorzorg publiceert Anthropic geen technische details om misbruik te voorkomen. Het bedrijf ziet de uitkomst als een teken van de snelle vooruitgang van AI en waarschuwt dat dergelijke capaciteiten binnenkort breder beschikbaar kunnen zijn — een ontwikkeling die cybercriminelen al benutten. Onderzoeksplatform AllAboutAI rapporteert een toename van 72% in AI-ondersteunde cyberaanvallen; in 2025 werd 87% van de organisaties wereldwijd met zulke aanvallen geconfronteerd.

Om risico’s te beheersen startte Anthropic Project Glasswing, een samenwerking met meer dan veertig grote bedrijven (onder anderen Amazon Web Services, Apple, Cisco, Google, JPMorgan, Microsoft, Nvidia en de Linux Foundation). Binnen dit samenwerkingsverband wordt het Claude Mythos Preview-model gebruikt om kwetsbaarheden proactief te vinden en bevindingen met partners te delen zodat lekken sneller gedicht worden.

Anthropic verwacht dat AI aanvankelijk de dreiging vergroot, maar op termijn de verdedigers kan helpen een voorsprong te nemen door sneller kwetsbaarheden op te sporen en te verhelpen. De overgangsperiode blijft echter riskant zolang het merendeel van de ontdekte lekken onopgelost is en dezelfde technieken door kwaadwillenden kunnen worden ingezet. Voor organisaties impliceert dit een dringende behoefte aan snellere patchprocessen, betere coördinatie voor responsible disclosure en investeringen in AI-gestuurde verdedigingstools.