Amerikaanse overheid gaat AI-modellen van Google, Microsoft en xAI testen
In dit artikel:
Google, Microsoft en Elon Musks xAI geven de Amerikaanse overheid voortaan vroegtijdige, diepe toegang tot hun meest geavanceerde, nog niet vrijgegeven AI-modellen. Het Center for AI Standards and Innovation (CAISI) van het ministerie van Handel maakte die afspraak gisteren bekend: bedrijven leveren zogenaamde frontier‑modellen aan zodat overheidswetenschappers ze vóór publieke uitrol kunnen doorlichten op veiligheidsrisico’s.
De maatregel volgt op zorgen rond Anthropic’s recente Claude Mythos-model, dat sterk bleek in het opsporen van kwetsbaarheden — Mozilla ontdekte ermee 271 veiligheidsproblemen in Firefox — waarna Anthropic de brede uitrol beperkte en selectief partners toegang gaf. OpenAI en Anthropic werkten al samen met CAISI; met Google, Microsoft en xAI groeit die samenwerking aanzienlijk.
CAISI voert evaluaties uit waarbij ontwikkelaars ongeremde versies van modellen aanleveren, zodat onderzoekers écht "onder de motorkap" kunnen kijken. De focus ligt op concrete dreigingen: het voorkomen dat AI wordt gebruikt voor grootschalige cyberaanvallen op infrastructuur, de ontwikkeling van chemische of biologische wapens, of manipulatie van trainingsdata. Het centrum heeft inmiddels meer dan veertig evaluaties afgerond.
Politiek gezien is dit ook opvallend: president Trump, die eerder regels versoepelde en een Biden‑decreet terugdraaide dat veiligheidscontroles verplicht stelde, overweegt nu volgens The New York Times toch nieuwe stappen om geavanceerde modellen vooraf te laten toetsen. De inzet illustreert een groeiende balanszoektocht tussen snelle AI‑innovatie en nationale‑veiligheidscontrole, met mogelijke gevolgen voor hoe en wanneer krachtige AI‑systemen op de markt komen.