Pentagon zet Anthropic onder druk: ultimatum over militaire AI
In dit artikel:
Het Amerikaanse ministerie van Defensie heeft AI-bedrijf Anthropic (maker van chatbot Claude) een ultimatum gegeven: het moet voor vrijdag instemmen met ruimere militaire inzet van zijn modellen, anders overweegt het Pentagon ingrijpen via de Defense Production Act uit 1950. Anthropic heeft iets meer dan 24 uur om te reageren op een “definitief voorstel” van het ministerie.
De Defense Production Act geeft de president verregaande bevoegdheden om bedrijven te dwingen technologie beschikbaar te stellen voor de nationale veiligheid; de wet werd eerder ingezet tijdens de Koude Oorlog en recentelijk tijdens de coronapandemie. Als aanvullende druk kan het Pentagon Anthropic bestempelen als “supply chain risk”, een label dat samenwerking met defensie en grote contractpartners abrupt kan stilleggen.
De ruzie concentreert zich rond een contract van 200 miljoen dollar binnen een Pentagon-AI-pilotprogramma waaraan ook OpenAI, Google en xAI meedoen. Volgens Amerikaanse media verzet Anthropic zich tegen expliciet gebruik van zijn systemen voor massale binnenlandse surveillance en voor autonome wapensystemen die zelfstandig doelen selecteren; het Pentagon zegt dat dat niet het doel is en wijst op wettelijke kaders. “De naleving van de wet is de verantwoordelijkheid van het Pentagon als eindgebruiker,” zei een defensiefunctionaris.
Waar andere technologiebedrijven zich schijnbaar bereid tonen hun modellen beschikbaar te stellen onder het principe van ‘voor alle wettige doeleinden’, handhaaft Anthropic eigen gebruiksregels en wil het uitgesloten blijven van toepassingen die het bedrijf onethisch of gevaarlijk acht. Anthropic, opgericht in 2021 door oud-medewerkers van OpenAI, profileert zich als veiligheid-gedreven; medeoprichter Dario Amodei heeft eerder gewaarschuwd voor risico’s van krachtige AI zonder stevige waarborgen.
Voor het Pentagon is er veel te winnen: AI vergroot mogelijkheden in militaire analyse, logistiek en besluitvorming, en wie de technologie controleert kan strategische voordelen behalen. De escalatie laat zien dat er een fundamentele strijd gaande is over wie de grenzen van militaire inzet van AI bepaalt — de techbouwers of de krijgsmacht — en welke juridische en ethische criteria daarbij gelden.