Sam Altman wil AI-deal met Pentagon maar trekt grens: "Geen autonome wapens"
In dit artikel:
Sam Altman van OpenAI probeert een hoogoplopend geschil tussen AI-bedrijf Anthropic en het Amerikaanse Pentagon te kalmeren door te werken aan een mogelijke overeenkomst waarmee OpenAI-modellen ook in geclassificeerde militaire omgevingen mogen draaien. In een interne mededeling stelt hij duidelijke grenzen: geen massale binnenlandse surveillance en geen autonome dodelijke wapens; mensen moeten betrokken blijven bij cruciale beslissingen.
Het conflict ontstond toen Anthropic-oprichter Dario Amodei weigerde zijn model Claude onder de brede Pentagon-voorwaarde beschikbaar te stellen dat AI voor “alle wettige doeleinden” mag worden gebruikt. Het Pentagon verzet zich tegen private bedrijven die bepalen hoe technologie voor nationale veiligheid ingezet wordt, mede vanwege de strategische concurrentie met China. Sommige medewerkers bij OpenAI en Google hebben zich tegen te ruime militaire toepassingen gekeerd en een open brief getekend. xAI van Elon Musk accepteerde wél de brede voorwaarde, maar wordt niet als volwaardig alternatief gezien.
OpenAI onderzoekt combinaties van contractuele afspraken en technische waarborgen om gebruik in geheime omgevingen mogelijk te maken zonder zijn veiligheidsprincipes prijs te geven: modellen beperken tot gecontroleerde cloudomgevingen, inzet van personeel met veiligheidsmachtiging en ontwerpbeperkingen die directe integratie in wapensystemen moeilijk maken. Er is nog geen akkoord en de onderhandelingen kunnen mislukken. De uitkomst heeft verstrekkende gevolgen voor de hele AI-sector: het bepaalt in hoeverre bedrijven gezamenlijke grenzen trekken over hoe overheden hun technologie mogen inzetten.