Anthropic botst met Pentagon over inzet van AI in leger

dinsdag, 17 februari 2026 (10:23) - Newsbit.nl

In dit artikel:

De Amerikaanse defensietop en AI-bedrijf Anthropic liggen in onenigheid over het gebruik van Anthropic’s taalmodel Claude door het leger. Lopende onderhandelingen over een verlenging van een contract zijn recent vastgelopen omdat Anthropic extra beperkingen wil inbouwen in Claude, terwijl het Pentagon juist meer speelruimte wil zolang het binnen de wet blijft.

Anthropic vraagt expliciete regels om te verhinderen dat Claude wordt ingezet voor massasurveillance van Amerikaanse burgers of voor de ontwikkeling van wapens die autonoom kunnen handelen. Het bedrijf positioneert zich als voorstander van veiligheid en ethiek en ontwikkelde hiervoor Claude Gov, een speciale variant bedoeld voor nationale veiligheidsdiensten en het verwerken van geheime documenten, inlichtingen en cybersecuritydata. Een woordvoerder zei dat Anthropic zich inzet voor de nationale veiligheid en in goed vertrouwen met het ministerie spreekt.

Het Pentagon zegt de samenwerking te herzien en benadrukt dat partners moeten kunnen ondersteunen “in elke situatie” die nationale veiligheid vereist. Binnen defensie groeit het beeld dat Anthropic een potentiële kwetsbaarheid in de toeleveringsketen vormt; er wordt zelfs gekeken naar verplichtingen voor leveranciers om te verklaren dat ze geen gebruikmaken van Anthropic-modellen. Dat opent kansen voor rivalen: OpenAI (ChatGPT), Google (Gemini) en xAI (Grok) werken volgens bronnen samen met het Pentagon aan versies van hun modellen die legaal bruikbaar zijn voor defensiedoeleinden.

Achtergrond: Anthropic sloot vorig jaar een tweejarig prototypecontract voor Claude Gov en Claude for Enterprise. De uitkomst van de huidige impasse kan richtinggevend zijn voor toekomstige afspraken tussen het Pentagon en andere AI-aanbieders, en raakt bredere vragen over toezicht, ethiek en operationele flexibiliteit bij militaire inzet van krachtige AI.