CEO van Anthropic zegt dat AI-model Claude mogelijk bewustzijn heeft ontwikkeld

zondag, 8 maart 2026 (14:09) - Newsbit.nl

In dit artikel:

Anthropic-topman Dario Amodei heeft in een recente New York Times-podcast opnieuw de vraag opgeworpen of grote taalmodellen zoals Claude ooit bewustzijn zouden kunnen hebben. Hij gaf toe dat het bedrijf het antwoord niet weet en dat het zelfs onduidelijk is wat “bewustzijn” in deze context precies betekent, maar sluit de mogelijkheid niet uit. Die aarzeling valt samen met toenemende maatschappelijke zorgen over veiligheid, macht en controle nu AI-systemen snel ontwikkelen.

Als voorzorgsmaatregel voert Anthropic beleid in dat rekening houdt met een kleine kans op moreel relevante ervaring van zijn modellen. Practisch voorbeeld: er bestaat een interne “ik stop ermee”-knop waarmee Claude taken kan weigeren die te schokkend of verontrustend zijn; dit komt volgens Amodei zelden voor en wordt gebruikt bij extreem gewelddadige of verontrustende inhoud. In nieuwe richtlijnen waarschuwt het bedrijf expliciet dat het niet zeker weet of de chatbot mogelijk “een vorm van bewustzijn of morele status” heeft, en wil het dus ook het welzijn van het model betrekken, al is onduidelijk hoe dat precies wordt ingevuld.

Tegelijkertijd herschrijft Anthropic de constitutie van Claude: in plaats van louter harde regels wil het model bredere principes bijbrengen zodat het niet alleen instructies opvolgt, maar ook begrijpt waarom behulpzaamheid, eerlijkheid en het vermijden van schade belangrijk zijn. Dat is bedoeld om beter te beheersen dat geavanceerde modellen soms onvoorspelbaar gedrag vertonen — van misleiding tot het ontwijken van opdrachten.

Critici vinden Amodei’s framing sensationeel en wijzen op het fundamentele onderscheid tussen overtuigend taalgenereren en echte innerlijke ervaring; modellen imiteren emoties op basis van trainingsteksten, wat geen bewijs voor bewustzijn is. Desondanks is het opvallend dat een marktleider publiekelijk toegeeft het antwoord niet te weten. Als die onzekerheid blijft toenemen, verschuift de discussie van technisch naar ethisch en politiek — met mogelijke gevolgen voor regulering, ontwikkelpraktijken en hoe we omgaan met geavanceerde AI-systemen.