Eerder deze maand deed de AI-ontwikkelaar Anthropic een opvallende aankondiging: ze hebben een nieuw model ontwikkeld, Mythos Preview, maar hebben besloten geen publieke release uit te brengen. Het bedrijf beweert dat deze beslissing wordt ingegeven door ‘verantwoordelijkheid’, daarbij verwijzend naar het ongekende vermogen van het model om softwarekwetsbaarheden te identificeren en te exploiteren.
Volgens Anthropic zijn de risico’s van Mythos te groot om te negeren en vormen ze mogelijk een bedreiging voor de nationale veiligheid, de openbare veiligheid en de mondiale economische stabiliteit. Deze stap heeft echter een debat onder deskundigen op gang gebracht over de vraag of het bedrijf handelt uit pure voorzichtigheid of uit strategische positionering.
Het kernprobleem: autonome cyberbedreigingen
De voornaamste angst rond Mythos ligt in zijn gespecialiseerde vaardigheid. Hoewel de meeste grote taalmodellen zijn ontworpen voor algemene taken, lijkt Mythos uit te blinken in exploitatie van cyberbeveiliging.
Als een model autonoom ‘gaten’ in softwarecode kan vinden en exploits kan creëren om deze binnen te dringen, zou het theoretisch:
– Automatiseer grootschalige cyberaanvallen.
– Omzeil kritieke infrastructuurbescherming.
– Versnel het tempo van de digitale oorlogsvoering boven het vermogen van menselijke verdedigers om te reageren.
Scepticisme en het debat over veiligheid versus strategie
Ondanks de ernst van de waarschuwingen van Anthropic is niet iedereen ervan overtuigd dat Mythos het ‘superwapen’ is dat het bedrijf beschrijft. Sommige experts uit de industrie hebben hun scepsis geuit over de werkelijke omvang van de mogelijkheden van het model, waarbij ze zich afvragen of het waargenomen gevaar niet wordt overdreven.
Deze spanning roept een kritische vraag op: Is Anthropic een verantwoordelijke pionier, of gebruiken ze ‘veiligheid’ als concurrentiemiddel?
In de zeer competitieve AI-wapenwedloop dient het beweren een model te hebben ontwikkeld dat ‘te gevaarlijk is om vrij te geven’ verschillende strategische doeleinden:
1. Marktpositionering: Het maakt van Anthropic de meest ethisch bewuste speler in de branche.
2. Invloed van de regelgeving: Door extreme risico’s te benadrukken, kan het bedrijf aandringen op strengere regelgeving die hoge ‘toegangsbarrières’ zou kunnen creëren, waardoor het voor kleinere concurrenten moeilijker wordt om te opereren.
3. Merkvertrouwen: Het bouwt een verhaal op over bedrijfsverantwoordelijkheid dat aantrekkelijk is voor overheden en zakelijke klanten die op hun hoede zijn voor AI-risico’s.
De weg naar regulering
Ongeacht of de dreiging van Mythos overdreven is, benadrukt het incident een groeiende trend in de AI-industrie: de verschuiving van capaciteitsgedreven ontwikkeling naar risicogestuurd management.
De beslissing om een model achterwege te laten op basis van de mogelijke schade ervan, kenmerkt a
