All’inizio di questo mese, lo sviluppatore di intelligenza artificiale Anthropic ha fatto un annuncio sorprendente: hanno sviluppato un nuovo modello, Mythos Preview, ma hanno deciso di non rilasciarlo al pubblico. L’azienda sostiene che questa decisione è guidata da “responsabilità”, citando la capacità senza precedenti del modello di identificare e sfruttare le vulnerabilità del software.
Secondo Anthropic, i rischi posti da Mythos sono troppo significativi per essere ignorati, minacciando potenzialmente la sicurezza nazionale, la sicurezza pubblica e la stabilità economica globale. Tuttavia, questa mossa ha acceso un dibattito tra gli esperti sul fatto che la società stia agendo per pura cautela o per posizionamento strategico.
La preoccupazione principale: minacce informatiche autonome
La paura principale che circonda Mythos risiede nella sua competenza specializzata. Mentre la maggior parte dei modelli linguistici di grandi dimensioni sono progettati per compiti generali, Mythos sembra eccellere nello sfruttamento della sicurezza informatica.
Se un modello potesse trovare autonomamente “buchi” nel codice software e creare exploit per inserirli, in teoria potrebbe:
– Automatizzare gli attacchi informatici su larga scala.
– Bypassare le protezioni delle infrastrutture critiche.
– Accelerare il ritmo della guerra digitale oltre la capacità di risposta dei difensori umani.
Scetticismo e dibattito “Sicurezza contro strategia”.
Nonostante la gravità degli avvertimenti di Anthropic, non tutti sono convinti che Mythos sia la “super-arma” descritta dall’azienda. Alcuni esperti del settore hanno espresso scetticismo riguardo all’effettiva portata delle capacità del modello, chiedendosi se il pericolo percepito non sia sopravvalutato.
Questa tensione solleva una domanda critica: Anthropic è un pioniere responsabile o sta usando la “sicurezza” come strumento competitivo?
Nella corsa agli armamenti altamente competitiva dell’IA, affermare di aver sviluppato un modello “troppo pericoloso per essere rilasciato” serve a diversi scopi strategici:
1. Posizionamento sul mercato: conferma Anthropic come l’attore più eticamente consapevole del settore.
2. Influenza normativa: Evidenziando i rischi estremi, l’azienda potrebbe spingere per normative più severe che potrebbero creare elevate “barriere all’ingresso”, rendendo più difficile l’attività dei concorrenti più piccoli.
3. Brand Trust: costruisce una narrazione di responsabilità aziendale che fa appello ai governi e ai clienti aziendali diffidenti nei confronti dei rischi dell’intelligenza artificiale.
Il percorso verso la regolamentazione
Indipendentemente dal fatto che la minaccia di Mythos sia esagerata, l’incidente evidenzia una tendenza in crescita nel settore dell’intelligenza artificiale: il passaggio dallo sviluppo basato sulle capacità alla gestione basata sul rischio.
La decisione di rifiutare un modello sulla base del suo potenziale dannoso segna a
