Plus tôt ce mois-ci, le développeur d’IA Anthropic a fait une annonce frappante : ils ont développé un nouveau modèle, Mythos Preview, mais ont décidé de ne pas le publier publiquement. La société affirme que cette décision est motivée par la « responsabilité », citant la capacité sans précédent du modèle à identifier et à exploiter les vulnérabilités logicielles.
Selon Anthropic, les risques posés par Mythos sont trop importants pour être ignorés, menaçant potentiellement la sécurité nationale, la sécurité publique et la stabilité économique mondiale. Cependant, cette décision a déclenché un débat parmi les experts quant à savoir si l’entreprise agit par pure prudence ou par positionnement stratégique.
La principale préoccupation : les cybermenaces autonomes
La principale crainte entourant Mythos réside dans sa compétence spécialisée. Alors que la plupart des grands modèles de langage sont conçus pour des tâches générales, Mythos semble exceller dans l’exploitation de la cybersécurité.
Si un modèle peut trouver de manière autonome des « trous » dans le code logiciel et créer des exploits pour y pénétrer, il pourrait théoriquement :
– Automatisez les cyberattaques à grande échelle.
– Contourner les protections des infrastructures critiques.
– Accélérer le rythme de la guerre numérique au-delà de la capacité de réponse des défenseurs humains.
Scepticisme et débat « Sécurité contre stratégie »
Malgré la gravité des avertissements d’Anthropic, tout le monde n’est pas convaincu que Mythos est la « super-arme » décrite par l’entreprise. Certains experts du secteur ont exprimé leur scepticisme quant à l’étendue réelle des capacités du modèle, se demandant si le danger perçu n’était pas exagéré.
Cette tension soulève une question cruciale : Anthropic est-il un pionnier responsable, ou utilise-t-il la « sécurité » comme outil de compétitivité ?
Dans la course aux armements très compétitive de l’IA, prétendre avoir développé un modèle « trop dangereux pour être lancé » répond à plusieurs objectifs stratégiques :
1. Positionnement sur le marché : Il fait d’Anthropic l’acteur le plus soucieux de l’éthique du secteur.
2. Influence de la réglementation : En mettant en évidence les risques extrêmes, l’entreprise pourrait faire pression en faveur de réglementations plus strictes qui pourraient créer des « barrières à l’entrée » élevées, rendant ainsi plus difficile l’activité des petits concurrents.
3. Confiance dans la marque : Il construit un récit de responsabilité d’entreprise qui séduit les gouvernements et les entreprises clientes qui se méfient des risques liés à l’IA.
Le chemin vers la réglementation
Même si la menace de Mythos est exagérée, l’incident met en évidence une tendance croissante dans le secteur de l’IA : le passage du développement axé sur les capacités à la gestion axée sur les risques.
La décision de refuser un modèle en raison de son potentiel de préjudice constitue une
