Na początku tego miesiąca twórca systemu AI, firma Anthropic, ogłosiła ważne oświadczenie: stworzyła nowy model o nazwie Mythos Preview, ale zdecydowała się nie publikować go publicznie. Firma twierdzi, że taką decyzją kierowała „odpowiedzialność”, powołując się na niezrównaną zdolność modelu do identyfikowania i wykorzystywania luk w zabezpieczeniach oprogramowania.
Według Anthropic ryzyko związane z Mythos jest zbyt duże, aby je zignorować, a model może potencjalnie zagrażać bezpieczeństwu narodowemu, bezpieczeństwu publicznemu i globalnej stabilności gospodarczej. Jednak to posunięcie wywołało debatę wśród ekspertów na temat tego, czy firma działa wyłącznie ze względu na ostrożność, czy też jest to celowa strategia pozycjonowania.
Główny problem: autonomiczne zagrożenia cybernetyczne
Główną obawą związaną z Mythosem są jego wysoce wyspecjalizowane umiejętności. Podczas gdy większość dużych modeli językowych zaprojektowano w celu rozwiązywania ogólnych problemów, Mythos wydaje się odnosić niezwykłe sukcesy w wykorzystywaniu luk w zabezpieczeniach cybernetycznych.
Jeśli model jest w stanie samodzielnie znaleźć dziury w kodzie programu i stworzyć exploity w celu ich penetracji, teoretycznie może to prowadzić do następujących konsekwencji:
– Automatyzacja cyberataków na dużą skalę.
– Omijanie systemów ochrony infrastruktury krytycznej.
– Przyspieszenie tempa wojen cyfrowych do tego stopnia, że ludzcy obrońcy nie będą w stanie na nie odpowiedzieć.
Sceptycyzm i debata na temat bezpieczeństwa kontra strategia
Pomimo powagi ostrzeżeń Anthropic, nie wszyscy są przekonani, że Mythos jest „superbronią”, o której twierdzi firma. Część ekspertów branżowych wyraziła sceptycyzm co do realnych możliwości modelu, zastanawiając się, czy skala zagrożenia nie została przesadzona.
Ten konflikt rodzi krytyczne pytanie: Czy Anthropic jest odpowiedzialnym pionierem, czy też używa „bezpieczeństwa” jako narzędzia konkurencyjnego?
W zaciętym wyścigu zbrojeń sztucznej inteligencji stwierdzenie, że opracowano model „zbyt niebezpieczny, aby go wypuścić” służy kilku strategicznym celom:
1. Pozycja na rynku: Dzięki temu Anthropic jest najbardziej świadomym etycznie graczem w branży.
2. Wpływ na regulacje: podkreślając skrajne ryzyko, firma może lobbować za bardziej rygorystycznymi przepisami, które stworzą wysokie bariery wejścia, utrudniając działalność mniejszym konkurentom.
3. Zaufanie do marki: Tworzy to obraz odpowiedzialności korporacyjnej, który przyciąga rządy i klientów korporacyjnych nieufnych wobec zagrożeń związanych ze sztuczną inteligencją.
Droga do regulacji
Niezależnie od tego, czy zagrożenie ze strony Mythos jest przesadzone, incydent ten uwypukla rosnący trend w branży sztucznej inteligencji: przejście od rozwoju opartego na możliwościach do zarządzania opartego na ryzyku.
Decyzja o zatrzymaniu modelu ze względu na jego potencjalne ślady uszkodzeń…





















