В начале этого месяца разработчик ИИ-систем Anthropic сделал громкое заявление: они создали новую модель, Mythos Preview, но решили не выпускать её в открытый доступ. Компания утверждает, что это решение продиктовано «ответственностью», ссылаясь на беспрецедентную способность модели выявлять и эксплуатировать уязвимости в программном обеспечении.
По словам Anthropic, риски, связанные с Mythos, слишком велики, чтобы их игнорировать: модель потенциально угрожает национальной безопасности, общественной безопасности и глобальной экономической стабильности. Однако этот шаг спровоцировал дискуссию среди экспертов: действует ли компания из соображений чистой осторожности или же это продуманная стратегия позиционирования.
Главная проблема: автономные киберугрозы
Основной страх, связанный с Mythos, заключается в её узкоспециализированных навыках. В то время как большинство больших языковых моделей предназначены для решения общих задач, Mythos, судя по всему, демонстрирует выдающиеся успехи в эксплуатации уязвимостей в сфере кибербезопасности.
Если модель способна автономно находить «дыры» в программном коде и создавать эксплойты для проникновения через них, это теоретически может привести к следующим последствиям:
— Автоматизация крупномасштабных кибератак.
— Обход систем защиты критически важной инфраструктуры.
— Ускорение темпов ведения цифровых войн до такой степени, что люди-защитники не смогут на них реагировать.
Скептицизм и дискуссия «Безопасность против Стратегии»
Несмотря на серьезность предупреждений Anthropic, далеко не все убеждены, что Mythos — это то самое «супероружие», о котором заявляет компания. Некоторые отраслевые эксперты выражают скептицизм относительно реальных возможностей модели, задаваясь вопросом: не преувеличена ли масштаб угрозы?
Это противостояние поднимает критический вопрос: является ли Anthropic ответственным первопроходцем или же они используют «безопасность» как инструмент конкурентной борьбы?
В условиях жесткой гонки вооружений в сфере ИИ заявление о том, что разработана модель, «слишком опасная для выпуска», преследует несколько стратегических целей:
1. Позиционирование на рынке: Это утверждает Anthropic в роли самого этически сознательного игрока в индустрии.
2. Влияние на регулирование: Подчеркивая экстремальные риски, компания может лоббировать введение более строгих правил, которые создадут высокие «барьеры для входа», затрудняя работу мелким конкурентам.
3. Доверие к бренду: Это формирует имидж корпоративной ответственности, который привлекает правительства и корпоративных клиентов, опасающихся рисков, связанных с ИИ.
Путь к регулированию
Независимо от того, преувеличена ли угроза со стороны Mythos, этот инцидент подчеркивает растущую тенденцию в индустрии ИИ: переход от разработки, ориентированной на возможности, к управлению, ориентированному на риски.
Решение удержать модель из-за её потенциального вреда знаменует собой…





















