Про утечку исходников Claude Code — самого горячего GenAI-инструмента — не написал только ленивый. Полмиллиона строк кода уехали в публичный релиз и разошлись по интернету до того, как Anthropic успели откатить. Instant classic.
Контекст делает историю ещё забавней.
Anthropic — компания, которая строит бренд на safety и responsible AI. И это — вторая большая утечка за пять дней.
Первая — утёк черновик блог-поста про новую модель Claude Mythos: три тысячи файлов оказались в открытом доступе из-за ошибки в настройках сайта. Моё любимое — в тексте Mythos описывался как модель с «беспрецедентными возможностями в кибербезопасности» — мол, может находить и эксплуатировать уязвимости быстрее, чем люди успевают их закрывать.
Акции кибербез-компаний тряхнуло. А люди сказали «подержите моё пиво» — самовзломались быстрее, чем могла бы любая модель, и слили проприетарный код в интернет.
Многие каналы уже разобрали внутренности утечки:
- мультиагентную архитектуру
- фоновый процесс KAIROS, который «думает», пока ты спишь
- режим маскировки внутренних кодовых имён
- и даже BUDDY — тамагочи внутри редактора кода, у которого есть шанс вылупиться одним из 18 существ. И даже 1% шанс, что выпадет особенно редкий! Nerds will be nerds (и я один из них).
Я сейчас разбираю утёкший код, чтобы понять, что можно переиспользовать в своём агентном зоопарке — у меня свои агенты, пайплайны, и мне интересно, как Anthropic решает задачи, которые я решаю на коленке.
Но есть пара особенно приколдесных штук.
Первое — распознавание фрустрации пользователя. Код ловит слова вроде «wtf», «shit», «broken», «useless». Делается это простым текстовым поиском ради скорости и дешевизны. Когда система понимает, что у тебя пригорело, модель переключается в более мягкий режим. Claude Code буквально считывает твоё настроение.
«Useless»? I don’t think so.
Второе — защита от копирования. Spicy.
Контекст: в AI-индустрии есть creepy практика — подсматривать. Подсматривать, как работает чужая модель, записывать её ответы и на этих данных обучать собственную модель. Называется «дистилляция» — списывание у отличника в промышленных масштабах.
Что придумали в Anthropic: когда Claude Code общается с сервером, система подмешивает в ответы фейковые описания инструментов. Они выглядят как настоящие — но это мусор. И если конкурент записывает трафик, чтобы обучить свою модель — фейковые описания «отравляют» его данные. Модель-подражатель начнёт галлюцинировать несуществующие функции.
Списывать нехорошо.
Правда, всё это не мешает Anthropic размахивать и юридической колотушкой тоже. ClawdBot был переименован в OpenClaw из-за требования Anthropic — нечего путать пользователей слишком похожим названием на Claude. А за 10 дней до последней утечки Anthropic отправляли юридические угрозы проекту-клону их Claude Code.
Fair play. Меня бы тоже выбесил канал-подражатель «Осторожно, Лосось».
Конкуренции уровня той, что сейчас происходит в GenAI, не было никогда: релизы идут пачками еженедельно, если не ежедневно. Напряжение растёт. Сотрудники или их агенты ошибаются и нечаянно что-то сливают. Проекты закрываются. Компании буквально кормят друг другу фейковые данные.
Это не конкуренция — это информационная война на всех уровнях инфраструктуры. И она идёт прямо сейчас — в прессе, судах и даже в продакшене.
Показателен момент, где Сэм Альтман и Дарио Амодей (CEO OpenAI и Anthropic соответственно) отказались взяться за руки на крупнейшем AI-форуме в Индии для общей фотографии.
(Признаю, это описание выглядит чуть более принудительно романтично, чем я задумывал, поэтому вот ссылка для контекста).
Ну а для тех, кто строит собственные агентные системы: если Anthropic тратит инженерные ресурсы на кучу слоёв защиты — значит, это всё реальные угрозы, которые они наблюдают.
Ирония в том, что всю эту защиту мы узнали из — да-да — утечки. Забыли убрать исходники из публичного пакета.
Этих нерасторопных клуш-людей пора бы чем-то уже заменить, you know?