Про утечку исходников Claude Code — самого горячего GenAI-инструмента — не написал только ленивый. Полмиллиона строк кода уехали в публичный релиз и разошлись по интернету до того, как Anthropic успели откатить. Instant classic.

Контекст делает историю ещё забавней.

Anthropic — компания, которая строит бренд на safety и responsible AI. И это — вторая большая утечка за пять дней.

Первая — утёк черновик блог-поста про новую модель Claude Mythos: три тысячи файлов оказались в открытом доступе из-за ошибки в настройках сайта. Моё любимое — в тексте Mythos описывался как модель с «беспрецедентными возможностями в кибербезопасности» — мол, может находить и эксплуатировать уязвимости быстрее, чем люди успевают их закрывать.

Акции кибербез-компаний тряхнуло. А люди сказали «подержите моё пиво» — самовзломались быстрее, чем могла бы любая модель, и слили проприетарный код в интернет.

Многие каналы уже разобрали внутренности утечки:

  • мультиагентную архитектуру
  • фоновый процесс KAIROS, который «думает», пока ты спишь
  • режим маскировки внутренних кодовых имён
  • и даже BUDDY — тамагочи внутри редактора кода, у которого есть шанс вылупиться одним из 18 существ. И даже 1% шанс, что выпадет особенно редкий! Nerds will be nerds (и я один из них).

Я сейчас разбираю утёкший код, чтобы понять, что можно переиспользовать в своём агентном зоопарке — у меня свои агенты, пайплайны, и мне интересно, как Anthropic решает задачи, которые я решаю на коленке.

Но есть пара особенно приколдесных штук.

Первое — распознавание фрустрации пользователя. Код ловит слова вроде «wtf», «shit», «broken», «useless». Делается это простым текстовым поиском ради скорости и дешевизны. Когда система понимает, что у тебя пригорело, модель переключается в более мягкий режим. Claude Code буквально считывает твоё настроение.

«Useless»? I don’t think so.

Второе — защита от копирования. Spicy.

Контекст: в AI-индустрии есть creepy практика — подсматривать. Подсматривать, как работает чужая модель, записывать её ответы и на этих данных обучать собственную модель. Называется «дистилляция» — списывание у отличника в промышленных масштабах.

Что придумали в Anthropic: когда Claude Code общается с сервером, система подмешивает в ответы фейковые описания инструментов. Они выглядят как настоящие — но это мусор. И если конкурент записывает трафик, чтобы обучить свою модель — фейковые описания «отравляют» его данные. Модель-подражатель начнёт галлюцинировать несуществующие функции.

Списывать нехорошо.

Правда, всё это не мешает Anthropic размахивать и юридической колотушкой тоже. ClawdBot был переименован в OpenClaw из-за требования Anthropic — нечего путать пользователей слишком похожим названием на Claude. А за 10 дней до последней утечки Anthropic отправляли юридические угрозы проекту-клону их Claude Code.

Fair play. Меня бы тоже выбесил канал-подражатель «Осторожно, Лосось».


Конкуренции уровня той, что сейчас происходит в GenAI, не было никогда: релизы идут пачками еженедельно, если не ежедневно. Напряжение растёт. Сотрудники или их агенты ошибаются и нечаянно что-то сливают. Проекты закрываются. Компании буквально кормят друг другу фейковые данные.

Это не конкуренция — это информационная война на всех уровнях инфраструктуры. И она идёт прямо сейчас — в прессе, судах и даже в продакшене.

Показателен момент, где Сэм Альтман и Дарио Амодей (CEO OpenAI и Anthropic соответственно) отказались взяться за руки на крупнейшем AI-форуме в Индии для общей фотографии.

(Признаю, это описание выглядит чуть более принудительно романтично, чем я задумывал, поэтому вот ссылка для контекста).

Ну а для тех, кто строит собственные агентные системы: если Anthropic тратит инженерные ресурсы на кучу слоёв защиты — значит, это всё реальные угрозы, которые они наблюдают.

Ирония в том, что всю эту защиту мы узнали из — да-да — утечки. Забыли убрать исходники из публичного пакета.

Этих нерасторопных клуш-людей пора бы чем-то уже заменить, you know?