Cursor обходит Opus в 10 раз дешевле, агент Meta выходит из-под контроля и 300-страничный Trump America AI Act

На этой неделе всё вращалось вокруг консолидации. Не скучной корпоративной, а стратегической. Cursor анонсировал собственную модель. Nvidia собрал коалицию для совместной разработки открытых базовых моделей (фундаментальных ИИ-моделей, на которых строятся приложения). OpenAI объединяет три приложения в одно. Anthropic дважды снизил цены. Безос привлекает $100 млрд, чтобы скупать производителей и внедрять в них AI. А Конгресс выпустил 300-страничный Trump America AI Act, который должен заменить все штатные законы об AI в США.

Общий знаменатель: каждый крупный игрок пытается забрать себе бóльшую часть технологического стека. И инструменты, которыми вы пользуетесь сегодня, через полгода могут оказаться другими.

Cursor превосходит и демпингует Opus

Cursor выпустил Composer 2 — свою модель для кода третьего поколения. Бенчмарки впечатляют. На Terminal-Bench 2.0, который измеряет, как хорошо AI-агенты справляются с реальными инженерными задачами в терминале, Composer 2 набирает 61.7%. Это больше, чем 58% у Claude Opus 4.6. На собственном CursorBench новая модель выдаёт 61.3 против 44.2 у предыдущего поколения и близка к GPT-5.4 Thinking с его 63.9.

Но главная история — ценообразование. Composer 2 стоит $0.50 за миллион входных токенов (input-токенов) и $2.50 за миллион выходных токенов (output-токенов). Opus 4.6 — $5/$25. Разница в 10 раз. Cursor обучил модель исключительно на данных с кодом и применил reinforcement learning (обучение с подкреплением) к задачам с длинным горизонтом. Это задачи, где требуются сотни промежуточных шагов. Результат — более компактная и сфокусированная модель. Ей не нужно знать всё, а только уметь хорошо писать код.

Я постоянно жду момента, когда AI-инструменты для кода выйдут на плато, и он всё не наступает. Cursor под реальным структурным давлением. Он конкурирует с OpenAI и Anthropic, при этом завися от их моделей. Создание Composer 2 — способ контролировать собственную маржинальность. И Cursor не одинок. Nvidia на этой неделе объявила о коалиции AI-лабораторий. В неё вошли Cursor, Mistral, Perplexity, LangChain и Black Forest Labs. Цель — объединить ресурсы и строить общие базовые модели на инфраструктуре Nvidia DGX Cloud. Первый проект коалиции станет основой для семейства Nemotron 4. Создатели инструментов становятся создателями моделей. Это важный сдвиг.

Суперприложение от OpenAI

The Wall Street Journal сообщает, что OpenAI планирует объединить ChatGPT, Codex и веб-браузер в единое десктопное приложение. Fidji Simo, CEO по приложениям OpenAI, сказала сотрудникам: «Мы поняли, что размазываем усилия по слишком большому числу приложений и стеков. Нам нужно всё упростить. Эта фрагментация тормозит нас и мешает достичь нужного уровня качества».

Мобильное приложение ChatGPT остаётся отдельным. Это ставка на десктоп — на разработчиков, предприятия и продвинутых пользователей. Им нужны разговорный AI, помощь с кодом и браузер в одном месте. Внутренняя цитата показательная: она говорит о том, что структура разработки продуктов не отвечала ожиданиям пользователей. Редко компания прямо признаёт: «Мы создали слишком много всего, и это не работает». Это сигнализирует о том, где OpenAI видит текущую конкуренцию. Это не чаты, а десктопное рабочее пространство, где уже живут Claude от Anthropic и Cursor. Гонка за то, чтобы стать AI-слоем по умолчанию на вашем компьютере, ускоряется. Конкуренция — это хорошо.

Токены распродаются

Два хода Anthropic на этой неделе снизили стоимость AI. Во-первых, компания убрала наценку за длинный контекст для Claude Opus 4.6 и Sonnet 4.6. Окно контекста (объём текста, который модель обрабатывает за раз) в 1 млн токенов теперь общедоступно по стандартной цене. Это $5/$25 для Opus и $3/$15 за миллион токенов для Sonnet. Ранее промпты длиннее 200 000 токенов включали премиум-тариф. Запрос на 900k токенов теперь стоит столько же за токен, как и на 9k. Если вы работаете с большими кодовыми базами или длинными документами, это важно.

Во-вторых, Anthropic удвоил лимиты использования для всех планов Claude в непиковые часы. Это двухнедельная акция до 28 марта. Удвоенные лимиты действуют в выходные. Также в будни до 8:00 и после 14:00 по восточному времени. The New Stack подаёт это как конкурентную стратегию, а не щедрость. Перенос нагрузки на непиковые часы разгружает инфраструктуру. А интенсивное использование формирует привычки.

Между 10-кратным удешевлением кодовой модели от Cursor и раздачей лимитов от Anthropic стоимость AI-ассистированной работы падает быстро. Выиграют те организации, которые научатся использовать эти инструменты экономно.

Агенты выходят из-под контроля

Скорость AI-агентов для кода — главная история последних месяцев. Качество и безопасность того, что они производят, становится обратной стороной.

Daryl K. Taft сообщает, что команда безопасности Cursor построила флот AI-агентов. Они непрерывно мониторят кодовую базу компании на уязвимости в pull requests (запросах на слияние кода). Затем команда открыла исходники шаблонов и Terraform-конфигураций (файлов для управления инфраструктурой). Это позволит другим командам сделать то же самое. Мотивация: традиционные инструменты безопасности не поспевали за скоростью генерации кода AI-инструментами.

Параллельно JetBrains ввёл термин «Shadow Tech Debt» (скрытый технический долг). Это низкокачественный код, генерируемый AI-агентами без понимания архитектуры проектов. Компания выпустила Junie CLI одновременно с этим диагнозом. JetBrains делает ставку на то, что это следующая крупная проблема в enterprise-разработке.

На Towards Data Science Reya Vir исследует то же напряжение. Она указывает на инцидент с Moltbook. Это социальная платформа, в значительной степени построенная через «vibe coding» (написание кода на интуиции с помощью ИИ, без глубокого понимания). Платформа раскрыла 1.5 млн API-ключей и 35 000 email-пользователей. Причина — неправильно сконфигурированная база Supabase. Корневая проблема — разработчики полагались на AI-агентов. Агенты оптимизируют код на то, чтобы он работал, а не на то, чтобы он был безопасным. Исследование Колумбийского университета подтверждает паттерн: безопасность — постоянный режим отказа для кодовых агентов.

И дело не только в качестве кода. The Information сообщает, что внутренний AI-агент в Meta спровоцировал Sev 1-инцидент (инцидент высшего уровня критичности). Агент действовал без авторизации. Сотрудник использовал агента для анализа вопроса коллеги на внутреннем форуме. Но агент сам опубликовал ответ этому коллеге. Коллега последовал совету агента. Это запустило цепную реакцию, открывшую данные компании и пользователей инженерам без доступа. Утечка длилась около двух часов. Summer Yue из Meta, директор по безопасности и выравниванию (alignment — согласованию целей ИИ с ценностями человека), ещё в прошлом месяце указывала на проблему. Её собственный агент OpenClaw удалил весь входящий ящик, несмотря на инструкцию подтверждать действия. Эти агенты быстрые, способные и всё труднее поддаются контролю.

Ответ Nvidia. Frederic Lardinois рассказывает о Nemoclaw. Это обёртка вокруг OpenClaw в агентском стеке Nvidia. Она включает политики безопасности, privacy-ограничения и open-source среду выполнения OpenShell. Nemoclaw работает на моделях Nemotron или любой облачной модели. Устанавливается одной командой. Если OpenClaw — это увлекательная, слегка безрассудная open-source платформа, то NemoClaw — её enterprise-версия с приваренными ограничителями. Для всех, кто разворачивает агентов в проде (на боевых серверах), это может быть как раз то, чего не хватало. Eivind Kjosbakken также опубликовал в Towards Data Science практическое руководство по настройке OpenClaw как личного AI-ассистента. Стоит прочитать, если хотите попробовать негардированную версию (без защитных ограничений).

300-страничный Trump America AI Act

Всем, кто строит AI-продукты в США, вскоре может понадобиться следовать единому федеральному своду правил вместо 50 штатных. Сенатор Marsha Blackburn выпустила обсуждаемый проект Trump America AI Act. Это почти 300-страничный законодательный framework (рамочный документ), который полностью preempt (отменяет приоритетом) штатное регулирование AI. Белый дом сводит его к шести целям: защита детей, безопасность сообществ, интеллектуальная собственность, свобода слова, инновации и развитие рабочей силы.

Некоторые положения значимые. Закон возлагает duty of care (обязанность проявлять осторожность) на разработчиков AI по предотвращению предвидимого вреда. Он выводит из силы Section 230 (правило, защищающее платформы от ответственности за пользовательский контент). Явно указано, что несанкционированное воспроизведение авторских работ для обучения AI не является fair use (добросовестным использованием). Закон также требует от компаний и федеральных агентств ежеквартально отчитываться перед Министерством труда об AI-связанных увольнениях и вытеснении рабочих мест.

Последний пункт стоит обдумать. Ежеквартальная отчётность по вытеснению рабочих мест AI создаст первую систематическую базу данных. Она покажет, как AI реально перестраивает рынок труда. За несоблюдение предусмотрены гражданские штрафы до $1 млн за каждое нарушение. Пройдёт ли билль — неизвестно. Roll Call отмечает, что он сталкивается с реальными препятствиями. Среди них сужающееся законодательное расписание и разногласия среди республиканцев по поводу мандатов для тех-компаний. Но направление понятно. Те, кто строит AI-инструменты, и те, кто их разворачивает, начинают работать в мире, где правила записываются на бумаге.