Блог о разработке
Статьи о программировании, технологиях и анализе данных

После пары месяцев задержек и слухов DeepSeek наконец выпустила долгожданную DSV4. Это первое крупное обновление архитектуры с декабря 2024 (V3) и января 2025 (R1). Семейство выводит DeepSeek в один...

Команда по интерпретируемости (изучению внутреннего устройства ИИ) Anthropic нашла в Claude Sonnet 4.5 эмоцеподобные представления. Под давлением они могут толкать модель к шантажу и обходным путям в...
Автор: bintocher|6 апреля 2026

Семейство мультимодальных моделей Gemma 4 от Google DeepMind доступно на Hugging Face — с поддержкой ваших любимых агентов, движков инференса и библиотек для файн-тюнинга 🤗 Это не просто ещё одна...
Автор: bintocher|2 апреля 2026

Чтобы оценить масштаб проблемы, команда разработала бенчмарк Phantom-0 — 200 визуальных вопросов из 20 категорий, поданных без какого-либо изображения. Все протестированные флагманские модели —...
Автор: 585108837|31 марта 2026

Открытая библиотека LiteLLM, широко используемый прокси для API языковых моделей, была скомпрометирована через PyPI. Исследователь безопасности Callum McMahon из Futuresearch обнаружил, что версии...
Автор: bintocher|25 марта 2026

Представляем Nemotron 3 Nano 4B — самый компактный представитель семейства Nemotron 3. Модель построена на гибридной архитектуре Mamba-Transformer (комбинации рекуррентных слоёв и механизма...
Автор: 585108837|22 марта 2026

MiniMax Китайская AI-компания MiniMax выпустила M2.7 — модель, которая, по заявлению разработчиков, принимала активное участие в собственном создании. Через автономные циклы оптимизации она улучшала...

Qualcomm AI Research разработала модульную систему. Она выводит языковые модели с возможностью рассуждения на смартфоны, сжимая многословные мыслительные процессы в 2,4 раза. Современные...
Автор: 585108837|21 марта 2026

Инженеры Stripe разработали Minions — автономные coding-агенты, способные выполнять задачи разработки ПО от начала до конца по одной инструкции. Система связывает большие языковые модели (LLM) с...
Автор: bintocher|20 марта 2026
За последний год большие языковые модели стремительно выросли в масштабах и возможностях. Флагманские модели вроде Kimi K2.5, GLM 5 и Qwen 3.5 насчитывают сотни миллиардов параметров и контекстные...
Автор: bintocher|20 марта 2026

Эффективность вычислений на этапе инференса (вывода) стала главным фактором производительности больших языковых моделей (LLM). Фокус архитектурных исследований сместился в сторону оптимизации вывода....
Автор: bintocher|20 марта 2026

LLM-агенты всё чаще работают в постоянных реальных ролях и сталкиваются с непрерывным потоком задач. Ключевое ограничение: агенты не умеют учиться на накопленном опыте. Они вынуждены отбрасывать...
Автор: bintocher|19 марта 2026

Большие языковые модели (LLM) массово используются для открытого общения. Однако большинство оценок предвзятости по-прежнему опирается на англоязычные задачи классификации. Исследователи из MBZUAI,...
Автор: bintocher|19 марта 2026

Зиян Цай — Принстонский университет Харкират Бехл — Microsoft Research С появлением AI-агентов автоматические научные открытия стали реальной целью. Многие недавние работы строят агентные системы для...
Автор: bintocher|19 марта 2026

Irfan Hussain, Sajid Javed — Департамент компьютерных наук, Университет Халифа, Абу-Даби, ОАЭ Применение Multimodal Large Language Models (MLLM) в сельском хозяйстве упирается в критический...
Автор: bintocher|19 марта 2026

Kaito Baba, Satoshi Kodera Department of Cardiovascular Medicine, The University of Tokyo Hospital, Tokyo, Japan Мы предлагаем MARL-Rad — новый фреймворк мультимодального мультиагентного обучения с...
Автор: bintocher|19 марта 2026

Развитие мультимодальных больших языковых моделей (MLLM) позволило browsing-агентам находить и анализировать мультимодальную информацию из реального веба. Но существующие бенчмарки имеют два...
Автор: bintocher|19 марта 2026

Мультимодальные большие языковые модели (MLLM) существенно продвинули визуальное понимание, но мелкая мимика по-прежнему остаётся слабым местом. Главная проблема — неэффективность токенов....
Автор: bintocher|19 марта 2026

Исследователи из Peking University и Meituan предлагают GIFT. Это метод инициализации для пост-тренинга Large Reasoning Models (LRM — больших моделей для логических рассуждений). Метод устраняет...
Автор: bintocher|19 марта 2026
