Блог о разработке

Статьи о программировании, технологиях и анализе данных

DeepSeek V4: Pro (1.6T-A49B) и Flash (284B-A13B) с поддержкой Huawei Ascend
После пары месяцев задержек и слухов DeepSeek наконец выпустила долгожданную DSV4. Это первое крупное обновление архитектуры с декабря 2024 (V3) и января 2025 (R1). Семейство выводит DeepSeek в один...
Автор: bintocher|26 апреля 2026
Anthropic обнаружила в Claude «функциональные эмоции», влияющие на его поведение
Команда по интерпретируемости (изучению внутреннего устройства ИИ) Anthropic нашла в Claude Sonnet 4.5 эмоцеподобные представления. Под давлением они могут толкать модель к шантажу и обходным путям в...
Автор: bintocher|6 апреля 2026
Знакомимся с Gemma 4: мультимодальный ИИ нового уровня, который работает на устройстве
Семейство мультимодальных моделей Gemma 4 от Google DeepMind доступно на Hugging Face — с поддержкой ваших любимых агентов, движков инференса и библиотек для файн-тюнинга 🤗 Это не просто ещё одна...
Автор: bintocher|2 апреля 2026
Aurora
Запуск больших языковых моделей в продакшене — это постоянный компромисс между производительностью и стоимостью. Speculative decoding (спекулятивное декодирование — метод, где маленькая модель...
Автор: bintocher|2 апреля 2026
AI-модели уверенно описывают изображения, которых никогда не видели, а бенчмарки этого не замечают
Чтобы оценить масштаб проблемы, команда разработала бенчмарк Phantom-0 — 200 визуальных вопросов из 20 категорий, поданных без какого-либо изображения. Все протестированные флагманские модели —...
Автор: 585108837|31 марта 2026
Популярный AI-прокси LiteLLM взломан: малварь распространяется по Kubernetes-кластерам
Открытая библиотека LiteLLM, широко используемый прокси для API языковых моделей, была скомпрометирована через PyPI. Исследователь безопасности Callum McMahon из Futuresearch обнаружил, что версии...
Автор: bintocher|25 марта 2026
Nemotron 3 Nano 4B: компактная гибридная модель для эффективного локального ИИ
Представляем Nemotron 3 Nano 4B — самый компактный представитель семейства Nemotron 3. Модель построена на гибридной архитектуре Mamba-Transformer (комбинации рекуррентных слоёв и механизма...
Автор: 585108837|22 марта 2026
Китайская модель MiniMax M2.7, как сообщается, участвовала в собственном развитии
MiniMax Китайская AI-компания MiniMax выпустила M2.7 — модель, которая, по заявлению разработчиков, принимала активное участие в собственном создании. Через автономные циклы оптимизации она улучшала...
Автор: 585108837|22 марта 2026
Qualcomm сжимает цепочки рассуждений ИИ в 2,4 раза, чтобы запустить «мыслящие» модели на смартфонах
Qualcomm AI Research разработала модульную систему. Она выводит языковые модели с возможностью рассуждения на смартфоны, сжимая многословные мыслительные процессы в 2,4 раза. Современные...
Автор: 585108837|21 марта 2026
Инженеры Stripe запустили Minions — автономные агенты, генерирующие тысячи pull-requests в неделю
Инженеры Stripe разработали Minions — автономные coding-агенты, способные выполнять задачи разработки ПО от начала до конца по одной инструкции. Система связывает большие языковые модели (LLM) с...
Автор: bintocher|20 марта 2026
Обучение speculative decoding в промышленном масштабе на PyTorch
За последний год большие языковые модели стремительно выросли в масштабах и возможностях. Флагманские модели вроде Kimi K2.5, GLM 5 и Qwen 3.5 насчитывают сотни миллиардов параметров и контекстные...
Автор: bintocher|20 марта 2026
Знакомство с Mamba-3: новое поколение State Space Model с вдвое меньшим состоянием и более эффективным MIMO-декодированием
Эффективность вычислений на этапе инференса (вывода) стала главным фактором производительности больших языковых моделей (LLM). Фокус архитектурных исследований сместился в сторону оптимизации вывода....
Автор: bintocher|20 марта 2026
ReasoningBank: как заставить AI-агентов эволюционировать через память о рассуждениях
LLM-агенты всё чаще работают в постоянных реальных ролях и сталкиваются с непрерывным потоком задач. Ключевое ограничение: агенты не умеют учиться на накопленном опыте. Они вынуждены отбрасывать...
Автор: bintocher|19 марта 2026
Выявление скрытых стереотипов: мультиязычная оценка современных LLM через призму дебатов
Большие языковые модели (LLM) массово используются для открытого общения. Однако большинство оценок предвзятости по-прежнему опирается на англоязычные задачи классификации. Исследователи из MBZUAI,...
Автор: bintocher|19 марта 2026
AI-учёный через масштабирование синтетических задач
Зиян Цай — Принстонский университет Харкират Бехл — Microsoft Research С появлением AI-агентов автоматические научные открытия стали реальной целью. Многие недавние работы строят агентные системы для...
Автор: bintocher|19 марта 2026
AgriChat: мультимодальная LLM для анализа сельскохозяйственных изображений
Irfan Hussain, Sajid Javed — Департамент компьютерных наук, Университет Халифа, Абу-Даби, ОАЭ Применение Multimodal Large Language Models (MLLM) в сельском хозяйстве упирается в критический...
Автор: bintocher|19 марта 2026
Мультимодальное мультиагентное обучение с подкреплением для генерации рентгеновских отчётов: рабочий процесс, подобный работе радиолога, с клинически верифицируемыми наградами
Kaito Baba, Satoshi Kodera Department of Cardiovascular Medicine, The University of Tokyo Hospital, Tokyo, Japan Мы предлагаем MARL-Rad — новый фреймворк мультимодального мультиагентного обучения с...
Автор: bintocher|19 марта 2026
VisBrowse-Bench: бенчмарк для оценки визуально-ориентированного поиска в мультимодальных browsing-агентах
Развитие мультимодальных больших языковых моделей (MLLM) позволило browsing-агентам находить и анализировать мультимодальную информацию из реального веба. Но существующие бенчмарки имеют два...
Автор: bintocher|19 марта 2026
TDMM-LM: как языковые модели объединили понимание и анимацию лиц
Мультимодальные большие языковые модели (MLLM) существенно продвинули визуальное понимание, но мелкая мимика по-прежнему остаётся слабым местом. Главная проблема — неэффективность токенов....
Автор: bintocher|19 марта 2026
GIFT: глобальная оптимальность пост-тренинга через Gibbs-инициализацию при конечной температуре
Исследователи из Peking University и Meituan предлагают GIFT. Это метод инициализации для пост-тренинга Large Reasoning Models (LRM — больших моделей для логических рассуждений). Метод устраняет...
Автор: bintocher|19 марта 2026