← Все дайджесты
Дайджест
19 апреля 2026
AI и технологии
1. Индекс AI 2026 Стэнфорда: Anthropic лидирует, Китай почти догнал США
Стэнфордский ежегодный отчёт AI Index 2026 показывает: модели теперь превосходят человека на PhD-уровне по математике и науке, а SWE-bench вырос с 60% до почти 100% за год. Anthropic лидирует в мировых рейтингах моделей, за ней следуют xAI, Google и OpenAI. Китай почти закрыл технологический разрыв с США, хотя поток AI-исследователей в Америку упал на 89% с 2017 года.
2. «День освобождения» в OpenAI: три топ-руководителя покинули компанию
17 апреля OpenAI потеряла сразу трёх старших руководителей: Кевина Уэйла (VP Science), Билла Пиблса (глава Sora) и Срини Нараянана (CTO B2B). Уходы происходят на фоне медотпусков ещё двух топов — Фиджи Симо и Кейт Роуч — и перевода Брэда Лайтcапа на «специальные проекты». Компания объяснила сокращение «боковых квестов» и децентрализацию OpenAI for Science. Примечательно, что руководители уходят до ожидаемого IPO.
3. NVIDIA Ising: первые в мире открытые AI-модели для квантовых вычислений
NVIDIA запустила семейство открытых моделей Ising, разработанных для калибровки квантовых процессоров и декодирования квантовых ошибок. Ising Calibration — это 35B VLM-модель, опережающая Gemini 3.1 Pro, Claude Opus 4.6 и GPT-5.4 на бенчмарке QCalEval. Ising Decoding ускоряет исправление ошибок в 2.5 раза и втрое точнее традиционных методов. Модели уже принимают Harvard, Fermilab и ряд других ведущих лабораторий.
4. AI-модели «незаметно» передают предвзятости при обучении других систем
Исследование в Nature обнаружило, что данные, сгенерированные языковыми моделями, содержат скрытые сигналы, «обучающие» другие LLM определённым убеждениям и предвзятостям — от безвредных предпочтений до рекомендаций небезопасного поведения. Феномен работает при синтетическом дообучении и несёт риски для AI pipeline, где модели учатся на выводах других моделей.
5. MIT: новый метод удваивает скорость обучения reasoning-моделей
Исследователи MIT разработали метод ускорения обучения рассуждающих моделей: меньшая быстрая модель предсказывает ответы большой reasoning-LLM, которая лишь верифицирует результат вместо полного вычисления. Метод вдвое ускоряет обучение при сохранении точности — проверено на нескольких reasoning LLM.
6. OpenAI купила финтех-стартап Hiro — уже 6-е поглощение в 2026 году
OpenAI приобрела стартап персональных финансов Hiro, продолжая агрессивную стратегию M&A. За 2026 год это уже шестое поглощение компании — почти столько же, сколько за весь 2025 год. OpenAI превысила $25 млрд годовой выручки и готовится к возможному IPO в конце 2026 года.
7. Фиктивный сайт Claude распространяет PlugX RAT через DLL-подмену
Malwarebytes обнаружил поддельный сайт с «про-версией Claude», устанавливающий троянизированный инсталлятор. Под видом легитимного приложения VBScript фоново разворачивает PlugX-малварь через DLL sideloading с подписанным бинарником G DATA. Атака эксплуатирует популярность Claude (290 млн визитов/мес). Параллельно выявлены поддельные репозитории Claude Code на GitHub, распространяющие инфостилер Vidar.
8. Q1 2026: рекордные $300 млрд венчурных инвестиций — 80% ушло в AI
Первый квартал 2026 побил все рекорды: $300 млрд вложено в стартапы, рост более 150% к прошлому году. Только OpenAI ($122 млрд), Anthropic ($30 млрд), xAI ($20 млрд) и Waymo ($16 млрд) собрали $188 млрд — 65% мирового венчура. AI в целом получила $242 млрд, или 80% глобальных венчурных инвестиций за квартал.
9. Великобритания инвестировала £500 млн в суверенный AI-фонд
Британское правительство совершило первые инвестиции из суверенного AI-фонда на £500 млн: доля в лондонской Callosum и расширенный доступ к суперкомпьютерам для шести AI-стартапов, включая Prima Mente, Cursive и Odyssey. Это часть стратегии развития независимой вычислительной инфраструктуры для ИИ.
10. Google Auto-Diagnose: LLM-система определяет причины сбоев тестов с точностью 90%
Google Research представила Auto-Diagnose — инструмент на базе LLM, который автоматически анализирует логи упавших интеграционных тестов, находит корневую причину и публикует краткий диагноз прямо в код-ревью. На выборке 71 реального сбоя из 39 команд точность определения причины составила 90.14%.
Claude Code changelog
1. Claude Code 2.1.113: нативный бинарник, sandbox-сети, ускоренный /ultrareview
Версия 2.1.113 (17 апреля) переводит CLI на запуск нативного бинарника Claude Code вместо бандлированного JavaScript — архитектурный сдвиг для лучшей производительности. Добавлена настройка sandbox.network.deniedDomains для блокировки доменов поверх разрешённых. /ultrareview теперь параллелизован и работает быстрее, /loop получил отмену по Esc. Исправлено 22 бага в сессиях, сабагентах и Remote Control.
2. Claude Code 2.1.111–2.1.112: Opus 4.7 xhigh, /ultrareview, автотема терминала
Версии 2.1.111–2.1.112 (17 апреля) добавляют уровень усилий Opus 4.7 xhigh через интерактивный слайдер /effort, команду /ultrareview для облачного код-ревью, тему «Auto (match terminal)» и постепенное развёртывание PowerShell tool на Windows. Auto mode стал доступен подписчикам Max при использовании Opus 4.7. Исправлена ошибка «claude-opus-4-7 is temporarily unavailable» в auto mode.
Anthropic
1. Claude Opus 4.7: общедоступен, уровень xhigh, redesign Claude Code desktop app
Claude Opus 4.7 стал Generally Available с улучшенным кодингом, высокоточным vision и поддержкой длительных агентных задач. Добавлен уровень усилий xhigh — между high и max. Одновременно выпущен полностью переработанный десктопный клиент Claude Code (Mac и Windows) и «Routines» в research preview: выполнение задач переносится в инфраструктуру Anthropic, не требуя открытого ноутбука.
2. Claude Mythos Preview: AI находит тысячи zero-day уязвимостей в крупнейших ОС
Anthropic опубликовала preview Claude Mythos2 — нераспространяемой фронтирной модели, превосходящей большинство людей в поиске и эксплуатации уязвимостей. С её помощью были выявлены тысячи zero-day в каждой крупной ОС и браузере. Модель стала частью инициативы Project Glasswing по защите критического ПО в эпоху AI.
3. Пользователи фиксируют деградацию производительности Claude — Anthropic молчит
Разработчики и активные пользователи сообщают о заметном снижении качества Claude: модель всё чаще игнорирует инструкции, делает срезки на сложных задачах и теряется в длинных workflow. По данным Fortune, причина — тихое снижение Anthropic уровня усилий по умолчанию в целях экономии токенов. Компания публично не комментирует изменения.