Meta в тупике: провал Llama 4 и китайский прорыв

Когда Meta наконец-то представила свою новую серию моделей искусственного интеллекта Llama 4, ожидания были на высоте. Мощные, мультимодальные, с расширенным контекстом и потрясающими перспективами — так описывалась линейка. Но то, что мир увидел в действительности, оказалось не только разочарованием, но и поводом для серьёзных вопросов — не только о будущем Meta, но и о роли США в гонке за ИИ-гегемонию.

Meta сейчас переживает не просто сложный период — она оказалась на грани краха в ключевом для себя направлении. Искусственный интеллект — основа её выживания и стратегической линии развития. Но, судя по последнему релизу, компания не просто не оправдала ожиданий — она сдала позиции конкурентам, причём самым нежеланным.

И лидером в открытых ИИ теперь, похоже, становится не Америка.

Да, Llama 4 получилась настолько неоднозначной, что её называют не просто провалом — речь идёт о провале с рисками для национальной безопасности. Модель, которая должна была вернуть Meta на передовую, стала символом её отставания.

Что же произошло?

Начнём с фактов. Разработка Llama 4 заняла почти год — по ИИ-меркам это вечность. Meta тянула с релизом, обещая прорыв. В итоге представила три модели:

  • Llama 4 Scout — 17 миллиардов активных параметров, с 10-миллионным окном контекста и возможностью работать на одном GPU NVIDIA H100.
  • Llama 4 Maverick — та же активная мощность, но уже 128 экспертов и 400 миллиардов параметров, рассчитана на сервер из 8 H100.
  • Llama 4 Behemoth — пока в обучении, обещает до 2 триллионов параметров, но уже сейчас ясно, что это — учительская модель, а не продукт для широкой аудитории.

На бумаге звучит впечатляюще. Но что происходит на практике?

Сначала всё выглядело обнадёживающе. Maverick показал отличные результаты на LMArena — крупнейшей пользовательской платформе для оценки ИИ. На других бенчмарках — тоже успех. Особенно в задачах программирования и уровня PhD.

Но затем наступил момент истины — модели начали тестировать реальные пользователи. И началось…

Обвинения в подтасовках. Подозрения в обучении на тестовых наборах. Падение точности до 15% при увеличении контекста до 100k токенов, хотя заявлено в сто раз больше. И, наконец, самый болезненный удар: прошлое поколение Llama 3, доработанное сторонними разработчиками, работает лучше, чем новейшая Llama 4.

Meta обвиняют в том, что они представили специально подогнанную под LMArena версию модели, не сообщив об этом открыто. Это, мягко говоря, неэтично, а по меркам ИИ-сообщества — почти измена. Ведь задача тестов — проверить, умеет ли модель обобщать, а не просто запомнила ли она датасеты. Если же модель “знает” тесты заранее — вся её ценность стремится к нулю.

Картину дополняет провал в работе с длинными контекстами. Хотя Scout якобы способен обрабатывать до 10 миллионов токенов, при реальных тестах на 100k модель сыплется. Проще говоря, это не просто завышенные ожидания — это обман.

Технологически Meta проиграла. И это не просто технический сбой — это признак более глубокой проблемы. Компания опоздала с внедрением архитектуры Mixture-of-Experts — стандартом среди лидеров индустрии. Когда OpenAI, Google и китайский DeepSeek строили свои модели на основе экспертов, Meta продолжала использовать плотную архитектуру.

Результат? Им пришлось срочно переделывать Llama 4, копируя архитектуру DeepSeek v3. Да, копируя китайскую модель. И всё равно результат оказался хуже.

Ситуация настолько драматична, что ключевые фигуры Meta уже покинули компанию — в том числе вице-президент по ИИ-исследованиям.

Но на этом провалы не заканчиваются. Llama 4 не предназначена для потребительского железа. И хотя Meta раньше гордилась своей открытостью, сегодня даже самый мощный пользовательский ПК не способен запустить новую модель. Тем самым компания предаёт философию open-source, которую сама же и продвигала.

Именно эта философия была ключом к стратегии Meta: не продавать ИИ напрямую, а создать экосистему, где Llama — основа ИИ-приложений, а разработчики по всему миру сами дорабатывают модели, создавая вокруг Meta круг непрерывного улучшения. Теперь этот круг разорван.

На фоне всего этого Китай стремительно набирает очки. Три из семи ведущих ИИ-лабораторий мира — китайские, и они все придерживаются открытого подхода. В то время как США, наоборот, закрываются — и проигрывают. Meta была единственной американской компанией, державшей флаг open-source. После её провала он валяется в пыли.

Пока китайские компании обмениваются знаниями, делятся достижениями и помогают друг другу, западные гиганты прячут наработки и боятся утечки интеллектуальной собственности. Но именно благодаря взаимному обмену китайские модели становятся всё лучше — и через несколько месяцев именно они будут лучшими в мире.

Что дальше? Сценарий пугающий: американские университеты и лаборатории начинают использовать китайские модели — просто потому, что они лучше. Китай получает рычаг влияния на глобальную науку, а США — зависимость. Это уже не просто технологическое отставание — это угроза национальной безопасности.

И если США попытаются запретить китайские модели, они не только не остановят отставание, но ещё и отрежут своих же граждан от лучших технологий. Вместо этого нужен диалог, сотрудничество и — самое главное — срочная реформа подхода к ИИ.

Meta должна проснуться. США должны проснуться. Иначе, впервые за два столетия, технологическая революция пройдёт мимо Запада — и всё, что останется, это наблюдать за восточным восходом издалека.

Напоминаю, что Meta признана экстремистской организацией и запрещена на территории Российской Федерации.

***

✨ А что думаете вы? ✨

Делитесь мыслями в комментариях — ваше мнение вдохновляет нас и других!

Следите за новыми идеями и присоединяйтесь:

Наш сайт — всё самое важное в одном месте

Дзен — свежие статьи каждый день

Телеграм — быстрые обновления и анонсы

ВКонтакте — будьте в центре обсуждений

Одноклассники — делитесь с близкими


Ваш отклик помогает нам создавать больше полезного контента. Спасибо, что вы с нами — давайте расти вместе! 🙌

Оставьте комментарий