DeepSeek-R1 запуск приводит к новым трендам в индустрии ИИ, Го Минчжи объясняет будущее развитие

Новые тренды в индустрии ИИ, вызванные запуском DeepSeek-R1
31 января аналитик Tianfeng International Securities Го Минчжи опубликовал отчет, в котором указал, что запуск DeepSeek-R1 привел к появлению двух важных новых трендов в индустрии ИИ. Эти тренды все равно стали бы очевидными, даже без появления DeepSeek-R1, однако запуск ускорил их развитие.
Тренд 1: Когда предельная отдача от закона масштабирования замедляется, вычислительная мощность ИИ может продолжать расти за счет оптимизации методов обучения
В последние 1-2 года инвестиционная логика инвесторов в цепочку поставок ИИ-серверов основывалась на устойчивом росте отгрузок ИИ-серверов в рамках закона масштабирования. Однако, поскольку предельная отдача от закона масштабирования постепенно уменьшается, рынок начинает фокусироваться на том, как DeepSeek значительно улучшает эффективность моделей с помощью других методов.
Закон масштабирования утверждает, что производительность модели ИИ зависит от количества параметров модели (N), объема обучающих данных (D) и вычислительных мощностей (C), при этом оптимальный случай — это одновременное увеличение N, D и C. Однако несколько факторов привели к замедлению предельной отдачи от закона масштабирования:
1. Текстовые данные, созданные человеком (D), почти исчерпаны.
2. Без значительного улучшения вычислительных мощностей (C) или исчерпания обучающих данных (D) увеличение параметров модели (N) не приводит к значительному улучшению производительности модели.
3. Вычислительные мощности (C) в краткосрочной перспективе трудно значительно улучшить (например, система Blackwell еще не произведена массово, ограничения энергоснабжения и т. д.).
С точки зрения индустриальных исследований, DeepSeek-R1 показал, как оптимизация методов обучения может значительно улучшить эффективность моделей, что указывает на то, что оптимизация методов обучения помогает продолжить рост вычислительных мощностей ИИ и открывает новые приложения, даже если предельная отдача от закона масштабирования снижается.
Тренд 2: Существенное снижение цен на API/Token способствует диверсификации приложений ИИ
В настоящее время бизнес-модель индустрии ИИ в основном основана на продаже инструментов и снижении затрат, а не на создании нового бизнеса или повышении добавленной стоимости существующего бизнеса. DeepSeek-R1 использует агрессивную ценовую стратегию, предлагая бесплатное использование, при этом цены на API/Token составляют менее 1/100 от цен OpenAI-o1. Эта конкурентная ситуация может привести к снижению стоимости использования ИИ и ускорению диверсификации приложений ИИ.
Стоимость программного обеспечения и услуг ИИ, а также устройств ИИ снижается благодаря снижению цен на API/Token и оптимизации методов обучения, что способствует увеличению спроса на вычислительные мощности ИИ и снижает сомнения инвесторов относительно прибыльности инвестиций в ИИ. Несмотря на рост использования ИИ из-за снижения цен, пока не ясно, сможет ли рост использования компенсировать снижение цен.
Заключение
Закон масштабирования является эмпирическим правилом, и разумное снижение ожиданий и рациональный взгляд на долгосрочные инвестиционные тренды благоприятно сказываются на долгосрочных тенденциях. Обновления чипов, улучшение ограничений энергоснабжения и включение дополнительных мультимодальных данных в обучение могут помочь вновь ускорить предельную отдачу от закона масштабирования. Только крупные развертыватели столкнутся с замедлением предельных эффектов закона масштабирования, что снова подтверждает ведущую роль Nvidia.
С учетом открытых ресурсов сообщества и конкурентной среды в Китае ожидается, что другие китайские компании выпустят LLM с лучшими результатами и более агрессивным ценообразованием. В этом случае, если поставщики услуг LLM еще не начали стабильно зарабатывать, давление на них для достижения прибыльности значительно возрастет.
Благодаря значительному снижению цен на API/Token, программное обеспечение и услуги ИИ, а также устройства ИИ привлекут больше инвесторов. Сможет ли это стать новой долгосрочной инвестиционной тенденцией, зависит от того, смогут ли они создать прибыльную бизнес-модель.
Nvidia по-прежнему остается победителем, когда предельная отдача от закона масштабирования снова ускорится, однако стоит обратить внимание на проблемы с массовым производством GB200 NVL72 в краткосрочной перспективе и возможные изменения в долгосрочной перспективе в отношении запретов на экспорт полупроводников из США.