DeepSeek-R1 Veröffentlicht neue Trends in der KI-Industrie, Guo Mingzhi erklärt
die zukünftige Entwicklung
Neue Trends in der KI-Industrie durch die Veröffentlichung von DeepSeek-R1
Am 31. Januar berichtete der Analyst von Tianfeng International Securities, Guo Mingzhi, dass die Veröffentlichung von DeepSeek-R1 zwei wichtige neue Trends in der KI-Industrie ausgelöst hat. Diese Trends wären auch ohne die Veröffentlichung von DeepSeek-R1 schließlich deutlich hervorgetreten, aber die Veröffentlichung von DeepSeek-R1 hat den Prozess beschleunigt.
Trend 1: Wenn die Grenznutzen des Scaling Laws sinken, kann die Rechenleistung von KI weiterhin durch Optimierung der Trainingsmethoden wachsen
In den letzten 1-2 Jahren basierte die Investitionslogik der Investoren in der KI-Server-Lieferkette hauptsächlich auf dem Wachstum der Auslieferungen von KI-Servern unter der Annahme, dass das Scaling Law gültig bleibt. Allerdings, da die Grenznutzen des Scaling Laws allmählich sinken, beginnt der Markt, die signifikante Verbesserung der Modellleistung durch DeepSeek und deren Optimierung der Trainingsmethoden zu erkennen.
Das Scaling Law besagt, dass die Leistung eines KI-Modells durch die Anzahl der Modellparameter (N), die Trainingsdatengröße (D) und die Rechenleistung (C) bestimmt wird. Der ideale Fall ist, dass N, D und C gleichzeitig wachsen. Verschiedene Faktoren haben jedoch dazu geführt, dass die Grenznutzen des Scaling Laws verlangsamt wurden:
1. Menschlich erstellte Textdaten (D) sind fast erschöpft.
2. Ohne signifikante Verbesserung der Rechenleistung (C) oder der Erschöpfung der Trainingsdaten (D) führt eine Erhöhung der Modellparameter (N) nicht zu einer signifikanten Leistungssteigerung.
3. Die Rechenleistung (C) lässt sich kurzfristig nicht wesentlich verbessern (z. B. das Blackwell-System wird noch nicht in großen Mengen produziert, Begrenzungen der Stromversorgung usw.).
Aus einer industriellen Forschungs-perspektive zeigt DeepSeek-R1, wie man durch die Optimierung von Trainingsmethoden die Modelleffizienz erheblich verbessert, was darauf hinweist, dass die Optimierung von Trainingsmethoden hilft, die Rechenleistung der KI weiter zu steigern und neue Anwendungen zu erschließen, selbst wenn die Grenznutzen des Scaling Laws sinken.
Trend 2: API/Token-Preise sinken signifikant und fördern die Diversifizierung von KI-Anwendungen
Derzeit basiert das Geschäftsmodell der KI-Industrie hauptsächlich auf dem Verkauf von Werkzeugen und der Senkung der Kosten, anstatt auf der Schaffung neuer Geschäftsmodelle oder der Steigerung des Mehrwerts bestehender Geschäftsmodelle. DeepSeek-R1 verfolgt eine aggressive Preisstrategie, bietet kostenlose Nutzung und hat die API/Token-Preise auf weniger als 1/100 des Preises von OpenAI-o1 festgelegt. Dieser Wettbewerb könnte den Preis für die Nutzung von KI senken und die Diversifizierung der KI-Anwendungen beschleunigen.
Die Kosten für KI-Software/Dienste und Geräte-KI sinken durch den Rückgang der API/Token-Preise und die Optimierung der Trainingsmethoden, was die Nachfrage nach KI-Rechenleistung erhöht und Bedenken bei Investoren hinsichtlich der Rentabilität von KI-Investitionen verringert. Obwohl die Nutzung von KI aufgrund des Preisrückgangs steigt, bleibt abzuwarten, ob der Anstieg der Nutzung den Rückgang der Preise ausgleichen kann.
Schlussfolgerung
Das Scaling Law ist eine empirische Regel, und eine vernünftige Reduzierung der Erwartungen sowie ein rationaler Blick auf die langfristigen Investitionstrends sind vorteilhaft. Chip-Updates, die Verbesserung der Stromversorgungsengpässe und die Einbeziehung mehrerer multimodaler Daten in das Training werden dazu beitragen, die Grenznutzen des Scaling Laws erneut zu beschleunigen. Nur große Bereitsteller werden mit den sinkenden Grenznutzen des Scaling Laws konfrontiert werden, was wiederum die Führungsposition von Nvidia bestätigt.
In Anbetracht der offenen Community-Ressourcen und der wettbewerbsintensiven Umgebung in China wird erwartet, dass andere chinesische Unternehmen LLM mit besseren Ergebnissen und noch aggressiveren Preisen auf den Markt bringen werden. In diesem Fall wird der Druck auf LLM-Dienstanbieter steigen, stabile Gewinne zu erzielen, wenn diese noch nicht begonnen haben.
Durch den signifikanten Rückgang der API/Token-Preise werden KI-Software/Dienste und Geräte-KI mehr Investoren anziehen. Ob dies zu einer neuen langfristigen Investitionstrend wird, hängt davon ab, ob es gelingt, ein profitables Geschäftsmodell zu entwickeln.
Nvidia bleibt der Gewinner, wenn sich die Grenznutzen des Scaling Laws wieder beschleunigen, aber es ist wichtig, auf die kurzfristigen Produktionsprobleme von GB200 NVL72 und mögliche Änderungen der mittel- und langfristigen US-Semiconductor-Exportverbote zu achten.