1.TSMC hat die Versorgung eingestellt,16 und 14nm und darunter Prozesse sind streng begrenzt
TSMC hat vor kurzem eine Reihe von strengen Lieferbeschränkungen für IC-Designer in Festlandchina verhängt, insbesondere für Produkte im 16/14nm-Prozess.
Die Entscheidung steht in engem Zusammenhang mit den jüngsten Exportkontrollvorschriften des Bureau of Industry and Security (BIS) des US-Handelsministeriums. Gemäß dieser neuen Regelung werden ab dem 31. Januar 2025 Produkte mit einem Prozess von 16/14nm und darunter, die nicht unter "genehmigten OSAT" in der BIS-Weißliste verpackt sind und TSMC keine zertifizierte, unterzeichnete Kopie der Verpackungsanlage erhält, von der Auslieferung ausgeschlossen.
TSMC wird für Chipdesigner produzieren, die bereits auf der BIS-Weißliste stehen. Für Chipdesigner, die nicht auf der BIS-Weißliste stehen (einschließlich Unternehmen auf dem Festland und im Ausland), muss ein Antrag beim US-Handelsministerium gestellt werden, oder das endgültige Paket muss an die genehmigte OSAT-Liste zur Siegelprüfung weitergeleitet werden. Wenn das versiegelte OSAT nicht in der weißen Liste enthalten ist, wird TSMC die Lieferung aussetzen.
Nach der jüngsten BIS-Liste wurden 33 IC-Design-Unternehmen zugelassen, die zu den bekannten westlichen Halbleiterunternehmen gehören.
Da DeepSeek effiziente KI-Modelle wie DeepSeek-V3 und DeepSeek-R1 herausbringt, werden sich die Endkunden mehr auf die Rationalität der KI-Infrastruktur konzentrieren und ihre Abhängigkeit von Hardware wie Gpus zugunsten effizienter Software-Computing-Modelle verringern, so die neueste Studie von Jibang Consulting. Gleichzeitig werden CSPS wahrscheinlich verstärkt ihre eigene ASIC-Infrastruktur nutzen, um Kosten zu senken. Es wird erwartet, dass sich die Nachfrage nach GPU-Chips in der KI-Branche nach 2025 ändern wird und sich Chinas KI-Markt auf die Entwicklung unabhängiger KI-Chips und Software-Optimierung konzentrieren wird, um sich an die veränderte internationale Situation anzupassen, die Bedürfnisse des heimischen Rechenzentrumsbaus zu erfüllen und die Diversifizierung und Kommerzialisierung von KI-Anwendungen zu fördern.
2.Reuters: OpenAI wird das Design seines ersten selbstentwickelter KI-Chip noch in diesem Jahr für die Massenproduktion nächstes Jahr
Der ChatGPT-Entwickler wird das Design seines ersten eigenen Chips in den kommenden Monaten fertigstellen und plant, es zur Herstellung an TSMC zu schicken, so Quellen gegenüber Reuters. Der Prozess, bei dem das erste Design an eine Wafer-Gießerei zur Fertigung geschickt wird, wird als "Flow Sheet" bezeichnet. OpenAI und TSMC lehnten eine Stellungnahme ab. Die jüngsten Nachrichten deuten darauf hin, dass OpenAI auf dem besten Weg ist, sein Ziel der Massenproduktion bei TSMC bis 2026 zu erreichen. Typische Streamer kosten mehrere zehn Millionen Dollar und brauchen etwa sechs Monate, um einen fertigen Chip herzustellen, es sei denn, OpenAI zahlt mehr, um die Herstellung zu beschleunigen.
OpenAI in den Vereinigten Staaten kooperiert bei selbst entwickelten KI-Chips wie folgt:
- Zusammenarbeit mit Broadcom: Als ein weltweit führendes Halbleiterunternehmen verfügt Broadcom über reiche Erfahrung im Chipdesign. OpenAI arbeitet seit einigen Monaten mit Broadcom zusammen, um sich auf die Entwicklung von Inferenzchips zu konzentrieren. Broadcom hat OpenAI bei der Anpassung des Chipdesigns an die Produktionsanforderungen geholfen und die Designelemente des Chips optimiert, um Informationen schneller zwischen Chips und Systemen zu übertragen, was für die Zusammenarbeit vieler Chips in großen KI-Systemen entscheidend ist.
- Zusammenarbeit mit TSMC: Als weltweit größte Halbleiter-Foundry ist TSMC ein wichtiger Partner für OpenAI bei der Herstellung seiner Chips. OpenAIs erster selbst entwickelter Chip wurde mit dem A16-Prozess von TSMC vorbestellt, um den KI-Chip herzustellen, der speziell für Sora-Videoanwendungen entwickelt wurde. OpenAI, das über Broadcom Fertigungskapazitäten bei TSMC gefunden hat, plant, seinen ersten kundenspezifischen Chip im Jahr 2026 zu bauen, wobei sich der Zeitplan noch ändern kann.
- Partnerschaft mit AMD: OpenAI plant, AMD-Chips über Microsofts Cloud-Dienst Azure zu nutzen und seine Trainings- und Inferenz-Workloads mit AMDs neuem MI300X-Chip zu diversifizieren, um seine Abhängigkeit von Nvidia weiter zu verringern.
3. Wachstum in der Gießereiindustrie verlangsamt sich bis 2025 auf 20%, mit KI und fortschrittlichen Prozessen als Haupttreiber
Laut der Prognose von Counterpoint Research könnte die Wachstumsrate der Chip-Foundry-Branche im Jahr 2025 20 Prozent erreichen, vor allem angeführt von TSMC und kleineren Wettbewerbern, die die KI-Welle mitgenommen haben. Die Prognose zeigt eine leichte Verlangsamung des Wachstums gegenüber dem letzten Jahr. Das Foundry-Segment der Chipindustrie wuchs 2024 um 22 Prozent und profitierte dabei vor allem von einer Erholung nach einem Abschwung im Jahr 2023, so das Analystenhaus.
Adam Chang, Analyst bei Counterpoint, sagte gegenüber EE Times, einer Schwesterplattform von EBusiness: "Wir gehen davon aus, dass die Gesamtauslastung der Foundries im Jahr 2025 bei etwa 80 Prozent liegen wird, wobei die Auslastung der fortgeschrittenen Knoten höher ist als die der ausgereiften Knoten. Angetrieben durch Chinas Lokalisierungsbestrebungen wird die Nachfrage von Foundries mit ausgereiften Knoten im Land voraussichtlich stärker sein als die ihrer nicht-chinesischen Pendants."
Chang wies auch darauf hin, dass die Auslastungsrate der fortgeschrittenen Knoten (5/4 nm und 3 nm) in der Branche bei über 90 Prozent liegen dürfte, da TSMC weiterhin von der Nachfrage nach High-End-Smartphones und einem Anstieg der KI-bezogenen Aufträge von Hyperscale-Unternehmen profitieren wird. Unter Hyperscale verstehen wir Unternehmen wie Amazon, Microsoft und Google, die eine breite Palette von Cloud-Computing- und Datendiensten anbieten.
Nach der Prognose von Counterpoint, nach 2025, die Gießerei-Industrie wird voraussichtlich ein stetiges Wachstum, von 2025 bis 2028, die durchschnittliche jährliche Wachstumsrate wird sich auf 13%-15%.
Dieses langfristige Wachstum ist dem Bericht zufolge hauptsächlich auf die Entwicklung fortschrittlicher Knotentechnologien bei 3 nm, 2 nm und darunter sowie auf die beschleunigte Einführung fortschrittlicher Verpackungstechnologien wie CoWoS und 3D-Integration zurückzuführen. Diese technologischen Fortschritte werden in den nächsten drei bis fünf Jahren die Haupttreiber des Branchenwachstums sein, hauptsächlich angetrieben durch die wachsende Nachfrage nach Hochleistungscomputern und Anwendungen der künstlichen Intelligenz. Counterpoint ist der Ansicht, dass TSMC weiterhin die Branche anführen und seine technologischen Stärken nutzen wird, um Branchentrends zu gestalten.
TSMC hat einen Anteil von mehr als 60 Prozent am weltweiten Markt für Auftragsfertigung, gefolgt von Samsung und Intel. Es wird erwartet, dass TSMC im Jahr 2025 zwischen $38 Mrd. und $42 Mrd. US-Dollar für Investitionen ausgeben wird, gegenüber $29,8 Mrd. US-Dollar im vergangenen Jahr.
Prognosen des Branchenverbands SEMI zufolge werden die Chip-Foundries auch weiterhin den Kauf von Halbleiteranlagen dominieren. Es wird erwartet, dass die Foundry-Industrie ihre Kapazitäten in diesem Jahr mit einer jährlichen Rate von 10,9 Prozent ausbaut und von 11,3 Millionen Wafern pro Monat im Jahr 2024 auf einen Rekordwert von 12,6 Millionen Wafern im Jahr 2025 ansteigt, so die Gruppe.
4. Der Umsatz von Smic stieg im Jahr 2024 um fast 30% auf erstmals über $8 Mrd. US-Dollar, und die Umsatzprognose des Unternehmens für 2025 übertrifft die der Wettbewerber
Smic veröffentlichte ungeprüfte Ergebnisse für das vierte Quartal 2024 nach Börsenschluss am 11. Februar.
Der Ankündigung zufolge belief sich der Umsatz von SMIC im vierten Quartal 2024 auf 15,917 Milliarden Yuan, was einem Anstieg von 31 Prozent gegenüber dem Vorjahr und 1,7 Prozent gegenüber dem Vorquartal entspricht. Für das gesamte Jahr 2024 belief sich der Umsatz von SMIC auf 57,796 Mrd. Yuan ($8,03 Mrd.), was einem Anstieg von 27,7 Prozent gegenüber dem Jahr 2023 entspricht und das erste Mal ist, dass der Jahresumsatz von SMIC $8 Mrd. übersteigt.
Im Jahr 2024 lag die durchschnittliche Kapazitätsauslastung von SMIC bei 85,6 Prozent. Wie SMIC-Co-CEO Zhao Haijun jedoch bereits erwartet hatte, wurden die Kapazitätsauslastung und das Liefervolumen in diesem Quartal durch die neuen Kapazitäten im vierten Quartal 2024 und die für die Überprüfung der entsprechenden Kapazitäten erforderliche Zeit beeinträchtigt.
Die Ankündigung zeigt, dass seine monatliche Produktionskapazität ab dem Ende des dritten Quartals 2024 884.200 Stück entspricht 8 Zoll von Standard-Logik, weiter auf das Ende des vierten Quartals 2024 947.600 Stück erhöht.
Die Kapazitätsauslastung sank im 4. Quartal auf 85,5% von 90,4% im 3. Quartal; im 4. Quartal wurden 1,99 Millionen Wafer, die einer 8-Zoll-Standardlogik entsprechen, verkauft, was einem Rückgang von 6,1% gegenüber dem Vorquartal entspricht
Infolge der Eröffnung des neuen Werks beliefen sich die Investitionsausgaben von SMIC im vierten Quartal 2024 auf $1,66 Mrd. USD, was einem Anstieg von etwa $480 Mio. USD gegenüber dem dritten Quartal entspricht. Für das gesamte Jahr 2024 beliefen sich die Investitionsausgaben von SMIC auf etwa $7,33 Mrd. US.
Die entsprechenden Kapitalabschreibungen stiegen ebenfalls, wobei die Abschreibungen im vierten Quartal 2024 $849 Millionen US-Dollar betrugen, was einem Anstieg von 2,2 Prozent gegenüber dem Vorquartal entspricht. Die Abschreibungen für das Gesamtjahr 2024 stiegen im Vergleich zum Vorjahr um 21,3 Prozent.
Auf der Umsatzseite nach Regionen hat die Bedeutung des chinesischen Marktes für SMIC weiter zugenommen. Der Umsatzanteil Chinas in Q4 2024 stieg weiter auf 89,1% von 86,4% in Q3. Andererseits ist der Marktanteil der Vereinigten Staaten und Eurasiens zurückgegangen.
22/28nm, 40nm Prozesse sind weniger betroffen, während 55nm und höhere Prozesse relativ stark betroffen sind. Aufgrund der Anforderungen der Chipdesign-Industrie an die Prozessreife, die Stabilität der Kapazitätsversorgung usw. haben größere Fabriken erhebliche Vorteile bei der Auftragsakquisition.
Die Analyse geht davon aus, dass KI im Jahr 2025 ein wichtiger Pull-Faktor für die Nachfrage der Wafer-Foundries sein wird.
5. DeepSeek auf dem Bildschirm, Chinas großes Modell rührt den See der KI in Übersee
Laut öffentlichen Informationen wurde DeepSeek, ein chinesisches KI-Startup, im Mai 2023 gegründet und ist ein großes Modell-Startup. Nur ein halbes Jahr nach der Gründung brachte DeepSeek den DeepSeek Coder auf den Markt, ein kostenloses, kommerzielles, vollständig quelloffenes Großmodell mit Code. Im Mai 2024 machte das Unternehmen mit der Veröffentlichung von DeepSeek V2 von sich reden, einem Open-Source-Modell, das die Kosten der Inferenz um fast das Hundertfache reduzierte.
Am 27. Dezember 2024 veröffentlichte DeepSeek sein Open-Source-Modell DeepSeek V3.
Zu diesem Zeitpunkt belegte DeepSeek-V3 den siebten Platz unter allen Modellen und den ersten Platz unter den Open-Source-Modellen in der Arena der großen ausländischen Modelle. Außerdem war DeepSeek-V3 das kostengünstigste Modell unter den weltweiten Top 10.
Am 20. Januar 2025 öffnete DeepSeek offiziell die Quellen für das Inferenzmodell R1. Leistungsanpassung OpenAI-o1, die offizielle Version von DeepSeek-R1 verwendet in der Post-Trainings-Phase in großem Umfang Reinforcement-Learning-Technologie, die die Schlussfolgerungsfähigkeit des Modells im Falle von sehr wenigen gelabelten Daten erheblich verbessert. Bei Mathematik, Code, natürlichem Sprachverständnis und anderen Aufgaben ist die Leistung vergleichbar mit OpenAI o1.
Die Veröffentlichung von DeepSeek R1 markiert nach allgemeiner Auffassung einen wichtigen Wendepunkt in der Forschung zur Inferenzmodellierung, die bisher ein wichtiger Bereich der industriellen Forschung war, für die jedoch eine bahnbrechende Arbeit fehlte. So wie AlphaGo das Verstärkungslernen nutzte, um unzählige Go-Partien zu spielen und seine Strategie zu optimieren, um zu gewinnen, nutzt DeepSeek denselben Ansatz, um seine Fähigkeiten zu steigern. 2025 könnte also das erste Jahr des Verstärkungslernens sein.
Am 24. Januar ist der DeepSeek R1 Benchmark auf den dritten Platz in der Gesamtkategorie der großen Modelle bei Arena aufgestiegen, wo er mit OpenAI o1 in der Kategorie StyleCtrl auf dem ersten Platz liegt. Sein Arena-Score erreichte 1357 Punkte und übertraf damit leicht die 1352 Punkte von OpenAI o1.
DeepSeek-V3 hat das Training des 671-Milliarden-Parameter-Modells mit nur 2.048 H800-GPUs zu Kosten von nur $5,576 Millionen abgeschlossen, weit weniger als die Trainingskosten anderer Spitzenmodelle.
Als Referenzpunkt veröffentlichten Forscher der Stanford University und Epoch AI Mitte letzten Jahres eine Studie, die besagt, dass die größten Modelle bis 2027 mehr als $1 Milliarde für ihr Training kosten werden. Darüber hinaus prognostiziert das unabhängige Marktforschungsunternehmen Gartner, dass Hyperscale-Unternehmen wie Google, Microsoft und AWS bis 2028 bis zu $500 Milliarden allein für KI-Server ausgeben werden.
Daher sind viele Unternehmen der Ansicht, dass die niedrigen Kosten von DeepSeek bedeuten, dass sich die Nachfrage nach Investitionen in die Rechenleistung für große Modelle vom Training hin zum schlussfolgernden Denken verlagern könnte, d. h. die Nachfrage nach schlussfolgernder Rechenleistung wird in Zukunft die Hauptantriebskraft sein. Die traditionellen Vorteile von Hardwareanbietern wie Nvidia konzentrieren sich mehr auf die Trainingsseite, was sich auf ihre Marktposition und strategische Ausrichtung auswirken kann.
Yann Lecun, leitender KI-Wissenschaftler bei Meta, erklärte, die Einführung von DeepSeek-R1 bedeute nicht, dass chinesische Unternehmen US-Unternehmen im Bereich der KI überholen, sondern dass große Open-Source-Modelle geschlossene Quellen übertreffen.