1.TSMCは供給を打ち切った、16および14nm以下 プロセスは厳しく制限されている
TSMCは最近、中国本土の集積回路(IC)設計会社、特に16/14nmプロセス製品に対して一連の厳しい供給制限を課している。
この決定は、米国商務省産業安全保障局(BIS)が発表した最新の輸出規制と密接に関連している。この新規制によると、2025年1月31日以降、プロセス16/14nm以下の関連製品がBISホワイトリストの「承認されたOSAT」の下でパッケージングされておらず、TSMCがパッケージング工場の署名入り証明書を受け取らない場合、これらの製品は出荷停止となる。
TSMCは、すでにBISホワイトリストに掲載されているチップ設計者のために製造する。BISホワイトリストに掲載されていないチップ設計者(本土企業および外国企業を含む)については、米国商務省に申請書を提出するか、最終パッケージを承認OSATリストに転送して封印テストを受ける必要があります。最終的に封印されたOSATがホワイトリストに含まれていない場合、TSMCは出荷を停止する。
最新のBISリストによると、33社のIC設計会社が承認されており、これらの会社は欧米の有名半導体企業である。
Jibang Consultingの最新調査によると、DeepSeekがDeepSeek-V3やDeepSeek-R1といった効率的なAIモデルをリリースするにつれて、エンドユーザーはAIインフラの合理性をより重視し、Gpusなどのハードウェアへの依存を減らして効率的なソフトウェア・コンピューティング・モデルを採用するようになるという。同時に、CSPSはコスト削減のために独自のASICインフラの利用を拡大する可能性が高い。2025年以降、AI産業におけるGPUチップの需要は変化し、中国のAI市場は、国際情勢の変化に適応し、国内のデータセンター建設のニーズに応え、AIアプリケーションの多様化と商業化を促進するため、独立したAIチップの開発とソフトウェアの最適化に注力すると予想される。
2.ロイターOpenAIは最初の設計を完了する 自社開発AIチップ、今年量産へ 来年
情報筋がロイターに語ったところによると、ChatGPT開発企業は今後数ヶ月のうちに最初の自社製チップの設計を確定し、製造のためにTSMCに送る予定だという。最初のデザインを製造のためにウェハファウンドリーに送るプロセスは、"フローシート "と呼ばれる。OpenAIとTSMCはコメントを拒否した。今回のニュースは、OpenAIが2026年までにTSMCで量産するという目標に到達しそうだということを示している。一般的なストリーマは数千万ドルかかり、完成したチップを製造するのに約6カ月かかる。
米国のOpenAIは、自社開発のAIチップで次のような協力を行っている:
- ブロードコムとの協力ブロードコムは世界有数の半導体企業として、チップ設計に豊富な経験を有している。OpenAIは数カ月前からブロードコムと協力し、推論チップの開発に注力している。ブロードコムは、OpenAIがチップの設計を製造ニーズに適合させるのを支援し、チップの設計要素を最適化してチップとシステム間の情報転送を高速化しました。
- TSMCとの協業:世界最大の半導体ファウンドリとして、TSMCはOpenAIのチップ製造における重要なパートナーである。OpenAIの最初の自社開発チップは、TSMCのA16プロセスで予約注文され、Soraビデオアプリケーション専用に作られたAIチップを製造した。ブロードコムを通じてTSMCと製造能力を確認したOpenAIは、2026年に最初のカスタムチップを製造する予定だが、スケジュールは変更される可能性がある。
- AMDとの提携:OpenAIは、マイクロソフトのAzureクラウドサービスを通じてAMDのチップを使用し、AMDの新しいMI300Xチップでトレーニングと推論のワークロードを多様化し、Nvidiaへの依存度をさらに下げる計画だ。
3. ファウンドリーの成長鈍化、2025年には20%に AIと先端プロセスが牽引役
カウンターポイント・リサーチの予測によると、2025年のチップファウンドリーの成長率は20%に達する可能性があり、主にTSMCとAIの波に乗った中小の競合企業が牽引する。同予測では、昨年より若干成長が鈍化している。チップ業界のファウンドリー部門は2024年に22%成長し、主に2023年の落ち込みからの回復の恩恵を受けるとアナリストハウスは述べている。
CounterpointのアナリストAdam Chang氏は、EBusinessの姉妹プラットフォームであるEE Timesに次のように語った:「2025年にはファウンドリ全体の稼働率は約80%になり、先端ノードの稼働率が成熟ノードよりも高くなると予想している。中国の国産化努力に後押しされ、国内の成熟ノードファウンドリからの需要は、中国以外のファウンドリよりも強いと予想される"
チャン氏はまた、TSMCが引き続きハイエンドのスマートフォン需要やハイパースケール企業からのAI関連の注文急増の恩恵を受けていることから、先端ノード(5/4nmおよび3nm)の業界稼働率は90%以上を維持する見込みであると指摘した。ハイパースケールとは、アマゾン、マイクロソフト、グーグルなど、幅広いクラウドコンピューティングやデータサービスを提供する企業を指す。
カウンターポイントの予測によると、2025年以降、鋳造業界は安定した成長を維持し、2025年から2028年までの年平均成長率は13%-15%に鈍化すると予想される。
この長期的な成長は、主に3nm、2nm以下の先端ノード技術の開発と、CoWoSや3D集積などの先端パッケージング技術の採用加速によるものである、と同レポートは述べている。これらの技術進歩は、主にハイパフォーマンス・コンピューティングと人工知能アプリケーションの需要拡大によって、今後3~5年の業界成長の主な原動力となるだろう。カウンターポイントは、TSMCがその技術的な強みを活かして業界のトレンドを形成し、業界をリードし続けるとみている。
TSMCは世界の受託製造市場の60%以上を占めており、サムスン、インテルがこれに続く。TSMCは2025年の設備投資に昨年の$298億ドルから$380億ドルから$420億ドルを投じると予想されている。
業界団体SEMIの予測によると、チップファウンドリーが半導体装置購入の中心を占め続ける。同団体によると、ファウンドリー業界は今年、年率10.9%で生産能力を増強し、2024年の月産1130万枚から2025年には過去最高の1260万枚になると予想されている。
4. スミックの2024年の売上高は30%近く増加し、初めて$80億米ドルを超えた。
スミックは2月11日の市場終了後、2024年第4四半期の未監査決算を発表した。
発表によると、SMICの2024年第4四半期の売上高は約159億1700万元で、前年同期比31%増、前四半期比1.7%増となった。通年では、SMICの2024年の売上高は577億9600万元($80億3000万円)で、2023年比で27.7%増加し、SMICの年間売上高が初めて$80億円を超えた。
2024 年の SMIC の平均稼働率は 85.6%であった。しかし、SMIC の共同 CEO である Zhao Haijun 氏が予期していた通り、2024 年第 4 四半期に新たな生産能力が追加され、それに対応する生産能力を検証するために時間を要したため、当四半期の生産能力稼働率と出荷量は影響を受けた。
発表によると、2024年第3四半期末からの月産能力は884,200枚(標準ロジック8インチ相当)で、さらに2024年第4四半期末には947,600枚に増加する。
稼働率は第3四半期の90.4%から第4四半期は85.5%に低下、第4四半期の8インチ標準ロジックに相当するウェーハ販売枚数は199万枚で、前四半期から約6.1%減少した
新工場開設の結果、SMIC の 2024 年第 4 四半期の資本支出は、第 3 四半期から約 $4.8 億 US ドル増加し、16.6 億 US ドルとなった。2024 年通年の設備投資額は約 $73 億 3,000 万米ドルである。
対応する資本の減価償却費および償却費も増加し、2024年第4四半期の減価償却費および償却費は前四半期比2.2%増の$849百万米ドルとなった。2024年通年の減価償却費は前年比21.3%増となった。
収益面では、地域別にみると、SMICにとっての中国市場の重要性がさらに高まっている。2024 年第 4 四半期における中国の売上高シェアは、第 3 四半期の 86.4% から 89.1% にさらに増加した。一方、米国とユーラシアの市場シェアは低下した。
22/28nm, 40nm プロセスはあまり影響を受けないが、55nm 以上のプロセスは比較的大きな影響を受ける。プロセス成熟度、生産能力供給の安定性などチップ設計業界の要求により、大規模ファブは受注獲得において大きな優位性を持っている。
同分析では、AIが2025年のウェーハファウンドリー需要の重要な牽引要因になると見ている。
5. ディープシークがスクリーンに登場、中国の大型モデルが海外のAIレイクをかき回す
公開情報によると、中国のAIスタートアップであるDeepSeekは2023年5月に設立された大型モデルのスタートアップである。創業からわずか半年後、DeepSeekは無料商用、完全オープンソースの大型モデルコード「DeepSeek Coder」を発表した。2024年5月には、推論コストを約100倍に削減したオープンソースモデル「DeepSeek V2」をリリースし、その名を馳せた。
2024年12月27日、ディープシークはオープンソースモデル「DeepSeek V3」を発表した。
当時、DeepSeek-V3は海外大型モデルランキングアリーナで全モデル中7位、オープンソースモデル中1位を獲得。さらに、DeepSeek-V3はグローバルトップ10の中で最もコストパフォーマンスの高いモデルであった。
2025年1月20日、DeepSeekは推論モデルR1を正式にソース公開した。性能はOpenAI-o1に匹敵し、DeepSeek-R1の正式版では、学習後の段階で大規模な強化学習技術を使用しており、ラベル付けされたデータが非常に少ない場合にモデルの推論能力を大幅に向上させている。数学、コード、自然言語推論などのタスクでは、OpenAI o1と同等のパフォーマンスを発揮する。
ディープシークのR1リリースは、推論モデリング研究の重要な転換点になると広く信じられている。これまで、推論モデリング研究は産業研究の重要な分野であったが、決定的な論文がなかった。アルファ碁が強化学習を使って無数の囲碁の対局を行い、勝つための戦略を最適化したように、ディープシークも同じアプローチで能力を高めているため、2025年は強化学習元年になるかもしれない。
1月24日、DeepSeek R1ベンチマークは、Arenaの大型モデルの総合部門で3位に浮上し、StyleCtrl部門でOpenAI o1と同率1位となった。Arenaのスコアは1357点に達し、OpenAI o1の1352点をわずかに上回った。
DeepSeek-V3は、わずか2,048基のH800Gpusを使用して6,710億パラメータモデルの学習を完了し、そのコストはわずか$575万6,000ドルで、他のトップモデルの学習コストをはるかに下回りました。
参考までに、スタンフォード大学とエポックAIの研究者は昨年半ばに、最大規模のモデルは2027年までにトレーニングに$10億円以上かかるという研究結果を発表している。また、第三者調査会社のガートナーは、グーグル、マイクロソフト、AWSのようなハイパースケール企業は、2028年までにAIサーバーだけに$5,000億円も費やすだろうと予測している。
そのため、DeepSeekの低コスト化は、大規模モデルへのコンピューティングパワー投資の需要が、トレーニング横並びの推論から傾く可能性があること、つまり、推論コンピューティングパワーへの需要が今後の主な原動力になると多くの企業が考えている。Nvidiaのようなハードウェアベンダーの伝統的な利点は、よりトレーニング側に集中しており、これは彼らの市場での地位と戦略的レイアウトに影響を与える可能性があります。
メタ社のチーフAIサイエンティスト、ヤン・ルクン氏は、DeepSeek-R1の発売は、AI分野で中国企業が米国企業を凌駕することを意味するのではなく、オープンソースの大規模モデルがクローズドソースを凌駕することを意味するとコメントした。