1.台积电切断了供应、16 和 14 纳米及以下 程序受到严格限制
台积电最近对中国大陆的集成电路(IC)设计公司实施了一系列严格的供应限制,尤其是 16/14 纳米工艺产品。
该决定与美国商务部工业安全局(BIS)发布的最新出口管制法规密切相关。根据这项新规定,从 2025 年 1 月 31 日起,如果 16/14nm 及以下制程的相关产品没有按照 BIS 白名单中 "经批准的 OSAT "进行封装,且台积电没有收到封装厂签署的认证副本,这些产品将被暂停出货。
台积公司将为已列入 BIS 白名单的芯片设计公司进行生产。对于未列入 BIS 白名单的芯片设计商(包括大陆和外国公司),必须向美国商务部提出申请,或将最终包装送交经批准的 OSAT 名单进行密封测试。若最终封测的 OSAT 未列入白名单,台积公司将暂停出货。
根据最新的 BIS 名单,有 33 家集成电路设计公司获得批准,这些公司都来自西方知名的半导体公司。
根据集邦咨询的最新研究,随着 DeepSeek 发布 DeepSeek-V3 和 DeepSeek-R1 等高效人工智能模型,终端客户将更加关注人工智能基础设施的合理性,并减少对 Gpus 等硬件的依赖,转而采用高效的软件计算模型。与此同时,CSPS 可能会扩大使用自己的 ASIC 基础设施,以降低成本。预计2025年后,人工智能产业对GPU芯片的需求将发生变化,中国人工智能市场将重点发展自主人工智能芯片和软件优化,以适应国际形势的变化,满足国内数据中心建设的需要,促进人工智能应用的多样化和商业化。
2.路透社:OpenAI 将完成其首个 自主研发的人工智能芯片今年实现量产 来年
消息人士告诉路透社,该 ChatGPT 开发商将在未来几个月内完成首款内部芯片的设计,并计划将其送往台积电进行制造。将首个设计送交晶圆代工厂制造的过程称为 "流程表"。OpenAI 和台积电拒绝置评。最新消息表明,OpenAI有望在2026年前实现在台积电量产的目标。典型的流片成本高达数千万美元,生产一个成品芯片大约需要六个月的时间,除非OpenAI支付更多的费用来加快生产速度。
美国的 OpenAI 在自主研发的人工智能芯片方面有以下合作:
- 与博通公司合作:作为全球领先的半导体公司,博通在芯片设计方面拥有丰富的经验。OpenAI 已与博通合作数月,专注于推理芯片的开发。博通公司帮助 OpenAI 根据生产需求调整芯片设计,并优化芯片设计元素,以加快芯片和系统之间的信息传输速度,这对于大规模人工智能系统中多个芯片协同工作至关重要。
- 与台积电合作:作为全球最大的半导体代工厂,台积电是 OpenAI 制造芯片的重要合作伙伴。OpenAI 的首款自主开发的芯片是使用台积电的 A16 工艺预购的,用于制造专为 Sora 视频应用打造的人工智能芯片。OpenAI 已通过博通(Broadcom)与台积电确定了制造能力,计划在 2026 年制造出首款定制芯片,但时间表可能会有变化。
- 与 AMD 合作:OpenAI 计划通过微软的 Azure 云服务使用 AMD 芯片,并利用 AMD 的新型 MI300X 芯片实现训练和推理工作负载的多样化,从而进一步减少对 Nvidia 的依赖。
3. 晶圆代工增长放缓,到 2025 年降至 20%,人工智能和先进工艺是主要驱动力
根据 Counterpoint Research 的预测,2025 年芯片代工的增长率可能达到 20%,主要由台积电和赶上人工智能浪潮的较小竞争对手引领。与去年相比,该预测显示增速略有放缓。该分析机构说,2024 年芯片行业的代工部门增长 22%,主要受益于从 2023 年的低迷中反弹。
Counterpoint 分析师 Adam Chang 告诉《电子工程师时代》(《EBusiness》的姊妹平台):"我们预计 2025 年代工厂的整体利用率将达到 80% 左右,其中先进节点的利用率将高于成熟节点。在中国本土化努力的推动下,中国成熟节点代工厂的需求预计将强于非中国同行。"
Chang还指出,由于台积电继续受益于高端智能手机需求以及超大规模公司与人工智能相关的订单激增,先进节点(5/4纳米和3纳米)的行业利用率预计将保持在90%以上。所谓超大规模,是指亚马逊、微软和谷歌等提供各种云计算和数据服务的公司。
根据 Counterpoint 的预测,2025 年以后,代工行业有望保持稳定增长,从 2025 年到 2028 年,年复合增长率将放缓至 13%-15%。
报告称,这种长期增长主要得益于 3 纳米、2 纳米及以下先进节点技术的发展,以及 CoWoS 和 3D 集成等先进封装技术的加速应用。这些技术进步将成为未来三到五年行业增长的主要驱动力,其主要动力来自于对高性能计算和人工智能应用不断增长的需求。Counterpoint 认为,台积电将继续引领行业发展,利用其技术优势塑造行业趋势。
台积电占据全球合约制造市场 60% 以上的份额,三星和英特尔紧随其后。预计 2025 年台积电的资本支出将从去年的 $298 亿美元增至 $380 亿至 $42 亿美元。
根据行业组织 SEMI 的预测,芯片代工厂将继续主导半导体设备的采购。根据该组织的预测,晶圆代工行业今年的年新增产能预计将达到 10.9%,从 2024 年的每月 1130 万片晶圆增加到 2025 年创纪录的 1260 万片晶圆。
4. 斯米克公司 2024 年收入增长近 301TP3,首次突破 10 亿 TP4T8 亿美元,公司 2025 年收入指导超过同行
斯米克于 2 月 11 日收盘后发布了 2024 年第四季度未经审计的业绩。
公告显示,中芯国际2024年第四季度销售收入约为159.17亿元,同比增长31%,环比增长1.7%。从全年来看,中芯国际 2024 年的销售收入为 577.96 亿元($80.3 亿元),同比 2023 年增长 27.7%,这也是中芯国际全年收入首次突破 $80亿元。
2024 年,中芯国际的平均产能利用率为 85.6%。然而,正如中芯国际联席首席执行官赵海军此前预计的那样,由于 2024 年第四季度新增产能以及相应产能验证所需的时间,本季度的产能利用率和出货量均受到影响。
公告显示,其月产能从 2024 年第三季度末的 88.42 万件相当于 8 英寸标准逻辑,进一步增至 2024 年第四季度末的 94.76 万件。
产能利用率从第三季度的 90.4% 下降到第四季度的 85.5%;第四季度售出相当于 8 英寸标准逻辑的 199 万片晶圆,比上一季度下降约 6.1%
由于新工厂的开业,中芯国际 2024 年第四季度的资本支出为 16.6 亿美元,比第三季度增加约 1.8 亿美元。2024 年全年,中芯国际的资本支出约为 13.3 亿美元。
相应的资本折旧和摊销也有所增加,其中 2024 年第四季度的折旧和摊销为 $8.49 亿美元,环比增长 2.2%。2024 年全年的折旧和摊销同比增长 21.3%。
在收入方面,按地区划分,中国市场对中芯国际的重要性进一步增加。2024 年第四季度,中国市场的收入份额从第三季度的 86.4% 进一步增至 89.1%。另一方面,美国和欧亚大陆的市场份额有所下降。
22/28nm、40nm 工艺受影响较小,而 55nm 及以上工艺受影响相对较大。由于芯片设计行业对工艺成熟度、产能供应稳定性等方面的要求,规模较大的晶圆厂在订单获取方面确实具有明显优势。
分析认为,2025 年,人工智能将成为拉动晶圆代工需求的重要因素。
5. DeepSeek 刷屏,中国大模搅动海外 AI 湖
公开资料显示,中国人工智能创业公司 DeepSeek 成立于 2023 年 5 月,是一家大模型创业公司。成立仅半年,DeepSeek就推出了免费商用、完全开源的大模型代码DeepSeek Coder。2024年5月,该公司发布了开源模型DeepSeek V2,将推理成本降低了近百倍,一举成名。
2024 年 12 月 27 日,DeepSeek 推出了开源模型 DeepSeek V3。
当时,DeepSeek-V3 在所有机型中排名第七,在国外大型机型排名竞技场(Arena)的开源机型中排名第一。此外,DeepSeek-V3 还是全球前十名中性价比最高的机型。
2025年1月20日,DeepSeek正式开源R1推理模型。性能对标OpenAI-o1,DeepSeek-R1正式版在后训练阶段大规模使用了强化学习技术,大大提高了模型在标注数据极少的情况下的推理能力。在数学、代码、自然语言推理等任务中,其表现与 OpenAI o1 不相上下。
现在人们普遍认为,DeepSeek 的 R1 版本标志着推理建模研究的一个重要转折点,在此之前,推理建模一直是工业研究的一个重要领域,但缺乏一篇开创性的论文,正如 AlphaGo 利用强化学习下了无数盘围棋,并优化策略取得胜利一样,DeepSeek 也在利用同样的方法提升自己的能力,因此 2025 年可能是强化学习的元年。
1 月 24 日,DeepSeek R1 基准在竞技场(Arena)大型模型综合类比赛中升至第三名,在 StyleCtrl 类别中与 OpenAI o1 并列第一。其 Arena 分数达到 1357 分,略微超过 OpenAI o1 的 1352 分。
DeepSeek-V3 仅使用 2,048 个 H800 Gpus 就完成了 6,710 亿参数模型的训练,成本仅为 $5.576 百万美元,远远低于其他顶级模型的训练成本。
作为参考,斯坦福大学和 Epoch AI 的研究人员在去年年中发表的一项研究表明,到 2027 年,最大模型的训练成本将超过 $10 亿美元。此外,第三方研究公司 Gartner 预测,到 2028 年,谷歌、微软和 AWS 等超大规模公司仅在人工智能服务器上的花费就将高达 $5000 亿美元。
因此,不少企业认为,DeepSeek 的低成本意味着大型模型的算力投入需求可能会从训练侧向推理倾斜,即推理算力需求将成为未来的主要驱动力。而 Nvidia 等硬件厂商的传统优势更多集中在训练端,这或将对其市场地位和战略布局产生影响。
Meta公司首席人工智能科学家Yann Lecun评论说,DeepSeek-R1的推出并不意味着中国公司在人工智能领域超越了美国公司,而是开源大型模型正在超越封闭源。