SK海力士投资RISC-V芯片初创公司 推动以内存为中心的AI推理架构
2026-04-16
来源:芯智讯
4月15日消息,存储芯片大厂SK海力士近期对西班牙RISC-V芯片初创公司Semidynamics进行了战略投资,推动“以内存为中心的AI推理架构”。
Semidynamics专注于开发高性能的RISC-V处理器IP与完整的AI解决方案,核心目标是提供比美国现有方案更具竞争力的欧洲替代选择。SK海力士与Semidynamics的合作将聚焦于将Semidynamics的架构与下一代内存技术进行优化。
目前,Semidynamics与台积电合作进行3nm RISC-V芯片的流片(tape-out),而上述投资也将用于未来Tape-out及系统层级开发,包括服务器机架平台的建置。
Semidynamics不只销售芯片,而是提供包含硬件机架与完整软件栈(Software Stack)的解决方案,确保产品能在数据中心环境中无缝运作。Semidynamics CEO Roger Espasa透露,“如果不提供机架,只提供芯片,对数据中心人士是没有吸引力的”,因此Semidynamics会带着完整机架方案进入市场。他也透露,若有机会将会继续往2nm迈进。
Semidynamics力拼推第一款引导Linux的AI处理器
Semidynamics最初以设计IP起步,核心目标是整合既有技术,打造完整的AI解决方案。在底层技术部分,以Gazzillion技术让运算引擎能有效处理距离较远、延迟较高的内存资源。
随着AI模型越来越大、上下文增加、AI Agent启动需要大量内存等“深度推理”变多,内存变得越来越重要。
Roger Espasa表示,目前产业普遍依赖HBM,其性能极佳,但成本高昂且供应受限;反之,其他类型内存虽然成本较低,但存取速度较慢,若沿用传统GPU架构,性能将难以发挥。Semidynamics的目标正是突破这个限制,让系统能够有效利用“非HBM”内存,这也是Gazzillion技术的核心价值所在。
Espasa指出,传统CPU架构(如Intel或AMD)高度依赖缓存命中率,设计目标是让约95%的数据存取都在缓存中完成,但在AI工作负载下则失效,因此英伟达采用高速HBM来绕过缓存瓶颈。而Gazzillion采取不同路径,当数据不在缓存中时,系统不会像传统CPU一样停顿等待,而是持续推进计算流程,通过架构层级的改变来隐藏内存延迟,从而在较慢内存条件下仍维持高效运作。
为了在数据中心实现“统一內存”(Unified Memory),Semidynamics目标致力于让AI系统更容易被编程,Espasa认为,过去30年在CPU领域累积的统一內存与易用性经验,并没有真正延伸到AI架构中。当前AI生态更像是各种新创构架的拼凑,每个都试图成为最佳解决方案,但过度差异化往往导致软件生态难以跟进。因此,通过Gazzillion技术,目标是在数据中心层级真正实现统一内存,并提供简单且可延续的软件环境。
Espasa表示,Semidynamics是最早投入RISC-V团队之一,并且率先开发RISC-V向量单元(Vector Unit)。他也透露,甚至将会推出第一款引导Linux的AI处理器,使任何能在Linux上运行的软件都能直接在Semidynamics的加速器上运行,“我们不打算为单一模型(如Llama或ChatGPT)打造专用芯片,而是确保提供工具,以便人们可以发明新东西”。
乐见TurboQuant技术,AI生态发展不会因压缩技术改变
Semidynamics的愿景是以品牌“Atrevido”为起点,该品牌代表基于自家IP所打造的SoC,并进一步向上延伸,整合成系统级构架。其中关键在于我们围绕核心技术所建构的“内存系统”,这不仅是设计上的选择,更是吸引SK海力士关注的重要原因。
Espasa认为,“DeepSeek时刻”之所以引发市场关注,是因为一个来自不同路径的模型在短时间内改变了市场预期并造成一定程度的恐慌。但他认为,这类事件其实是必然会反复出现的现象。未来不一定每六个月,但几乎每一年都会有来自前沿实验室、大学或其他研究机构的新突破模型出现。因此,公司必须把“可编程性”作为核心原则,确保无论AI技术如何演进,硬件构架都能持续跟随与适配。
他进一步表示,在这样的环境下,有许多变化正在被密切观察。公司每天都高度关注內存市场的动态,同时也持续追踪AI模型本身的演进,例如新的数据表示方式与量化技术的出现,甚至已经出现如1.2-bit这类极低精度模型。他认为,这些创新将持续推动硬件与软件之间的协同演进。
谈到谷歌最新缓存压缩技术TurboQuant时,Espasa强调,任何能降低內存需求的技术本质上都是正面的,无论是TurboQuant还是其他类似技术,只要能减少內存压力,都对整个产业有利。这类技术不会削弱对硬件的需求,反而可能促进模型规模的进一步扩张。当工具变得更有效率时,使用者通常不会减少使用,而是选择「用得更多」,即使TurboQuant降低单位模型的內存需求,实际结果往往是模型变得更大、应用场景更多,整体內存消耗并不会下降。从这个角度来看,AI生态的发展路径并不会因压缩技术而改变。
他也补充,即便未来出现更多中小型模型,或企业开始部署多个Agent系统,内存需求依然会持续扩张。因为一旦从单一模型转向多Agent构架,即使每个模型较小,整体系统的內存与运算需求仍会快速累积。因此,无论是模型变大、还是Agent数量增加,本质上都会推动对内存与基础设施的长期需求成长,形成对整个产业都有利的扩张循环。
Semidynamics已从欧洲及西班牙的创新计划中获得4,500万欧元资金,用于建构完整的AI基础设施平台。
Semidynamics成立于2016年,总部位于巴塞罗那,专注于开发以内存为核心的A I基础设施,并采用Gazzillion內存子系统技术,旨在解决所谓的“内存墙”问题,即处理器速度与内存带宽之间的差距。

