字节跳动豆包团队开源MoE架构优化技术
3月10日消息,据报道,字节跳动旗下豆包大模型团队近日宣布了一项关于混合专家(MoE)架构的重要技术突破,并决定将这一成果开源,与全球AI社区共享。
发表于:3/11/2025 9:42:37 AM
科大讯飞称仅用1万张910B国产算力卡跻身大模型研发第一梯队
3月11日消息,日前,有投资者在互动平台向科大讯飞提问:贵公司目前拥有多少张算力卡?面对阿里千亿级投资,公司将在算力竞争上如何应对?
发表于:3/11/2025 9:27:31 AM
3月10日消息,据报道,字节跳动旗下豆包大模型团队近日宣布了一项关于混合专家(MoE)架构的重要技术突破,并决定将这一成果开源,与全球AI社区共享。
发表于:3/11/2025 9:42:37 AM
3月11日消息,日前,有投资者在互动平台向科大讯飞提问:贵公司目前拥有多少张算力卡?面对阿里千亿级投资,公司将在算力竞争上如何应对?
发表于:3/11/2025 9:27:31 AM