QQ:355128452
导航菜单

新闻资讯

云知声,上市了

作者 | 林晴晴编辑 | 彭孝秋36氪获悉,人工智能芯片企业「凌川科技」近日完成数亿元A轮融资,由北京市人工智能产业投资基金和快手集团领投,亦庄产投、顺禧基金、九智资本等跟投。本轮融资将主要用于下一代芯片研发、现有产品SL200的量产扩产及海外市场拓展。「凌川科技」成立于2024年3月,由北京市人工智能基金与快手集团共同发起,前身为快手集团异构计算与芯片事业部。「凌川科技」CEO刘凌志告诉36氪,“2018年快手日活破亿,传统堆算力服务器的成本压力已不可持续。我们从异构计算平台切入,2020年正式立项芯片,2023年SL200在快手部署数万颗,节省超预期成本后,拆分独立成为必然选择。”目前,SL200芯片集成了视频编码、AI推理、多核CPU等核心功能,部署量近数万颗,服务7亿用户,并获评2023世界互联网大会“创新发展典型案例”。刘凌志强调:“互联网基因让我们从应用反推芯片设计,客户需求直接定义产品,这是传统芯片公司难以复制的优势。”目前,全球AI芯片市场长期由英伟达主导,其CUDA生态形成技术壁垒,但大模型推理场景对成本与能效的敏感度催生了ASIC架构的差异化需求。国内智能视频赛道高速增长,涌现快手、字节跳动等头部应用及“可灵”“即梦”等大模型技术,但算力芯片仍面临美国出口限制的“卡脖子”风险。「凌川科技」瞄准垂直领域,通过ASIC架构降低推理成本,单颗芯片可处理36路视频任务,较传统方案节能30%,成为国产替代的关键路径。36氪了解到,SL200芯片为国内首款集成视频编码、AI推理、多核CPU等功能的ASIC芯片,支持万分之一超低故障率,头部客户直播覆盖率近100%。其视频压缩性能在MSU大赛中超越英特尔、英伟达,单路处理成本降低40%。下一代芯片针对大模型训练推理场景设计,支持LLM、文生图、文生视频、推荐算法等高算力需求,重点支持以快手可灵为代表的文生视频模型。公司同步开发类CUDA编程接口,适配PyTorch框架及主流大模型推理引擎,降低客户迁移成本。「凌川科技」Transtreams Advanced Compute Unified Architecture 是一种融合 CPU 与 NPU 协同运作的异构运算平台。它结合传统 CUDA/OpenCL 优势,采用由 CPU 负责控制与调度、NPU 处理密集计算的架构,实现高效任务协同与性能优化。其编程框架支持同一套代码在 CPU 与 NPU 间无缝切换,TC 编译器可根据负载自动分配任务,提升资源利用与负载平衡。在语言层面,TC 编程语言提供了对张量(Tensor)及其不同层次数据布局(layout)的统一表示,并抽象出面向 TC NPU 架构的 Tiling 与 Pipeline 机制。语言级封装使得开发者能够简洁、准确地表达复杂的特殊 layout、跨层次 memory(如 DDR、SRAM)的排布,以及多核并行计算中的 Tiling 与流水线调度,从而减少程序开发中的错误和复杂性,提高编程效率。同时,运算平台提供了丰富的系统和应用管理工具,方便用户能够更高效地进行灵活的开发、验证、环境部署及质量监控等。目前,SL200芯片已覆盖快手、阿里、百度等互联网数据中心,并应用在广播电视、广电领域、智慧城市、智能巡检等场景,合作案例超20个。同时,也与华为、超聚变、浪潮等厂商形成行业解决方案。此外,SL200海外通过快手海外出海业务进入东南亚新加坡、巴西市场。刘凌志透露:“公司下一代芯片已与多家大模型公司完成适配测试,今明年将重点拓展自动驾驶机器人、低空经济、自动驾驶等机器人与边缘计算场景。”团队方面,「凌川科技」CEO刘凌志为上海交大博士、华盛顿大学博士后,曾任快手副总裁及华为、英特尔核心技术管理岗。自拆分至今,团队规模已增长三倍,成员涵盖芯片及互联网行业专业人才。公司研发人员占比80%以上,70%以上为硕士学历,20%以上为博士学历,60%的员工具有十年以上从业经验。团队累计申请中外专利超百项,涵盖大模型压缩、视频编码等关键技术。团队核心成员也深度参与NeurIPS’21等国际竞赛,并主导多项北京市、上海市“卡脖子”技术攻关项目。