墨芯发布32倍稀疏AI计算卡,性能对标英伟达 | 甲子首发

墨芯发布32倍稀疏AI计算卡,性能对标英伟达 | 甲子首发
文章图片
搭载墨芯首款芯片ANTOUM , 面向数据中心AI推理应用 。
作者|范文婧
编辑|赵健
又一家对标英伟达的AI芯片公司发布新产品 。
2022年3月22日 , 墨芯人工智能宣布即将发布两款面向云计算市场的AI计算卡:SparseOne??S-100和SparseMegatron??S-300 , 这两款AI计算卡均搭载墨芯首颗英腾处理器(ANTOUM) , 是全球首款高达32倍稀疏率的AI计算芯片 。
其中SparseMegatron??S-300对标英伟达A10和A30(全高全长) , 计算标准模型ResNet50 , 算力超90000FPS;SparseOne??S-100对标英伟达T4(半高半长) , 算力达31031FPS , 运行ResNet50时 , SparseOne??S-100与T4相比 , 算力超后者的6倍 , 而功耗则不到后者的1/2 。
墨芯人工智能创立于2018年 , 创始团队是来自于卡耐基梅隆大学的顶尖AI科学家和世界顶级半导体公司的芯片专家 。 创始人兼CEO王维曾在英特尔和高通总部工作十余年 , 是英特尔第五代到第十代CPU处理器的核心设计成员 。 团队中亦有来自Marvell、平头哥的员工 , 拥有存储、AI芯片等大芯片的研发经验 。
截止目前 , 墨芯已经完成五轮融资 。 最近一次融资是发生在2021年底的A轮融资 , 金额数亿人民币 , 由基石资本、大湾区共同家园发展基金领投 , 同威资本、中科华盛、及深圳天使母基金跟投 。 2021年初墨芯依次获得浪潮云海基金和智慧互联产业基金战略投资 。
借产品即将发布之际 , 「甲子光年」采访了墨芯人工智能创始人兼CEO王维 , 和他聊聊墨芯用稀疏化算法做AI计算卡的一些思考 。
1.“稀疏化计算”开启AI算力2.0
墨芯发布32倍稀疏AI计算卡,性能对标英伟达 | 甲子首发
文章图片
墨芯人工智能所在的AI芯片市场前景广阔 。 根据公开资料 , 2020年全球AI芯片市场规模约为101亿美元 , 年复合增长率达52.1% 。 其中中国云端AI芯片市场规模为111.7亿元人民币 , 是AI芯片的主要细分市场 。
然而近年来 , 芯片的算力发展逐渐跟不上算力的需求 。 王维告诉「甲子光年」 , 目前AI计算对算力的需求每3.5个月就要翻一番 , 与此同时 , 根据摩尔定律算力需要每18个月左右才能翻一番 。
于是 , 传统的算力供给模式将要被打破 , 市场不再按照算力供给方来配套设计上层的软件和应用场景 , 而需要根据具体的应用场景 , 打通算法、软件和硬件 , 在立项之初就做一体化的设计 。
业内有人将这种模式定义为“AI芯片2.0时代” 。
新的时代离不开技术的创新与发展 。 本次 , 墨芯发布的AI加速卡 , 搭载了首款芯片ANTOUM , 并应用“稀疏化计算模式” , 尝试突破算力极限 。
“稀疏化计算”的原理不太复杂 , 是指在原有AI计算的大量矩阵运算中 , 将含有0元素或无效元素的计算剔除 , 以加快计算速度 。
比如在人脸识别的场景中 , 传统的算法会直接计算图片中的每一个元素与现有图片模型的关联 , 从而得出结论 。 而应用稀疏化计算 , 先在图片中找出需要比对的元素 , 而后只需计算这些元素与现有图片模型的关联 。
在王维看来 , 一项好的新技术 , 需要有足够的创新性、创新的可持续性和可商业化三个方面 。 而墨芯的“稀疏化”正是这样的创新技术 。
在创新性方面 , 业内的共识是 , 一项革命性的技术需要比现有的技术强10倍以上 , 比如性能高10倍、功耗低10倍、或者成本降低10倍等 。 王维介绍 , 应用稀疏化算法 , 能够为客户提供4~32倍稀疏化压缩能力 , 计算速度能够达到原有的10~20倍 。