视海芯图:用多模态张量处理器迎接后CNN时代AI模型

作者:超级管理员 浏览:357 日期:2021-12-16 13:36:50

      AI处理器已经不是一个新鲜事,经历了萌芽、爆发以及最初的泡沫后,AI芯片创业再度掀起热潮。在这一轮的比拼中,除了落地、商业应用等方面的比拼外,各家也开始施展自己的独门技术。面对竞争对手激烈的挑战,成都视海芯图微电子有限公司用多模态张量处理器(PTPU)交出了自己的答卷。

 

      从CNN到Transformer,催生新一代AI芯片

在人工智能的不同子领域中,基本建模的方式各种各样,并不统一,例如:在自然语言处理(NLP)领域目前的主导建模网络是 Transformer;计算机视觉(CV)领域很长一段时间的主导网络是卷积神经网络(CNN)。然而,从2020年开始,Transformer在CV领域中出现了突飞猛进的提升,这就展现出CVNLP将有望统一在同一体系之下的可能。

      而我们所熟知的NPU,在传统意义上多是针对CNN进行优化的,无法运行Transformer或运行效率很低,这就意味着现有的NPU产品难以适应诸如自动驾驶、AR/VR等新兴领域对于Transformer的需求。

针对这一需求,视海芯图整合此前积累的科研工作,创造性地提出了多模态张量处理器(PTPU)的概念。通过PTPU技术,视海芯图能够打造出数据流和计算阵列自适应的神经网络芯片,不仅能够支持CNN模型,也能支持 Transformer、Bert等关注全局特征的模型,在各类新型应用中满足客户需求,提高模型运算效率。

      “现在的AI芯片就像以前的GPU一样处在关键点。”视海芯图CEO张旻晋博士说道,“就和GPU一样,最早的GPU是针对2D优化的,后面逐渐过度到了3D的GPU。而现在,Transformer就是AI芯片所需要支持的那个‘3D’。Google、特斯拉、Meta已经对Transformer进行了广泛而深入的研究,未来的AI芯片必须拥有兼容Transformer的能力。”

 

      厚积薄发,成立6个月顺利投片

      具备这样面向下一代应用的革新性技术的视海芯图,是一家年轻的创业公司。视海芯图成立于202012月,时隔半年,20216月视海芯图就顺利完成了第一颗芯片MV100的投片。之所以能够拥有如此效率,离不开视海芯图可以密切配合的技术团队。尽管成立没多长时间,但视海芯图的创始团队已经在芯片设计行业中摸爬滚打了近20年,团队成员多来自于中科院计算所、北京大学等知名学府,并曾在AMD、海思、MTK、比特大陆等企业中任职,具有丰富的先进AI芯片设计经验。

      早在创业以前,视海芯图的创始团队对未来的规划就已经初具雏形。团队核心技术人员来自于中科院,在人工智能芯片设计和AI算法加速方面已经持续研究十余年,取得了许多国际领先的成果。因此,当看到Transformer应用变革所带来的机遇时,视海芯图应运而生,争当这一轮变革的弄潮儿。

 

      不当空中楼阁,让每一颗芯片都面向应用

      AI芯片的变革,并不仅仅是视海芯图自说自话。在成立之初,这家企业就把落地、客户需求放在了第一位。这一点从视海芯图的投资人结构也可见一斑,目前视海芯图共完成了4轮融资,分别是天使轮、舜宇产投领投的Pre-A轮、网易有道的战略融资和虹软科技、舜宇产投的战略融资。在目前的几轮融资中,视海芯图的几乎所有投资者均为产业投资,产品与视海芯图涉及业务有着密切的联系。

      舜宇光学是世界领先的光学模组厂商,目前已经成为最主要的手机镜头模组和车载光学模组厂商。视海芯图的第一款芯片MV100就与舜宇光学进行了通力协作,为其大力推广的3D ToF模组赋能,使其更易落地。视海芯图的第二款芯片SH1210能够广泛应用于各类人脸识别、3D建模场景,与舜宇光学下游的智能门锁厂商、扫地机器人厂商都有着紧密的合作。

      未来,视海芯图也将与网易有道、虹软科技等展开合作,仅与股东间的合作就能支撑视海芯图的大半业务。

      张旻晋博士说:“我们知道AI芯片创业企业最难的就是落地,所以我们这次格外注意应用。我们的所有研究,都不会是空中楼阁,而是在经过充分的市场调研,甚至与大客户进行绑定后,才会投入人力、时间进行研究。我们擅长的针对客户的领域进行优化,设计一系列针对不同应用的芯片,希望通过我们的芯片让客户的产品更具竞争力,乃至于提升一个产品线的行业上限。”