• AI 军备竞赛,催生未来 AI 硬件架构发展 3 大方向

    随着人们越来越多地使用AI来解决各个领域的问题,一场AI军备竞赛已经开始,它创建了专用的硬件,可以为翻译应用程序以更高的速度和更低的功耗运行深度学习模型。 
    程序,数字助理,面部识别系统,内容推荐系统等,甚至在医疗保健和自动驾驶领域也是如此。 
    包括新的芯片架构在内,这项竞赛有许多新的突破;这些突破正在以前所未有的新方式执行任务。能够看到AI硬件架构在未来几年的发展。  
    以下是本·迪克森的观点,雷锋网络在不改变初衷的情况下进行了编译和补充。 r \\ n  
    神经形态芯片 
     AI军备竞赛,AI硬件架构发展的未来3个主要方向 
    神经网络是深度学习的关键,并且它们由成千上万的个体工人神经元组成。无论是简单的计算还是复杂的任务,例如图像识别和语音识别,人工神经网络都是必不可少的。 
    但是,目前,传统计算机的升级不是基于神经网络的优化,而是基于一个或多个功能强大的CPU。  
    神经形态计算机与传统计算机,因为它使用独特的芯片架构来模拟神经网络,即神经形态芯片。 
    该芯片由许多形式的人工神经元组成,在训练和运行神经网络时这些神经元快速有效。  
    实际上,神经形态计算的概念最早出现于在1980年代,但由于神经网络的效率太低,因此这一概念并未引起太多关注。 
    近年来,随着对深度学习和神经网络的重新关注,神经形态芯片的研究受到了新的关注。  
    今年8月,顶级学术期刊《自然》(Nature)发表了清华大学史鲁平教授的研究,该研究的封面也刊登了。 
    请参阅雷锋的上一份报告。  
    根据杂志《采用混合Tianjic芯片架构实现人工智能通用化》杂志上的一篇论文,清华大学的史露萍教授团队开发了一种新的名为天极的人工智能芯片。 
    这是本文提到的神经形态芯片;它结合了基于计算机科学的大脑计算和人工智能。  
    为了验证世界上第一个AI芯片的异构融合,研究团队设计了一种无人驾驶的智能自行车系统。 
    据报道该系统包含激光
    传感器,例如速度测量,陀螺仪,摄像机,制动器,转向马达,驱动马达等,以及控制平台,例如控制平台,计算平台和平台级系统。  ## #论文的第一作者,加利福尼亚大学圣塔芭芭拉分校的博士后研究员邓磊认为: \\ r#n ##与自动驾驶的飞行员相比,智能自行车看上去很小,但是现实中,它是一个小型的,全面的,类似于大脑的技术平台。无人驾驶自行车系统的语音识别,自主决策和视觉跟踪功能都使用模拟功能。 
    大脑的模型,而目标检测,运动控制和回避障碍功能则使用机器学习算法模型。  
    尽管没有直接证据表明神经形态芯片是在创建通用人工智能的正确道路上,它们的发展必将有助于更高效的人工智能硬件的诞生。 
    此外,神经形态计算已经引起了大型科技公司的关注-英特尔在7月推出了Pohoiki Beach,这是一台装有64个英特尔Loihi神经形态芯片的计算机,该芯片可以模拟总共800万个神经元。 
     Loihi处理信息的速度是传统处理器的1000倍,效率是传统处理器的10,000倍。  
    但是,这种神经形态芯片并不能替代传统CPU架构,其潜力是为了加速诸如约束满足,图形搜索和稀疏编码之类的专用应用程序。 
    英特尔还承诺在今年晚些时候将Pohoiki Beach扩展到1亿个神经元。  ##光学计算 ## AI军备竞赛,AI硬件架构开发的未来3主要方向 
    众所周知,神经网络和深度学习计算需要大量的计算资源和功能,而人工智能的碳足迹已成为环境问题。 
    今年6月,研究人员估计,通过训练AI产生的碳足迹相当于284吨二氧化碳当量,这是普通汽车排放量的五倍。 
    同时,神经网络的能耗也限制了它们在功率受限的环境中的使用。  
    随着摩尔定律的持续缓慢,传统电子芯片的发展满足人工智能行业的需求变得越来越困难。 
    目前,一些公司和实验室将注意力转移到光学计算上,以寻求解决方案-光学计算使用光子而不是电子,并使用光信号而不是数字信号进行计算。 
    由于光学计算设备不会像铜电缆那样产生热量,因此大大降低了能耗。光学计算也特别适用于快速矩阵乘法,这是神经网络中的关键运算之一。  
    在过去的几个月中,出现了几种光学AI芯片原型。 
    基于波士顿的Lightelligence开发了一种光学人工智能加速器,该加速器与当前的电子硬件兼容,并且可以通过优化一些较重的神经网络计算来优化人工智能模型。
    性能提高了一到两个数量级。 
     Lightelligence工程师说,光学计算的进步也将降低制造人工智能芯片的成本。  
    最近,香港科技大学的研究人员开发了一种全光学神经网络。 
    为了确认这种新方法的强大功能和可行性,他们建立了概念验证模型,具有16个输入和2个输出的完全连接的两层神经网络,然后使用全光学对Ising模型进行排序网络。 
    分类与无序阶段。 
    结果表明,全光学神经网络与训练有素的基于计算机的神经网络一样准确。  
    研究小组成员刘俊伟说:  
    我们的全光学方法允许神经网络以光速执行光学并行计算,同时消耗更少的能量。 
    大型全光学神经网络可用于从图像识别到科学研究的各种应用。  
    大型芯片 
     AI军备竞赛, AI硬件架构发展的未来3个主要方向 
    雷锋网络注:上图显示了Cerebras的大芯片  
    有时放大确实是一个好方法解决问题。 
     8月,硅谷的初创公司Cerebras Systems推出了一个具有1.2万亿个晶体管的大型人工智能芯片,这是有史以来最大的半导体芯片。此外,它在42225平方毫米的面积中有40万个。 
    核心比Nvidia最大的图形处理器(815平方毫米)大56.7倍。  
    此大芯片可加快数据处理速度,并更快地训练人工智能模型。据悉,谷歌,Facebook,OpenAI,腾讯,百度等众多公司认为,当今AI的基本局限性在于训练模型的成本。 
    时间太长。 
    因此,减少AI培训时间可以消除行业进步中的主要瓶颈。 
    与传统的GPU和CPU相比,这种超大芯片的独特架构还降低了功耗。  
     Linley Group的首席分析师Linley Gwennap在一份声明中说: nCerebras晶片级技术取得了巨大的飞跃,在单个硅芯片上实现的处理性能远远超出了任何人的想象。 
    为了实现这一壮举,该公司甚至解决了困扰工程行业数十年的一系列恶性工程挑战。  
     Cerebras最近还与美国国防部签署了一项合同。使用该芯片可以加速科学,工程和健康领域的深度学习。  
    但是,创建非常大规模的芯片并不意味着一切都很好。 
    因为芯片的尺寸将受到使用空间的限制;此外,芯片制造商通常不会制造如此大规模的芯片,因为在制造过程中很可能会出现杂质。
    这会导致芯片故障。  
    由于所有行业目前都在寻找深度学习的应用场景,因此单芯片架构主导市场的可能性很小。 
    但是可以肯定的是,未来的人工智能芯片可能与过去几十年的经典CPU不同。
     
    上一篇:高速成长型企业的组织能力提升4大要点

    下一篇:原东芝存储器力争明年上市