张宇:助力企业数字化转型

  2023中国国际服务贸易交易会-2023中国智能产业论坛于9月3日在北京举行。英特尔中国区网络与边缘事业部首席技术官、英特尔高级首席AI工程师张宇出席并演讲。

  以下为演讲实录:

  各位来宾大家下午好,非常高兴有这样一个机会来参加服贸会这个产业论坛,之前听到像黄院士以及各位专家分别从各自行业角度,跟大家分享了一下行业的发展趋势。我今天也想跟大家介绍一下我所在的行业正在发生的事情。我是来自英特尔的网络与边缘事业部,我们这个事业部尤其关注网络与边缘尤其是智能边缘的发展,今天跟大家分享一下我们对智能边缘发展的理解,以及英特尔硬件软件的产品如何赋能合作伙伴,快速构建面向智能边缘的应用服务。

  大家看到,近些年来人工智能的发展实际上日新月异,我们知道这个人工智能的起点是2012年,一直到现在实际上这个热潮一直没有消退,而且最近又有进一步加速的趋势。我们看到通用人工智能、大模型等等,最近又成为大家的热议话题。我们看到人工智能技术在各个行业得到迅速普及和应用,在交通、医疗包括零售、工业等等。如果我们剥离现象看本质的话,可以看到在整个行业发展过程中,它背后有一些规律可循。首先一方面看到,随着行业以及连接、智能应用、数据隐私保护等等方面的诉求,推动了边缘计算尤其是边缘智能事业的发展。尤其看到当下人工智能在边缘的应用大多数还是停留在边缘的推理阶段,也就是说行业还是需要利用数据中心极大的算力或者大量数据训练一个东西,把训练的结果推送到前端进行推理操作,这是目前绝大多数边缘人工智能使用的模式。这种模式是现实,但是同时也有局限性,最大的局限性对模型的更新频率是有限的。

  我们也看到在很多的行业,比如自动驾驶等等一些行业对模型的即时更新有诉求。我们也知道车厂在汽车出厂之前利用大量数据训练一个模型,所训练***用的训练数据集跟实际上驾驶人员在真正驾驶时所面临的路况以及驾驶系之间有差异,造成训练以后模型泛化能力往往有限。最有效的解决办法就是不断在使用过程中根据驾驶人员的驾驶习惯,根据我们所面临的实际路况,来对这个模型进行二次不断的修正,不断重新训练,这些应该是边缘。

  像以自动驾驶为例,它所代表的是边缘人工智能发展的下一个趋势——边缘训练。我们说边缘训练并不是说把数据中心现在已经用到大量的训练手段,照搬到边缘进行***,并不是这样的。因为我们看到在边缘去实现人工智能的训练它要面临一系列的特定挑战。首先,我们知道在边缘去从事人工智能操作的人员往往是比如汽车驾驶人员或者产线工人,这些人员自己在日常做工作时候已经把自己的精力占据了,不可能腾出一定的精力去做跟人工智能相关的操作,或者这些工作人员本身也没有这方面的经验,也没有这样一些技术,这就要求如果我们在边缘去进行一些训练手段的话,这些手段一定是更自动化的手段,在这些操作人员甚至无感的情况下,就能完成相关的操作,这是我们面临的挑战。

  另外一个挑战,我们知道在做训练的时候我们需要训练样本,有效地训练样本往往具有一些特征的样本。比如我们在做产品的质量检测,最有效的样本是带有缺陷的样本,这些样本在一个正常的产线上出现的概率往往比较小,这就造成我们可用的训练样本集规模比较小。如何在一个小样本的情况下去实现有效训练,得到一个有效的模型更新,这是我们面临的另外一个问题。

  第三个问题有关数据保护的问题。因为大家知道现在对数据隐私保护的看中程度越来越重视。如何在保护隐私的情况下利用一些新的技术,比如联邦学习等等的一些技术实现数据融合,利用融合的数据在边缘实现模型进一步的训练,这些都是我们在边缘进行训练中需要解决的问题,而这些问题我往往在数据中心进行建设的时候不见得一定要应对的。

  如果边缘人工智能发展到第二个阶段,进入到边缘训练阶段我们要面临的一些挑战。即使我们完成第二阶段,有不认为人工智能尤其在边缘发展到尽善尽美的程度,我们认为当下的人工智能还有很大的局限,虽然现在已经进入到通用大模型这样的阶段,其实应该看到它的背后实际上有很多的局限性。首先在当下的人工智能里头,不管在边缘应用也好,还是在数据中心的应用也好,其实人在人工智能里头仍然扮演一个非常重要的角色。有的时候我们跟行业专家进行探讨这个话题的时候,会开玩笑说,当下的人工智能一半是人工,一半是智能。为什么这么讲?我们虽然可以用极大的算力和大量数据去训练一个网络模型,但是这个网络模型的结构需要人事先设定好。当设计人员在设计好一个网络结构的时候,实际上这个网络结构适用场景适用范围已经大概圈定好,并不是说当下的人工智能是一个真正意义上的人工智能,也就是说我们所理想的,我们认为今后人工智能发展的下一阶段应该进入一个自主阶段,应该进入一个边缘AutoML阶段,这个阶段网络模型应该感知人的意图,选取适宜的样本集训练这个模型,将训练结果推送到训练阶段进行相应操作。甚至根据训练的结果不断更新不断重新训练网络模型,进行不断迭代,达到最佳的理想结果,我们认为这个是边缘人工智能发展的一个最终的形态。应该说目前在这个阶段里头我们还不能完全做到。

  即使看到现在的大模型和AIGC,也只是说在往AutoML方向上先进的一小步,在大模型里头也有很大的局限性,目前像ChatGPT等等这样的一些应用,它都工作在开放的状态,而不是闭环的状态。开放的状态是什么,训练完模型以后用于推理,推理的结果并不能马上就进行反馈,对模型进行二次更新,这个做不到,毕竟大模型训练成本非常高,不可能动态利用现在现实的推理结果对这个模型进行进一步的升级和改造,这是做不到的。所以现在的工作还是处于开放的状态,而真正到AutoML的状态应该有一个人工智能的闭环。所以现在人工智能还只是一个处于。

  这里做一个比喻,如果把攀登高峰比喻人工智能不同阶段的话,实现边缘推理只是意味着我们站到山脚,到我们能实现边缘训练只是站到半山腰,真正站到山顶是真正实现AutoML的时刻,这个还有很长的路要走。

  前面分享了边缘人工智能发展的趋势,我们也要知道边缘人工智能发展并非一件容易的事,它的算力是有限的,这就限制了算法的复杂程度。我们看到很多人工智能的技术在数据中心训练好以后,真正把它部署在边缘的时候,一定要做相应的优化,很多网络需要进行简化以后才能在一个***受限的边缘场景进行使用。这里催生一个业界的技术——网络压缩技术,在满足一定准确度的情况下,满足行业使用要求的情况下,我们能否利用低比特量化等等的技术把模型做精简,在对整个模型做部署的时候,不管是算力还是存储它的要求有一定的降低,所以网络压缩的技术我们看到是在边缘进行部署时很看重一项技术。

  另外也看到边缘训练碎片化非常明显,就导致软件迁移成本很高,有一些好的软件工具能实现对不同的硬件平台的适配,这个也是我们看到开发人员尤其是边缘人工智能应用开发人员他对于软件的要求。

  再有,数据保护的问题。以大模型为例,现在大家都把大模型当作自己的数据资产,这些数字资产如果部署在数据中心的时候,因为它离服务提供商很近,服务提供商可以用物理的方式把它保护起来,让别人很难去接触到,这是可以的。但是如果我们在边缘去部署一些应用的时候,边缘的设备这些数据实际上往往原理真正的服务提供商。这些数据在进行使用的时候如何进行保护就是一个非常重要的话题,在存储的时候可以通过加密的方式进行保护,但是在进行是用在运行时态,当这些数据当被存储在内存里的时候,如何保护这些程式,使得跟其他的应用之间有一个安全边界彼此隔离,这些都是在边缘部署应用,去实现安全解决方案时必须要考虑的问题,而这些往往是我们在数据中心不需要关注的话题。所以这些都应该说,我们在边缘部署这些应用要面临的一系列的挑战。

  回过头来再说一下,如何面对这些挑战,如何提供相应的解决方案。应该说这需要产业界的通力合作。英特尔作为一家数据公司,我们给业界所提供的是面向边缘人工智能、网络、数据中心的完整的硬件和软件的解决方案。尤其在人工智能方面,英特尔提供了从计算、通讯、存储等一系列的产品,跟我们的开发人员进行选择。计算方面,英特尔提供包括CPU、GPU、各种人工智能芯片多种产品的组合,满足用户对人工智能算力不同的要求。以计算为例,针对人工智能大模型的训练和推理,英特尔在今年推出第二代Gaudi处理器,它不仅能提供大量的算力,同时能提供通讯能力。我们知道再一个大模型训练的时候,往往不靠单颗芯片单打独斗形成,是靠一个集群,整个大模型的存储分布在整个集群里进行分布式存储,在整个训练过程中不同分布式计算节点彼此之间要进行频繁的数据交互,来频繁进行模型的迭代,所以整个大集群的性能不仅仅取决于计算能力,同时取决于通讯能力和存储能力。

  在我们所提供的第二代Gaudi处理器里兼顾了这几方面的能力,在上个月MLPerf公司对业界主流的大模型进行了评测,在整个业界全球所有的业界产品里头,英特尔的Gaudi2是全球唯二能提供针对大模型训练极佳性能的产业。而且在今年英特尔公司把Gaudi的产品已经引入到国内,已经在国内上市,推荐给我们国内的合作伙伴共同去研究AIGC、大模型等等在不同行业的一些应用解决方案。

  除了计算以外,其实我们这个部门也在做很多跟通讯相关的一些产品,这些很多也为构建端到端的人工智能系统必备的。比如我们提供了像可编程的以太网交换芯片等等数据中心的产品以及网络产品,来帮助大家构建软件定义的网络。除了硬件以外英特尔还提供了很多软的工具,比如我们提供了Geti平台,能提供自动化的标注手段以及***取主动学习的技术,帮助开发人员选取最有效的训练样本,缩小他的训练周期,减少训练时间,提高训练效果。还提供了像OpenVINO套件,帮助开发人员把开发好的网络模型部署在不同的平台去进行训练。

  简单介绍一下硬件方面,考虑到边缘人工智能在算力算法复杂组等等以及在数据安全保护等等方面的诉求,我们所***取的策略,我们通过增强我们的通用处理器的同时,还提供专用的人工智能加速芯片,满足用户对边缘人工智能算力的要求。今年我们发布了第四代至强可扩展处理器,这款处理器上包含了一系列面向人工智能的技术创新,里面包含了高级矩阵扩展技术AMX技术,因为我们知道在当下的人工智能是以卷积神经网络为基础的。在最新一代的至强可扩展处理器里面带有AMX技术,这个技术直接对矩阵计算进行加速,不需要再拆解成项目计算,所以它的性能不管是人工智能的推理还是人工智能训练,跟上代比性能提高10倍,这是极大的提升。

  另外我们前面提到在做边缘人工智能的时候一定要考虑到安全,在至强可扩展处理器里面也包括了SGX技术,这一技术能在运行时态为关键的数据和程序提供一个有别于其他应用的安全可执行的区域,能提供一个更小的安全边界、安全颗粒,使得人工智能应用可以部署在比如像金融、医疗等等这些对于安全有比较强诉求的应用行业里。这是我们通用处理器方面在做的一些工作。

  在专用方面我们也提供了独立显卡产品,里面包含了面向矩阵加速、矢量加速等等一些加速专业引擎,使得在面向科技计算和人工智能推理计算的时候能有更好的性能。

  软件方面,前面我们提供了像OpenVINO这样的软件工具,能帮助开发人员快速进行部署,快发人员可以选用一些人工智能框架,在这些框架上利用自己的训练集,设计自己的网络模型,设计好之后最后形成一个模型的数据文件,可以将这个数据文件给到OpenVINO,可以进行快速转化,跟硬件进行适配,进行部署。OpenVINO包含两个关键组件,一个是模型开发器,一个是推理引擎。模型开发器像刚才所说的,能把开发训练好的网络模型拿过来以后,在保证精度的情况下进行简化,把简化的结果转变成一个中间表示文件,这个中间表示文件会被第二个模块推理引擎所读取,推理引擎会利用相应的硬件插件,比如CPU插件、GPU插件或者人工智能加速性能插件,利用不同的插件,把这些中间表示文件部署在不同的平台上进行推理操作。这样操作以后带来的效果,开发人员它的应用只需要开发一次,利用OpenVINO,利用它的适配能力,就可以把这个应用部署在不同的硬件平台之上,这样可以极大地降低软件开发成本。

  OpenVINO我们在2018年第一次推出以后,到现在基本上保持了每个季度一个版本的方式不断进行迭代,而且已经开源,在新的OpenVINO版本即2023.0的版本里,也增加了对AIGC新的技术的加持,OpenVINO可以把文生图这样一些比较常用的大模型能通过网络压缩以后,部署在通用CPU以及一些独立显卡,或者英特尔所带的显卡之上,进行边缘推理操作,这在我们的一些平台上已经得到非常好的验证。

  除了提供这样一些硬件和软件的底层技术支撑,我们在行业方面也做了大量的工作,比如在智能制造领域跟我们的合作伙伴做了很多利用机器视觉做了例如激光焊接等等一些技术,还利用低时延的技术,我们把的实时性和智能化结合起来,给我们的合作伙伴全面的解决方案。

  今天因此时间有限,我用15分钟时间跟大家分享一下英特尔在边缘人工智能做了哪些工作。英特尔扎根于中国,秉持着水利万物的观念,助力企业的数字化转型。

  新浪声明:所有会议实录均为现场速记整理,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。