图片 1

​ARM推出三款全新处理器IP设计,迎接全面运算时代到来

此外,Arm还于上周发布基于Arm Mbed OS解决方案的Mbed
Linux操作系统,前者是业界领先的物联网平台操作系统,拥有超过350,000名的开发人员。Mbed
Linux的发布标志着将首次通过基于Cortex-A的Pelion
物联网设备平台实现安全、快速的开发和设备管理。

关于Arm

ARM 还宣布在未来更新一代的 Matterhorn CPU,Matterhorn 是下一代 Cortex-A
内核的代号。

售价7.5万美元的IP许可费包括Arm专家为期一年的设计支持;而售价15万美元的IP使用计划中,我们将提供三年的专家支持,以帮助厂商实现芯片产品的一次成型。

2、新架构能够将最小型边缘设备的机器学习能力提升15倍,以及将信号处理性能提升5倍

为了应对 AI 边缘的变革,Arm 宣布推出 Project
Cassini:这是一个专注于在多元与安全的边缘生态系统,确保云端原生体验的业界提案。

“富嵌入式处理”
是实现差异化的途径之一,Arm将其定义为提供更高级的性能和复杂性。提供交互式用户界面是其中涵盖的一种情况,总体而言,这一概念是指提供更高级的功能。

通过功能整合,优化成本、功耗以及设计投入利用
Armv8.1-M的设计遵循平台安全架构(PSA)规范的特点,实现简化的TrustZone部署单一工具链涵盖控制与信号处理软件的开发简化的软件开发,得益于成熟的
Helium生态系统所提供的完善的工具、模型和库,其中许多资源已被Cortex-M开发者广为使用

Arm 方面认为,利用 AI
边缘的应用程序的成功部署,关键在于提供能够覆盖各种功耗与性能需求的多元解决方案。单一厂商的解决方案,并无法满足所有需求。除了变成以
AI 为中心,AI 边缘必须是云端原生的、虚拟化 (VM 或 containers)
的,同时支持多用户。最重要的是,它必须是安全的。

Arm是嵌入式Linux和安卓系统的主要架构,基于Arm架构运行的Linux项目已达到数百个。Linaro通过与Arm携手,双方已联合成为Linux内核的前三大贡献者之一。

先进的数字信号处理(DSP)可通过 Arm Neon
技术扩展至更多Cortex-A架构组件中。针对功能受限的应用,Arm还在其较高性能的Cortex-M处理器系列(包括Cortex-M4、Cortex-M7、Cortex-M33以及Cortex-M35P)中加入DSP扩展方案。这两种技术都可用来加速特定应用的机器学习计算。

Arm 方面认为,Arm Total Compute 代表了一种 IP
设计的新方法,重点是用例驱动的优化系统解决方案。

通过专门的网站和简易版合约,DesignStart项目能够让开发人员迅速、轻松地使用Cortex-A5处理器,从而加快产品上市速度。凭借其很小的芯片面积(以40纳米工艺为例,部署面积小于0.3平方毫米)和超高的效率(以40纳米工艺为例,有效功率可达到100uW
/
MHz左右),该处理器在降低制造成本的同时,还可实现Cortex-A系列CPU最低的闲置功耗。

图片 1

可以预见的是,无论是用于 VR 头显还是可穿戴设备,智能手机或 DTV,Total
Compute
都将扮演重要的作用,采用全面计算方法,简化安全性,提高性能和效率,并为开发人员提供整个
Arm 生态系统更多的性能访问机会,最终实现真正的数字沉浸式体验。

通过纳入Cortex-A5进一步扩展该项目,Arm希望为涵盖整个嵌入式和物联网设备范畴的创新设计提供支持,DesignStart项目还可以通过Arm
Artisan物理IP免费使用业界领先的物理IP库。该IP库为广泛的晶圆代工厂商和工艺节点量身定制,可助力加速SoC的部署。

业界正在加速推动创建一个拥有万亿互联设备的世界,而要实现这一愿景,我们必须找到行之有效的方法来扩展网络边缘众多受限设备的计算能力。通过提升这些设备的计算能力,开发人员能够直接为设备编写机器学习(ML)应用程序,并在设备本地实现自主决策,从而在提高数据安全性的同时,降低网络能耗、延迟和带宽使用量。

新思科技解决方案支持使用了 Arm
最新处理器的智能手机、笔记本电脑、其他移动设备、5G、增强现实 (AR)
和机器学习 (ML) 产品的优化设计,该解决方案包括新思科技 Fusion Design
Platform、Verification Continuum 平台和 DesignWare 接口 IP。

DesignStart项目已经向更多的设计人员开放Arm
CPU,仅在过去的12个月中,就有超过3000个CPU原型下载,其中有一家公司在不到6个月的时间内就实现了从概念到流片。Cortex-A5的加入让Arm
DesignStart项目达到了一个新的高度
。迄今为止,Cortex-A5共计为20亿台以上的设备提供了功能丰富的高性能处理能力。

Helium将Arm Project
Trillium计划的价值带到各种机器学习应用中,让框架与库的支持能力向下延伸到硬件层面。由于SoC开发者必须在不同的性能、芯片面积、功耗以及成本等限制下开发适合的方案,因此没有单一的产品能满足所有应用的需求。

Arm ML 处理器对应的是 Project Trillium,是一个异构 ML 运算平台,包括 Arm
ML 处理器以及开源的 Arm NN 软件框架,目前已搭载在超过 2.5 亿台 Android
设备上。随着机器学习使用案例的需求越来越高,开发人员也对专属神经处理器也更为渴望。

Cortex-A5还将通过Arm的神经网络推理引擎实现先进的机器学习应用程序,该引擎是Linaro机器学习计划(Machine
Learning Initiative)的一部分,可提供广泛的生态系统支持。

下一级计算性能

在今天的活动上,ARM 中国 CEO 吴雄昂补充表示,ARM
通过法务及相关的调整,使得 ARM V8
及后续架构将可不受限制的继续支持中国的合作伙伴。

该处理器可提供Cortex-A7、Cortex-A9和Cortex-A32处理器性能的70%到80%,并可配置为具有先进SIMD数据处理功能的完全一致的四核设计,或配置为用于快速连接到机器学习或其他定制处理器的高性能加速器端口。

简化软件开发流程

图片 2

日前,Arm宣布将其DesignStart项目进一步升级,在Cortex-M0和Cortex-M3的基础上,又将其功耗低、面积效率高的应用处理器Cortex-A5纳入该项目,帮助开发人员在高级设计中访问支持Linux的Arm处理器。

由于Helium拥有统一的工具链、库和模型,软件开发将变得更加简单。
Helium工具链包括Arm Development Studio,涵盖Arm Keil
MDK、Arm模型(开发人员可立即使用,用于代码建模)和各种软件库,包括CMSIS-DSP和CMSIS-NN,允许开发人员根据他们的需求选择最合适的资源。对于信号处理应用,我们通过消除对专用DSP或功能加速器的需求以及免去了一层设计复杂性,使之更加简化。

ARM Mail-G57 GPU
主要针对游戏的高能效计算需求和复杂的机器学习,能效提升了 30%,性能提升了
30%,机器学习性能提升了 60%。

这类产品使用一整套软件堆栈,并受益于可在Linux等全功能操作系统上立即运行的涵盖广泛的中间件和应用程序。开发富嵌入式物联网设计的企业目前正在转向使用专用集成电路,以满足他们的特定需求。

针对功能最为受限的嵌入式系统,功耗效率是优先考虑的因素,以往的解决方案将Cortex处理器搭配SoC芯片内的DSP处理器,但是这种作法也增加了硬件与软件设计的复杂性。当我们希望在这些设备上集成更多机器学习功能时,现有的SoC开发挑战将变得更加突出,因此在运用不同的工具链、编程、调试以及使用各种复杂的专有安全解决方案时,需要开发人员拥有更高水平的专业知识。

Mali-D37 DPU 被 Arm 定义为最小面积的 DPU,首次采用 Komeda 架构,小于
1mm²面积可提供 2K 和全高清视频,系统的功耗和内存管理需求降低了 30%。

3、新架构针对下一代Cortex-M处理器而设计,适用于需在本地进行决策的小型嵌入式设备

Arm 于 2011 年发布 V8 架构,并在此架构的基础上发布了 Cortex
A76、Cortex-A77
等芯片核,华为等芯片设计企业再在这些芯片核的基础上,设计出最终的手机芯片。

驱动下一代嵌入式和物联网设备

针对美国实体清单对于华为的限制,此前 Arm 全球负责芯片授权的 IP
产品事业群总裁热内·哈斯曾明确表示,华为和海思是 Arm
的长期合作伙伴,后续的芯片架构都可以授权给华为海思。

除提升性能、降低开发成本之外,SoC设计和开发团队还将立即获得以下优势,包括:

自从去年宣布推出 Project Trillium 后,Arm 已经针对 ML
处理器进行强化,包括超过两倍的功耗效率,达到 5
TOPs/W、存储器压缩技术提升达三倍,以及将新一代性能提升至最多可达八核、最高可达
32 TOP/s。