嵌入式AI简报2020-08-26

导读:本期18条。【新闻】美商务部再发声明欲断华为芯片后路,IBM首款7nm EUV商用处理器POWER10面世增加AI推理指令,首发于iPhone12的苹果A14与酷睿i9的性能对比,高通次旗舰骁龙860/875 Lite曝光,iOS AR APP让纸片人动起来;【论文】针对arm/gpu的2到8bit卷积优化效果拔群,模式化稀疏度权重剪枝并开发基于AI编译的手机端推理框架,速度快支持任意尺度的CNN模型结构OverNet,精度速度双超MobileNetV2的端侧模型结构ANTNet;【开源】特斯拉AI总监实现300行代码的minGPT,百度开源PaddleOCR 8.6MB OCR模型训练推理一并支持,多平台轻量级PyTorch模型推理框架MsnhNetTensorFlow Lite增强在手机GPU OpenCL方面的性能;【博文】阿里PAI团队的AI编译优化工作在业务上的实践探索,armv7架构下3×3盒子滤波的优化实践,地平线提出或许比MLPerf更优的MAPS等硬件评测指标,使用NVIDIA安培架构inline PTX发挥GPU Tensor Core潜能,最后是最近MLPerf的结果解读之《AI训练芯片的巅峰对决》
微信公众号: NeuralTalk
Editor: https://github.com/ysh329
Project: https://github.com/ysh329/awesome-embedded-ai

好了,先是一些热身小新闻ヽ(✿゜▽゜)ノ:

  • 华为:麒麟9000下月发,将采用台积电5nm工艺打造,CPU采用A77架构GPU为Mali G77,拥有更强的5G和AI处理能力
  • 华为:美商务部再发最新声明,欲断华为芯片后路买第三方芯片也不行,华为云等38家子公司也进入“实体清单;
  • 台积电:过去7个月已造出十亿颗7nm芯片。作为第一家将EUV投入7nm时代商业化生产的公司,今年能够批量生产5nm
  • 台积电:台积电第26届技术研讨会上公布3nm技术细节,明年试产,分享了5nm后续产品N5P和N4工艺节点进展。正建8000人2nm新研发中心;
  • Imagination:RIOS国际开源实验室(RISC-V International OpenSource Laboratory)与Imagination Technologies建立战略伙伴关系,共同助力RISC-V生态发展;
  • IBM:首款7nm EUV商用处理器POWER10面世,增加了对AI推理相关的指令和数据类型的支持,AI推理性能最高提升20倍;
  • 英伟达:最快月底收购ARM,估值或达500亿美元,双方已进入排他性谈判阶段。

注:个别链接打不开,请点击文末【阅读原文】跳转

业界新闻

  • 苹果A14有多强?竞品是英特尔酷睿i9 | 安兔兔
    摘要:A14X Bionic芯片将首发于下一代iPad Pro产品上,而它的性能也将获得史无前例的大幅度提升,称其性能几乎可以与英特尔酷睿i9-9880H相当
    今年9月的iPhone 12系列5G手机,预计会有四款,将采用A14 Bionic芯片,台积电5nm工艺,性能相比前代提升50%,苹果将逐步从英特尔的芯片过渡到自研A系列芯片,今后iPhone和iPad的对比对象都会是移动笔记本平台芯片。
  • 骁龙860/骁龙875 Lite曝光,真正的高通次旗舰5G芯片 | 安兔兔
    摘要:高通正规划骁龙800系列家族的次旗舰5G芯片,填补骁龙800系列、骁龙700系列间的空白,更好应对华为麒麟800系列、天玑800系列等竞品。据说暂定名为骁龙860,即骁龙865精简外挂5G基带。而下一代,有望年底推出新旗舰骁龙875G,集成5G基带,也可能有精简版骁龙875 Lite。
    此前计划今年Q4商用骁龙662、骁龙460,明年Q1商用骁龙875G、骁龙435G,明年Q2商用骁龙735G。其中,骁龙875G、骁龙735G采用三星最新8nm工艺制造,但据称良品率不达标,可能影响原定计划。
  • 英特尔甩出六大新技术雪耻!两款GPU已在路上 | 芯东西
    摘要:8月14日英特尔在2020年架构日上推出10nm SuperFin晶体管技术,用于英特尔代号为“Tiger Lake”的下一代移动处理器,也基于此,推出名为“Willow Cove”的CPU微架构,该架构在前代基础上实现超越代间CPU性能的提升大幅增强频率和功率效率。同时,该架构在更大的非相容1.25MB MLC中,引入了新设计的缓存架构,并通过控制流强制技术(Control Flow Enforcement Technology)增强了安全性。
    此外,也推出了Xe图形架构,主要有Xe-LP(低功耗)、Xe-HP、Xe-HPC和Xe-HPG四个系列。Tiger Lake是英特尔第一个采用全新Xe-LP(低功耗)微架构的SoC架构,能够对CPU、AI加速器进行优化,实现CPU、AI和图形性能的进一步提升
    其中,Xe-LP是英特尔针对PC和移动计算平台的最高效架构。它的最高配置EU单元为96组,并具有新架构设计,包括异步计算、视图实例化(view instancing)、采样器反馈(sampler feedback)、带有AV1的更新版媒体引擎,以及更新版显示引擎等。
  • iOS AR APP软件:让生活中的纸片人动起来,一周内成手机应用榜单第一名 | 机器之心
    摘要:一款名为「RakugakiAR」的AR APP正式发布一周之内,便登顶亚洲多地应用商店下载榜,在 twitter 等社交媒体上也已经开始刷屏。
    AR 也不是什么新鲜技术了,为什么这款这么火?首先,Rakugaki 在日语中是涂鸦的意思,顾名思义,它的独特之处在于:无论你画什么,画功有多鬼畜,它都能让画里的内容动起来,因为对摄像头模组有特殊要求,目前这款软件仅有 iOS 版

论文

  • [ICPP 2020] Extremely Low-bit Convolution Optimization for Quantized Neural Network on Modern Computer Architectures
    Video:https://youtu.be/aC–JOyqRPs
    Slide:https://jnamaral.github.io/ic…\_Extremely.pdf
    摘要:随着神经网络模型规模增大,量化是较为常用的模型压缩方法之一。现代处理器如ARM CPU和nvidia gpu虽已提供了对低位算术指令的支持。但在极低位卷积计算上,如ARM处理器在2到8位和NVIDIA GPU如4位、8位上,仍然缺乏有效和实用的优化。
    本文探讨不同体系结构上极低位卷积的性能优化方法。在ARM处理器上,作者提出了2到3位,和4到8位卷积的两种指令方案以及相应的寄存器分配方法。此外也重新设计了GEMM计算的数据填充和包装优化。还实现了特定比特宽度(如4到6比特)的winograd卷积算法,以获得更高的性能。
    nvidia gpu上,也提出了一种数据划分机制和多级内存访问优化,以更好地适应GPU线程和内存层次结构的计算。也提出量化融合以消除不必要的数据存取。
    实验结果表明,与ncnn和cuDNN等最先进的框架和库相比,实现了更好的极低位卷积性能。据作者所知,这是第一个提供极低位卷积的高效实现,包括ARM CPU上的2到8位和NVIDIA GPU上的4位/8位,与cudnn/tensorRT/ncnn/tvm(2bit)对比速度提升明显。
  • [2001.07710] 美国东北大学等提出新型剪枝方案,基于编译优化的移动端AI框架:YOLOv4目标检测、换脸、视频上色全部实时手机端实现 | 极市平台
    标题:An Image Enhancing Pattern-based Sparsity for Real-time Inference on Mobile Devices
    文章:https://arxiv.org/abs/2001.07710
    项目:https://www.cocopie.ai/
    B站:https://space.bilibili.com/57…
    摘要:通过可视化 VGG-16 在 ImageNet 上的预训练模型的部分权重,发现(i)卷积核的有效面积(即具有较高绝对值的权重)形成一些特定形状并在模型中反复出现,(ii)某些卷积核的权重值非常小,因此并不能对输出产生有效的激活,作者认为这种卷积核是无效卷积核。基于上述两个发现,该研究提出了一个新的稀疏性维度——模式化稀疏度,并且提出了基于模式化稀疏度的深度神经网络权重模式化剪枝的概念。
    在算法层面,作者设计了模式化稀疏度感知训练框架(pattern-aware network pruning framework),能够同时实现卷积核模式集的自动提取,模式化稀疏度的自动选择与模型训练。在卷积核模式集的自动提取中,首先构建一个模式集全集,包含了所有可能种类的卷积核模式。在训练过程中,将这个模式集作为稀疏化目标,通过 ADMM(alternating direction method of multipliers)将原始剪枝问题解耦为 Primal-Proximal 问题,迭代式地通过传统梯度下降法求解 Primal 问题,并引入一个二次项迭代求解 Proximal 问题。通过每次 Primal-Proximal 迭代更新,使卷积核动态地从模式集中选择当前最优的卷积核模式,并同时通过梯度下降法训练该模式非零位置的权重。当卷积核对稀疏模式的选择趋于稳定的时候(一般仅需要迭代 3-5 次),就可以删除掉那些被选择次数非常少的卷积核模式,从而将模式集的大小降低,并用更新后的模式集进行下一轮迭代,最终实现模式集的自动提取。
    作者首先确定了每一个卷积核中应保留 4 个非零值,控制模式集总集的大小,同时也利于移动端 CPU/GPU 的 SIMD 结构,并在 ImageNet 图像上的推理速度与在现有的深度神经网络加速器(TVM、MNN、TensorFlow-Lite)上做了速度对比。
  • [2008.02382] OverNet: 速度快&高性能&任意尺度超分 | AIWalker
    标题:OverNet: Lightweight Multi-Scale Super-Resolution with Overscaling Network
    文章:https://arxiv.org/abs/2008.02382
    摘要:基于CNN的超分方法往往存在计算量过大的问题,同时大多模型仅能处理特定超分比例,进而导致泛化性能缺失,内存占用过高。
    为解决该问题,作者提出了OverNet,一种轻量型CNN网络用于单模型任意尺度图像超分。首先,作者引入一种轻量型递归特征提取器,它通过跳链接、稠密连接进行特征的重复与有效应用;然而,为最大化特征提取器的性能,作者提出高精度重建模块,易于嵌入现有超分网络并改进性能;最后,作者引入多尺度损失函数并获得了跨尺度泛化性能。
    实验验证该方法参数量更少、性能更优。本文贡献主要有:轻量型递归特征提取器;一种过尺度模块用于生成过尺度特征并进而用于生成任意尺度输出,可有效提升模型重建效果;一种新颖多尺度损失函数,可同时进行单模型多尺度训练。
  • [1904.03775] ANTNet: 端侧架构,精度速度双超MobileNetV2 | AIWalker
    标题:ANTNets: Mobile Convolutional Neural Networks for Resource Efficient Image Classification
    文章:https://arxiv.org/abs/1904.03775
    代码:https://github.com/yyxiongzju…
    摘要:尽管深度分离卷积是一种比标准卷积更有效的计算单元,但它往往会导致模型的表达能力降低。作者提出一种新颖的模块ANTBlock,通过在ANTBlock中引入注意力机制(位于depthwise卷积与投影层之间,与MobileNetV3类似),它可以在高维空间提升模型的表达能力。
    实验表明ANTBlock构建的ANTNet可跨数据集取得更优的性能(相比同等计算消耗的端侧网络架构,比如MobileNet与ShuffleNet系列)。在CIFAR100数据集上,所提方法取得了75.7%的top1精度,它比MobileNetV2高1.5%且少8.3%的参数量与19.6%的计算量;在ImageNet数据集上,所提方法取得了72.8%的top1精度,它比MobileNetV2高0.8%,同时在iphone5上的速度为157.7ms(比MobileNetV2快20%)。
  • [2008.04175v1] EagerPy: Writing Code That Works Natively with PyTorch, TensorFlow, JAX, and NumPy
    代码:https://github.com/jonasraube…
    摘要:EagerPy是一个Python实现的框架,无需编写对应框架的代码,便可自动使用PyTorch、TensorFlow、JAX和NumPy。换句话说,如果觉得这个库不好用,用户可以轻松切换到其它框架上。此外,EagerPy提供了完善的类型注释和不同框架同一方法的统一且一致的支持。

开源项目

注:每条内容前缀为github地址的仓库拥有者和仓库名,补全地址后为 github.com/<repo_owner>/<repo_name>

  • karpathy/minGPT: 特斯拉AI总监Karpathy写了个GPT的Pytorch训练库,仅300行代码 | 机器之心
    摘要:近日,特斯拉人工智能研究负责人、前 OpenAI 研究科学家 Andrej Karpathy 基于 PyTorch,仅 300 行代码就写出一个小型 GPT 训练库 minGPT。Karpathy 表示 minGPT 可做加法运算和字符级的语言建模,且准确率还不错。
  • PaddlePaddle/PaddleOCR: 百度PaddleOCR再发大招:自研顶会SOTA算法正式开源 | 飞桨PaddlePaddle
    摘要:对比目前主流OCR开源相关模型及框架的核心能力:
  • 语种方面,easyOCR的优势在于多语言支持,非常适合有小语种需求的开发者;
  • 预训练模型方法,easyOCR目前暂无超轻量模型,Chineseocrlite最新的模型是10M左右,而PaddleOCR提供的8.6M是目前业界已知最轻量的;
  • 部署方面,easyOCR模型较大不适合端侧部署,Chineseocrlite和PaddleOCR都具备端侧部署能力;
  • 自定义训练方面,实际业务场景中,预训练模型往往不能满足需求,对于自定义训练和模型Finetuning,目前只有PaddleOCR支持。
    PaddleOCR 8.6M超轻量模型,支持自定义训练、丰富的部署方式(覆盖服务器端、移动端/嵌入式端(apk/sdk)多场景需求)
  • msnh2012/Msnhnet: 多平台轻量级PyTorch模型推理框架MsnhNet | GiantPandaCV
    摘要:一款受darknet启发、纯c++/CUDA实现的轻量级推理框架,支持windows, linux, macOS系统,支持intel x86, amd x86(未测试)和arm。特点是支持Pytorch模型的部署。
  • TensorFlow/TensorFlow:谷歌称 TensorFlow Lite的 OpenCL 将推理性能提高一倍 | TensorFlow
    摘要:新的 TensorFlow Lite推理引擎提供了一个GPU后端,可以选择合适的工作组规模来提高性能,在高通 Adreno GPU 等硬件上性能提高了 50%,且原生支持 FP16。Google 指出,OpenCL 并非标准 Android 发行版的一部分,因此一些用户无法使用它。作为一种权宜之计,TensorFlow Lite 现在可以在运行时检查 OpenCL 的可用性,如果不可用,那么库就会退回到 OpenGL 后端

博文

  • 阿里PAI团队在业务实践上的AI编译优化
    摘要:在这篇文章里,我们会介绍一个AI编译优化技术在阿里内部实际业务场景的落地case。AI编译技术在业务落地的过程中,不仅完善了自身的完备性和优化效果,同时在和业务结合的过程中,加深了我们对于线上环境复杂度的认知,理解了分布式训练中带来的各种挑战和问题,在过程中也积累了一些获取最优模型迭代性能的best practice。
  • AI基准测试MLPerf模型少、更新慢,地平线提出的MAPS会更好吗?| CCF-GAIR 2020
    摘要:地平线联合创始人兼技术副总裁黄畅指出:MLPerf有模型更新慢、模型少、模型选择受各种因素影响的挑战。他也首次提出了新的方法用以评估芯片的AI真实性能——MAPS (Mean Accuracy-guaranteed Processing Speed,在精度有保障范围内的平均处理速度)。
    MAPS是评估AI芯片真实性能更好的方法吗?AI芯片性能的评估需要快、准、省,在这三个维度下地平线提出的新的AI芯片性能评估的方法称为MAPS(Mean Accuracy-guaranteed processing speed),意思是在精度有保障的范围评测芯片的平均效能,得到一个全面、完整、客观、真实的评估
    MAPS的计算公式:MAPS = 所围面积 /(最高精度-最低精度),含义为在 ImageNet 的主流精度范围(75%~80%)下,速度最快的模型所代表的点(由精度和帧率确定)所围多边形面积大小即为芯片处理ImageNet AI任务的能力大小。其代表的真实的AI效能也有对应的公式: MAPS/Watt&MAPS/$=TOPS/Watt&TOPS/$XUtilizationX MAPS/TOPS。这三个要素中,第一个TOPS/Watt、TOPS/$是传统的方式。中间的要素有效利用率,是根据架构特点,利用编译器等去统化地解决极其复杂的带约束的离散优化问题,得到一个算法在芯片上运行的实际的利用率,实际是软硬件计算架构的优化目标。第三个要素是AI算法效率,指的是每消耗一个TOPS算力,带来的实际AI算法性能,体现的是AI算法效率的持续提升。
  • 基于NCNN的3×3可分离卷积再思考盒子滤波 | GiantPandaCV
    摘要:这篇文章主要是对NCNN 的3×3可分离卷积的armv7架构的实现进行了非常详细的解析和理解,然后将其应用于盒子滤波,并获得了最近关于盒子滤波的优化实验的最快速度,希望对做工程部署或者算法优化的读者有一定启发。
  • 如何利用 NVIDIA 安培架构 GPU 的新一代 Tensor Core 对计算进行极致加速 | NVIDIA开发者社区
    摘要:2020年5月14日,NVIDIA发布了最新的 GPU 架构:安培,以及基于安培架构最新的 GPU A100。在安培架构中新增了功能强大的第三代 Tensor Core 单元。相较于 V100,A100 上搭载的第三代 Tensor Core 增加了对 DL (Deep Learning)和 HPC (High Performance Computing) 数据类型的全面支持,提高了各精度的运算吞吐能力,同时新增了稀疏运算特性,进一步实现了峰值运算性能的翻倍。
    本文将会回顾一下 Tensor Core 的发展路线,并介绍如何通过 inline PTX 使用 Tensor Core如mma PTX 指令还有ldmatrix PTX 指令等等。
  • AI训练芯片巅峰对决,如何正确“围观” | StarryHeavensAbove
    摘要:AI芯片Benchmark MLPerf最近公开了训练测试0.7版本的结果。这次的结果有以下几个主要看点和亮点:新硬件亮相:Google TPU4应该算第一次公开亮相,Nvidia A10,华为的Ascend910第一次参与。此外,这次Nvidia的A100和Google TPUv4系统,CPU则来自AMD。训练系统的规模继续飙升:Google TPU v3系统最多4096个处理器,TPU v4系统最多256个处理器;Nvidia V100系统最多1536个处理器,A100系统最多2048个处理器;中国科学院深圳先进技术研究院提交的Ascend910系统最多1024个处理器。自有框架和硬件相结合Framework方面,Nvidia针对推荐系统的Merlin/HugeCTR,Google的JAX和华为的Mindspore都是第一次亮相。这几个框架和Tensorflow,Pytorch相比都针对自家硬件有更多性能的优化。

往期回顾

  • 嵌入式AI简报(2020-08-06)
  • 嵌入式AI简报(2020-07-18)
  • 嵌入式AI简报(2020-07-18)
  • 嵌入式AI简报 (2020-07-02)
  • 嵌入式AI简报 (2020-06-17)
  • 嵌入式AI简报 (2020-06-03)
  • 嵌入式AI简报 (2020-05-15)
  • 嵌入式AI简报 (2020-04-26)
  • 嵌入式AI简报 (2020-04-04)
  • 嵌入式AI简报 (2020-03-19)
  • 嵌入式AI简报 (2020-03-02)
  • 嵌入式AI简报 (2020-02-16)
  • 嵌入式AI简报 (2020-01-27)
  • 嵌入式AI简报 (2020-01-06)

本作品采用知识共享署名-相同方式共享 4.0 通用许可协议进行许可。
欢迎关注公众号,关注模型压缩、低比特量化、移动端推理加速优化、部署。

更多嵌入式AI相关技术干货请关注嵌入式AI专栏。

发表评论

邮箱地址不会被公开。 必填项已用*标注