百度飞桨轻量化推理引擎再升級,新增适配国产AI芯片比特大陆算丰

编程入门 行业动态 更新时间:2024-10-17 11:26:11

百度飞桨轻量化推理引擎再升級,新增适配国产AI<a href=https://www.elefans.com/category/jswz/34/1769159.html style=芯片比特大陆算丰"/>

百度飞桨轻量化推理引擎再升級,新增适配国产AI芯片比特大陆算丰

 

  2020年伊始,AI技术持续深入发展,人工智能场景规模化落地与应用不断创造新的中国速度。随着AI技术与传统行业的不断融合,智能经济时代的全新产业版图初步显现。

  下载安装命令

  ## CPU版本安装命令

  pip install -f paddlepaddle

  ## GPU版本安装命令

  pip install -f paddlepaddle-gpu

  进入智能时代,AI芯片和深度学习框架二者融合成为构建我国自主AI生态的关键力量。作为智能时代的操作系统,深度学习框架起到承上启下的作用——上承应用、下接芯片。作为智能时代的核心大脑,AI芯片支持框架平台让AI技术更加普及易用,为行业赋能更多应用场景。

  近日,百度飞桨深度学习平台新增适配比特大陆最新算丰系列AI芯片,两者的成功融合,在芯片利用率、性能功耗比等指标上尽显优势,相比传统GPU更适合深度学习推理,成为我国构建自主AI生态的典范。

  轻量化推理引擎Paddle Lite再升级

  作为国内功能最完备的端到端开源深度学习平台,飞桨以其兼具灵活和效率的开发机制、工业级应用效果的模型、超大规模并行深度学习能力、推理引擎一体化设计以及系统化的服务支持,成为加快产业智能化升级的主力军。

  Paddle Lite是飞桨推出的一套功能完善、易用性强且性能卓越的轻量化推理引擎。轻量化体现在使用较少比特数用于表示神经网络的权重和激活,能够大大降低模型的体积,解决终端设备存储空间有限的问题。优品拍拍

  推理性能也整体优于其他框架,以ResNet50模型做例,在高通骁龙845上,Paddle Lite相比其他框架,比MNN快10.26%,比NCNN快17.1%。近期已正式上线的V2.3版本更通过支持“无校准数据的训练后量化”及网络结构与算子优化,在不牺牲性能的条件下,将模型压缩率提升至75%,有效将模型体积大幅缩小,进而满足移动及边缘端设备的轻量化需求。而搭载了比特大陆AI芯片的V2.4版本即将在近期上线。

更多推荐

百度飞桨轻量化推理引擎再升級,新增适配国产AI芯片比特大陆算丰

本文发布于:2024-02-19 12:57:55,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/1764006.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:芯片   大陆   引擎   轻量化   再升級

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!