滴滴推理引擎IFX:千万规模设备下AI部署实践 (2)

基于架构的升级,IFX 团队进一步打造 AI 部署产品化解决方案,争取为业务提供更加系统化的支持。主要围绕以下 6 个方面进行能力建设。

image

高性能

为保障业务的核心竞争力,模型执行速度对于成本、安全、业务效果等影响非常大,我们针对推理引擎内核以及全链路进行了一次性能改造,在业务性能上,得到了不错的效果。

汇编级优化:核心 op 汇编优化,模型性能提升 40% - 200%

全链路优化:预处理、后处理、网络调用链路优化,服务化性能提升 30 - 260%

local性能测试对比

服务化性能对比

精巧性

为降低 APP 包大小,提升用户体验,我们专门针对引擎以及模型,做了大量的裁剪和压缩工作。

模型压缩:多种压缩策略联合驱动,压缩不降低精度,压缩率 < 25%

引擎压缩:二进制 elf 压缩,进一步降低 SDK 大小,通常压缩率在 50% 左右

滴滴推理引擎IFX:千万规模设备下AI部署实践

统一性

为了提升接入效率,提供更加高效的接入方案,针对云、端、边等多种场景,IFX 可以提供统一的接入方案,同一个算法模型,支持部署到多种不同硬件设备。

滴滴推理引擎IFX:千万规模设备下AI部署实践

多框架

业务方选用的算法框架相对比较自由,为让体验和接入流程一致,IFX 支持将 TensorFlow,PyTorch,Caffe,Darknet 等不同的深度学习训练得到的算法模型,转换成 IFX 支持的模型,并提供兼容性设计,满足业务迭代以及算法升级的需求。

自动化

AI 模型落地的过程中,存在较大的人工操作,为了降低每一个环节人工干预的程度,我们梳理了一些值得自动化实施的环节,帮助业务更快进行开发。

SDK 自动化生成

服务自动化压测

模型正确性评测

功耗、CPU Loading 等自动化测试

安全性

滴滴有大量的算法部署在端侧,目前我们发现软件系统会受到一些外部的攻击,为了更好的提升 AI 软件的运行安全性,保障滴滴业务的同时,更好的对外输出,我们进行了一次架构安全升级。

接入层:离线、在线授权方案,严控接入设备

SDK层:IOS,Android,Linux 代码混淆,保护业务逻辑

引擎层:函数级别加密和混淆,杜绝反调试,反编译

模型层:模型文件加密,保护算法结构

4. 总结

当前,IFX 已经服务了内部不少的业务,但是在 AI 部署的过程中,依然存在很多低效的环节需要迭代和优化。IFX 团队也将继续在这个过程中进行能力建设,后续我们计划将整个开发和生产流程线上化,采用统一的开发环境,整合开发、测试、验证、分析、上线流程,需要做的工作还很多,但未来可期。

滴滴推理引擎IFX:千万规模设备下AI部署实践

团队介绍

滴滴云平台事业群滴滴机器学习平台团队是一个由技术和梦想驱动的团队。在高性能计算,异构计算领域有独到的技术优势,团队主要成员曾推出了国内最早的云上 GPU,HPC 产品。在滴滴,机器学习平台团队致力于构建稳定、安全、高效、高性能、易用性强的 AI 一站式开发和部署平台,包括高效的滴滴机器学习平台建设、业务价值创造和落地的滴滴云平台建设、追求极致高性能的推理引擎建设。

作者简介

滴滴推理引擎IFX:千万规模设备下AI部署实践

机器学习平台框架组负责人,现负责异构计算、AI系统 优化等工作,为公司提供端/云AI优化和部署方案。曾就职于阿里,参与异构计算集群、阿里云 HPC 产品等研发工作。

延伸阅读



内容编辑 | Teeo
联系我们 | DiDiTech@didiglobal.com

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/zzpwgw.html