继上个版本发布后,PaddlePaddle添加了很多新的特性和工具组件,目前已发展为集核心框架、工具组件和服务平台为一体的端到端开源深度学习平台。
Paddle Fluid v1.4升级包含PaddleNLP、视频识别工具集、Paddle Serving、PaddleSlim 等,覆盖深度学习开发、训练、预测的全流程的特性。工具组件升级包含PaddleHub 、AutoDL Design等,为开发者提供了更丰富、高效的工具。
项目地址:
https://github.com/PaddlePaddle/Paddle/releases
重要更新
基础框架对训练速度和显存占用进行了全面优化,完整支持量化训练,初步集成了Intel nGraph,动态图preview版单机单卡基本功能完善。
正式发布模型压缩工具包PaddleSlim和模型预测服务Paddle Serving,全面提升PaddlePaddle部署能力。
优化分布式IO,增加远程文件系统流式读取能力。GPU多机多卡同步训练通过增加稀疏通信能力提升带宽不敏感训练能力,在低配网络带宽网络环境下,例如10G网络下,同步训练可提速10倍。
更好支持K8S生态,提供工业生产环境下的Paddle-K8S-Operator支持;Kubeflow支持paddle-job。
正式发布视频识别工具集,覆盖主流视频分类模型,包括Non-Local、TSM 、Attention Cluster、NeXtVLAD、Attention LSTM、StNet、TSN。
新增中文语义表示模型ERNIE,在多项中文任务上相对 BERT精度绝对提升1-2个百分点。新增对话通用理解相关模型DGU,支持5类对话任务,在3个公开数据集达到SOTA 的效果。
新增基于图神经网络的推荐模型(Graph Neural Network),并提供公开数据集下的Benchmark效果。
正式发布PaddleHub预训练模型管理工具,提供包括预训练模型管理、命令行一键式使用和迁移学习三大功能。旨在帮助用户更高效地管理模型并开展迁移学习的工作。
正式开源AutoDL Design,自动化网络结构设计。
全新升级聚焦并行的PARL1.1,一个修饰符,实现并行强化学习算法。
正式发布X2Paddle模型转换工具,用户可以无损地将其他深度学习框架预测模型迁移至PaddlePaddle。
基础框架
预测引擎
服务器预测
移动端预测
部署工具
模型压缩工具包PaddleSlim
剪切模型压缩策略:支持敏感度和uniform两种方式,支持VGG、ResNet、MobileNet等多种类型的网络,支持用户自定义剪切范围。
量化训练模型压缩策略:支持动态和静态两种量化训练方式,支持对参数进行分channel量化或整体量化,支持以float类型模拟int8值域保存模型,支持以int8类型保存模型,支持以兼容paddle-mobile的格式保存模型。
蒸馏模型压缩策略:支持在teacher网络和student网络任意层添加组合loss,支持FSP Loss, L2 Loss, Softmax with Cross-entropy Loss。
其它功能:支持配置文件管理压缩任务超参数,支持多种压缩策略组合使用,蒸馏和剪切压缩过程支持checkpoints功能。
支持预测远程部署。
服务端支持用户新增数据处理Operator,支持用户自定义预估逻辑,支持模型热加载功能。
客户端提供C++ SDK,供业务逻辑进行调用,支持自定义protobuf定制网络数据传输协议,A/B测试能力。
提供经典任务使用Paddle Serving的示例模板,包括文本分类,图像分类任务。
针对文本分类任务,给出延迟和吞吐的Benchmark。
分布式训练
模型建设
PaddleCV 智能视觉
正式发布视频识别工具集,覆盖主流视频分类模型,包括Nonlocal、TSM 、Attention Cluster、NeXtVLAD、LSTM,、StNet、TSN,效果和主流实现打平。
新增基于ImageNet的预训练模型: GoogleNet, ShuffleNetV2, ResNet18,ResNet34。
新增支持目标检测YOLOv3模型,效果与最好公开实现打平(mAP比原作者提高4.7绝对百分点)。
发布基于COCO和MPII数据的Simple Baselines人体姿态估计模型,效果和主流实现打平。
特征学习模型新增npair loss, 在预训练模型(arcmargin loss)的基础上将recall@1提升至79.03%(+0.78%)。
PaddleNLP智能文本处理
新增支持中文语义表示ELMo模型,支持多卡训练,训练速度比主流实现快1倍。验证在中文词法分析任务上F1值绝对提升1.1%,在中文阅读理解任务上Rouge-L值提升1%。
新增中文语义表示模型ERNIE,在自然语言推断、语义相似度、命名实体识别、情感分析、问答匹配等中文任务上相对 BERT 中文模型绝对提升了 1% ~ 2% 的精度。
阅读理解模型升级,优化数据预处理和文档选取,在DuReader验证数据集上Rouge-L提升至47.65(baseline 39.29)。
新增基于知识感知的对话模型,对比基线生成对话模型,在F1, BLEU1, BLEU2的指标上平均提升1个百分点。
发布对话模型工具集,包含DeepAttentionMatchingNet, 新增对话自动评估工具和基于BERT的对话通用理解相关模型DGU(Dialogue General Understanding),支持对话语义匹配、DA、DST、槽位解析和意图识别五种对话任务,3个公开数据集达到SOTA 的效果。
发布PaddleNLP工具包,统一文本分类、文本匹配、序列标注、阅读理解、智能对话等NLP任务的建模,并开放对应的工业级预训练模型。
PaddleRec智能推荐
Deep Interest Network(DIN):新增DIN模型,并在公开数据复现效果,支持cpu和gpu模式下的单机单/多卡训练。DIN适用于推荐中的排序场景(如ctr预估),主要特点为对历史序列建模的过程中结合了预估目标的信息。
Graph Neural Network(GNN):新增基于session的图神经网络推荐模型,并在公开数据复现效果,支持cpu和gpu模式下的单机单卡训练。该模型适用于推荐中的召回场景,使用GNN对用户的历史信息进行建模,可以捕捉到item序列之间蕴含的更复杂的转换关系。
Word2vec:word2vec采样策略调优,并在公开数据复现效果,添加多机训练支持。
工具组件
正式开源AutoDL Design自动化网络结构设计
用AutoDL Design方法生成的一系列神经网络,以及使用CIFAR10数据在其上训练出来的一共6个模型,包括了网络结构以及对应的权重。因此每一位业内同行或者是有兴趣的研究者都可以很容易使用PaddlePaddle以及公开的CIFAR10数据,在这6个模型上进行推理(inference)以及模型融合,获得超过98%的准确率。
生成器和评估器的源码开源,该源代码使用了完全由百度自己研发的PaddlePaddle平台和PARL框架。代码中附带有中文文档,以及一些方便大家快速运行的更简单的小demo(例如,以“RNN生成多少个1”作为奖励,可以快速验证整个框架的正确性)。大家可以下载、安装和运行,尝试生成属于自己的、全新的神经网络结构。
全新升级聚焦并行的PARL1.1,一个修饰符,实现并行强化学习算法
正式发布PaddleHub预训练模型管理工具,旨在帮助用户更高效的管理模型并开展迁移学习的工作。
预训练模型管理:通过hub命令行可完成PaddlePaddle生态的预训练模型下载、搜索、版本管理等功能。
命令行一键使用:无需代码,通过命令行即可直接使用预训练模型进行预测,快速调研训练模型效果。目前版本支持以下模型:词法分析LAC;情感分析Senta;目标检测SSD;图像分类ResNet, MobileNet。
迁移学习:提供了基于预训练模型的Finetune API,用户通过少量代码即可完成迁移学习,包括BERT/ERNIE文本分类、序列标注、图像分类迁移等。
BUG修复
修复backward时BFS带来的精度不一致的问题
修复optimizer minimize创建多余反向输入
修复Paddle-TRT运行显存占用大的问题
修复AllReduceDepPass中的Bug
修复FastThreadedExecutor中的Bug
修复Reshape、cross_entropy、arg_min_max、recurrent等Op中的bug
修复VarBase构造的问题
修复了若干memory_optimizer_pass中的问题与bug:将复用逻辑由>= 调整为 =,减少了因Variable复用造成的碎片,去掉了memory_opitmize_pass对BlockDesc的依赖,修复了不同类型的Variable会相互复用的bug
修复python3下使用paddle.util.plot报错问题
提升Profiler的稳定性并新增Memory Profile功能
修复C++预测必须在线程内clone,才能使多线程生效的问题
修复一些OP在InferShape时对变长shape检查的错误
增加一些OP对长度为零的LoD序列输入的支持
修复用recurrentop实现StaticRNN的一些bug
修复动态图dygraph模型checkpoint存储和读取的bug
修复一些OP在InferShape时对变长shape检查的错误
增加一些OP对长度为零的LoD序列输入的支持
修复用recurrentop实现StaticRNN的一些bug
修复动态图dygraph模型checkpoint存储和读取的bug
*点击“阅读原文”可直接前往项目地址查看!
