前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >PaddleHub--{超参优化AutoDL Finetuner}【二】

PaddleHub--{超参优化AutoDL Finetuner}【二】

作者头像
汀丶人工智能
发布2022-12-21 16:40:28
4010
发布2022-12-21 16:40:28
举报
文章被收录于专栏:NLP/KGNLP/KG

?相关文章:

基础知识介绍:

【一】ERNIE:飞桨开源开发套件,入门学习,看看行业顶尖持续学习语义理解框架,如何取得世界多个实战的SOTA效果?_汀、的博客-CSDN博客_ernie模型

百度飞桨:ERNIE 3.0 、通用信息抽取 UIE、paddleNLP的安装使用[一]_汀、的博客-CSDN博客_paddlenlp 安装

?项目实战:

PaddleHub--飞桨预训练模型应用工具{风格迁移模型、词法分析情感分析、Fine-tune API微调}【一】_汀、的博客-CSDN博客

PaddleHub--{超参优化AutoDL Finetuner}【二】_汀、的博客-CSDN博客

PaddleHub实战篇{词法分析模型LAC、情感分类ERNIE Tiny}训练、部署【三】_汀、的博客-CSDN博客

PaddleHub实战篇{ERNIE实现文新闻本分类、ERNIE3.0 实现序列标注}【四】_汀、的博客-CSDN博客

?PaddleHub还提供了超参优化(Hyperparameter Tuning)功能, 自动搜索最优模型超参得到更好的模型效果:

https://github.com/PaddlePaddle/PaddleHub/blob/release/v1.6/docs/tutorial/autofinetune.md

1.超参优化AutoDL Finetuner

目前深度学习模型参数可分为两类:模型参数 (Model Parameters)?与?超参数 (Hyper Parameters),前者是模型通过大量的样本数据进行训练学习得到的参数数据;后者则需要通过人工经验或者不断尝试找到最佳设置(如学习率、dropout_rate、batch_size等),以提高模型训练的效果。如果想得到一个效果好的深度学习神经网络模型,超参的设置非常关键。因为模型参数空间大,目前超参调整都是通过手动,依赖人工经验或者不断尝试,且不同模型、样本数据和场景下不尽相同,所以需要大量尝试,时间成本和资源成本非常浪费。PaddleHub AutoDL Finetuner可以实现自动调整超参数。

PaddleHub AutoDL Finetuner提供两种超参优化算法:

  • HAZero: 核心思想是通过对正态分布中协方差矩阵的调整来处理变量之间的依赖关系和scaling。算法基本可以分成以下三步:
    1. 采样产生新解;
    2. 计算目标函数值;
    3. 更新正态分布参数;

    调整参数的基本思路为,调整参数使得产生更优解的概率逐渐增大。

  • PSHE2: 采用哈密尔顿动力系统搜索参数空间中“势能”最低的点。而最优超参数组合就是势能低点。现在想求得最优解就是要找到更新超参数组合,即如何更新超参数,才能让算法更快更好的收敛到最优解。PSHE2算法根据超参数本身历史的最优,在一定随机扰动的情况下决定下一步的更新方向。

PaddleHub AutoDL Finetuner为了评估搜索的超参对于任务的效果,提供两种超参评估策略:

  • Full-Trail: 给定一组超参,利用这组超参从头开始Fine-tune一个新模型,之后在验证集评估这个模型;
  • Population-Based: 给定一组超参,若这组超参是第一轮尝试的超参组合,则从头开始Fine-tune一个新模型;否则基于前几轮已保存的较好模型,在当前的超参数组合下继续Fine-tune并评估;

二、如何配置(yaml文件和train.py

使用PaddleHub AutoDL Finetuner需要准备两个指定格式的文件:待优化的超参数信息yaml文件hparam.yaml和需要Fine-tune的python脚本train.py

2.1. hparam.yaml

hparam给出待搜索的超参名字、类型(int或者float)、搜索范围等信息,通过这些信息构建了一个超参空间,PaddleHub将在这个空间内进行超参数的搜索,将搜索到的超参传入train.py获得评估效果,根据评估效果自动调整超参搜索方向,直到满足搜索次数。

NOTE:

  • yaml文件的最外层级的key必须是param_list;
代码语言:javascript
复制
param_list:
 - name : hparam1
   init_value : 0.001
   type : float
   lower_than : 0.05
   greater_than : 0.00005
   ...
  • 超参名字可以任意指定,PaddleHub会将搜索到的值以指定名称传递给train.py使用;
  • 优化超参策略选择HAZero时,需要提供两个以上的待优化超参;

2.2. train.py

train.py用于接受PaddleHub搜索到的超参进行一次优化过程,将优化后的效果返回。

NOTE:

  • train.py的选项参数须包含待优化超参数,需要将超参以argparser的方式写在其中,待搜索超参数选项名字和yaml文件中的超参数名字保持一致。
  • train.py须包含选项参数saved_params_dir,优化后的参数将会保存到该路径下。
  • 超参评估策略选择PopulationBased时,train.py须包含选项参数model_path,自动从model_path指定的路径恢复模型
  • train.py须反馈模型的评价效果(建议使用验证集或者测试集上的评价效果),通过调用report_final_result接口反馈,如 hub.report_final_result(eval_avg_score["acc"])
  • 输出的评价效果取值范围应为(-∞, 1],取值越高,表示效果越好。

2.3?PaddleHub超参优化——文本分类参考

PaddleHub AutoDL Finetuner超参优化--NLP情感分类任务。:

PaddleHub/demo/autofinetune_text_classification at release/v1.5 · PaddlePaddle/PaddleHub · GitHub

PaddleHub AutoDL Finetuner超参优化--CV图像分类任务

三、启动方式

确认安装PaddleHub版本在1.3.0以上, 同时PaddleHub AutoDL Finetuner功能要求至少有一张GPU显卡可用。

通过以下命令方式:

代码语言:javascript
复制
$ OUTPUT=result/
$ hub autofinetune train.py --param_file=hparam.yaml --gpu=0,1 --popsize=5 --round=10
 --output_dir=${OUTPUT} --evaluator=fulltrail --tuning_strategy=pshe2

其中,选项

  • --param_file: 必填,待优化的超参数信息yaml文件,即上述hparam.yaml
  • --gpu: 必填,设置运行程序的可用GPU卡号,中间以逗号隔开,不能有空格;
  • --popsize: 可选,设置程序运行每轮产生的超参组合数,默认为5;
  • --round: 可选,设置程序运行的轮数,默认为10;
  • --output_dir: 可选,设置程序运行输出结果存放目录,不指定该选项参数时,在当前运行路径下生成存放程序运行输出信息的文件夹;
  • --evaluator: 可选,设置自动优化超参的评价效果方式,可选fulltrail和populationbased, 默认为populationbased;
  • --tuning_strategy: 可选,设置自动优化超参算法,可选hazero和pshe2,默认为pshe2;

NOTE:

  • 进行超参搜索时,一共会进行n轮(--round指定),每轮产生m组超参(--popsize指定)进行搜索。上一轮的优化结果决定下一轮超参数调整方向;
  • 当指定GPU数量不足以同时跑一轮时,AutoDL Finetuner功能自动实现排队为了提高GPU利用率,建议卡数为刚好可以被popsize整除。如popsize=6,gpu=0,1,2,3,则每搜索一轮,AutoDL Finetuner自动起四个进程训练,所以第5/6组超参组合需要排队一次,在搜索第5/6两组超参时,会存在两张卡出现空闲等待的情况,如果设置为3张可用的卡,则可以避免这种情况的出现;

四、目录结构

进行自动超参搜索时,PaddleHub会生成以下目录

代码语言:javascript
复制
./output_dir/
    ├── log_file.txt
    ├── best_model
    ├── visualization
    ├── round0
    ├── round1
    ├── ...
    └── roundn
        ├── log-0.info
        ├── log-1.info
        ├── ...
        ├── log-m.info
        ├── model-0
        ├── model-1
        ├── ...
        └── model-m

其中output_dir为启动autofinetune命令时指定的根目录,目录下:

  • log_file.txt记录每一轮搜索所有的超参以及整个过程中所搜索到的最优超参;
  • best_model保存整个搜索训练过程中得到的最优的模型参数;
  • visualization记录可视化过程的日志文件;
  • round0 ~ roundn记录每一轮的数据,在每个round目录下,还存在以下文件;
    • log-0.info ~ log-m.info记录每个搜索方向的日志;
    • model-0 ~ model-m记录对应搜索的参数;

五、可视化

AutoDL Finetuner API在优化超参过程中会自动对关键训练指标进行打点,启动程序后执行下面命令。

代码语言:javascript
复制
$ tensorboard --logdir ${OUTPUT}/visualization --host ${HOST_IP} --port ${PORT_NUM}

其中为输出目录,OUTPUT为AutoDLFinetuner输出目录,{HOST_IP}为本机IP地址,${PORT_NUM}为可用端口号,如本机IP地址为192.168.0.1,端口号8040, 用浏览器打开192.168.0.1:8040,即可看到搜索过程中各超参以及指标的变化情况。

六、args参数传递

PaddleHub AutoDL Finetuner 支持将train.py中的args其余不需要搜索的参数通过autofinetune remainder方式传入。这个不需要搜索的选项参数名称应该和通过hub autofinetune的传入选项参数名称保持一致。如PaddleHub AutoDL Finetuner超参优化--NLP情感分类任务示例中的max_seq_len选项,可以参照以下方式传入。

代码语言:javascript
复制
$ OUTPUT=result/
$ hub autofinetune train.py --param_file=hparam.yaml --gpu=0,1 --popsize=5 --round=10
 --output_dir=${OUTPUT} --evaluator=fulltrail --tuning_strategy=pshe2 max_seq_len 128

七、其他

  1. 如在使用AutoDL Finetuner功能时,输出信息中包含如下字样:

WARNING:Program which was ran with hyperparameters as ... was crashed!

首先根据终端上的输出信息,确定这个输出信息是在第几个round(如round 3),之后查看${OUTPUT}/round3/下的日志文件信息log.info, 查看具体出错原因。

  1. PaddleHub AutoDL Finetuner功能使用过程中建议使用的GPU卡仅供PaddleHub使用,无其他任务使用。
本文参与?腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2022-06-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客?前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与?腾讯云自媒体分享计划? ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1.超参优化AutoDL Finetuner
  • 二、如何配置(yaml文件和train.py)
    • 2.1. hparam.yaml
      • 2.2. train.py
        • 2.3?PaddleHub超参优化——文本分类参考
        • 三、启动方式
        • 四、目录结构
        • 五、可视化
        • 六、args参数传递
        • 七、其他
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
        http://www.vxiaotou.com