Skip to content

关于论文中two-stage训练策略的问题 #41

@zhangyingbit

Description

@zhangyingbit

您好,感谢分享这么棒的项目!我在论文中看到您提到了two-stage的训练策略,并且在表格6中的消融实验验证了第二阶段使用λ=30效果更好!在本代码仓库中公开的训练代码看起来只有一个阶段,想请教下您是这个设置 https://github.com/AMAP-ML/FluxText/blob/main/train/config/word_multi_size.yaml#L59 只训练一个阶段的效果就可以嘛?还是说要自己针对两个阶段手动改一下?如果自己手动改的话请帮忙看下我的如下修改是否是正确的?十分感谢!

#satge1: odm_loss: modelpath: "epoch_100.pt" w_loss_f: 1 w_loss_1: 1 w_loss_2: 1 w_loss_3: 1 w_loss_4: 1

#satge2: odm_loss: modelpath: "epoch_100.pt" w_loss_f: 1 w_loss_1: 30 w_loss_2: 30 w_loss_3: 30 w_loss_4: 30

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Type

    No type

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions