-
Notifications
You must be signed in to change notification settings - Fork 409
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
请问为什么roberta_large比roberta_middle在CMRC2018上低很多? #16
Comments
@ewrfcas 请问roberta-middle在哪里,我为什么没有在界面上看见. |
@YingZiqiang 是Roberta_l24_zh_base,24层,12head,768hidden的。 |
在我们的测试里large效果比middle要好。你训练的超参数怎么样的,能否贴出来,batch size多少。 |
@brightmart 感谢回复,我large我是用5卡batchsize30训练的,middle是32,一共3个epoch,lr=3e-5/2e-5,warmup=0.1。除了batchsize基本和middle没区别。 |
词汇表是一模一样的哦。你看看这两个large和middel的文件夹下的名称。是不是large的checkpoint没有加载成功呢。再跑一次,看看checkpoint加载成功了没,batch size用相同的32。 |
Same question here. |
加载应该是成功的,我对比过参数,没有加载的只有cls的pooler相关的权重 |
@brightmart |
我在CMRC2018上测试结果都是基于512长度的,middle的F1在5次里是86~87,large的F1大概要低10个点,在75~77左右,256长度的large结果正在测试中 |
目前测roberta-large长度256在CMRC2018的dev结果为 |
所有,初步的看,在这个阅读理解任务上,和其他模型比,怎么样呢?为什么阅读理解还能将长度设为这么小。 |
这个结果目前看来在ERNIE2.0 base到ERNIE2.0 large之间,在预训练模型里效果算比较好的了。 |
好的。 @ewrfcas 是否可以测试对比一下XLNet_zh_Large在CMRC2018数据集上的效果? (目前的XLNet_zh_Large是尝鲜版,如有问题会协助解决) |
@brightmart xlnet如果是用sentencepiece的话做阅读理解效果不好,具体可见ymcui/Chinese-XLNet#11 |
划窗具体怎么操作?@ewrfcas |
插个眼..同好奇 |
https://hfl-rc.github.io/cmrc2018/task/#section-1
想测一下roberta在阅读理解上的性能如何。尝试将middle和large转成pytorch在cmrc2018上跑了一下,middle的F1能到86,但是large的F1只能到77,非常奇怪。
直接使用提供的pytorch版本的large权重效果也是一样。
The text was updated successfully, but these errors were encountered: