-
Notifications
You must be signed in to change notification settings - Fork 90
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
复现时的问题 #16
Comments
你蒸馏时的speed设为多少,这么看上去像是speed=0.0, 导致所有样本都走到主干的最后一层。 |
speed 为0.5 用的就是你提供的脚本 |
麻烦把执行的命令和print到终端的结果贴出来看一看哈。 |
|
从self-distilation的效果来看,确实是FLOPs下降,而Acc不变。 但是这个Acc在Book review数据集上差了很多,请确保./models/chinese_bert_base.bin是正确的?以及使用的是python3吗 |
确认没错的 都是按你的链接下载的 |
可以试试Pypi版本的:https://github.com/autoliuweijie/FastBERT/tree/master/pypi |
请问这个问题有解决吗?我的实验中self-distilation和主干网络的最后一个epoch结果不变,但是self-distilation过程中第5个epoch到第10个epoch的准确率都不变 |
你好,我在复现您的实验(没有进行任何修改)的时候在主干网络的训练时准确率是逐渐提高的,在蒸馏阶段验证集和测试集的acc每一个epoch都和主干网络的最后一个epoch相同,请问是我哪里出错了吗?
The text was updated successfully, but these errors were encountered: