We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
4.2.2 一行代码 outputs_pool2 = pool1(outputs2) , pool1 改为pool2 也许git clone 的代码是对的 , 只是印刷错误 我没有核实
4.5.1 公式没有完全体现 伯努利 “更本质地讲,交叉熵损失函数公式右侧是对多类输出结果的分布(伯努利分布)求极大似然中的对数似然函数(Log-Likelihood)。” 在y_(i)j = 0 的时候 应该是 - (1- y_(i)j ) log (1 - y^(i)j ) 作者只写了一半(y=1的部分) 上下文结论是对的
4.5.2 原句“ log_probs = F.log_softmax(outputs ,dim=1) #取对数的目的是避免softmax溢出” 其实 取对数还有一个目的 是因为 后面的代码的 nn.NLLLoss 没有log运算 (默认 NLLLoss只执行 ‘乘 -1’ 和 ‘相乘’ 的操作)
The text was updated successfully, but these errors were encountered:
No branches or pull requests
4.2.2
一行代码
outputs_pool2 = pool1(outputs2) , pool1 改为pool2
也许git clone 的代码是对的 , 只是印刷错误 我没有核实
4.5.1
公式没有完全体现 伯努利
“更本质地讲,交叉熵损失函数公式右侧是对多类输出结果的分布(伯努利分布)求极大似然中的对数似然函数(Log-Likelihood)。”
在y_(i)j = 0 的时候 应该是 - (1- y_(i)j ) log (1 - y^(i)j )
作者只写了一半(y=1的部分) 上下文结论是对的
4.5.2
原句“ log_probs = F.log_softmax(outputs ,dim=1) #取对数的目的是避免softmax溢出”
其实 取对数还有一个目的 是因为 后面的代码的 nn.NLLLoss 没有log运算 (默认 NLLLoss只执行 ‘乘 -1’ 和 ‘相乘’ 的操作)
The text was updated successfully, but these errors were encountered: