Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

训练自己数据集时,训练自编码器时的loss特别大,但是在下降,请问可能是什么原因 #18

Open
yokings opened this issue Feb 11, 2020 · 5 comments

Comments

@yokings
Copy link

yokings commented Feb 11, 2020

No description provided.

@dbbbbm
Copy link

dbbbbm commented May 24, 2021

我一开始也遇到类似问题。第一个原因可能是作者的自编码器输出有sigmoid函数,所以你的输入图像像素值必须在[0,1]之间;第二可能是作者计算loss是求和不是平均,所以看起来大也正常。

@qqqhhh-any
Copy link

作者自定义的loss不是逐像素的均方误差,是求和的

@xinjiang0526
Copy link

所以这loss高的话,需要管他吗,兄弟们

@bethansy
Copy link

所以这loss高的话,需要管他吗,兄弟们

请问怎么训练自己的数据哇,我看代码里就限定了'mnist' 和 'cifar10'。我也想换成自己的数据训练后用来预测

@bethansy
Copy link

我一开始也遇到类似问题。第一个原因可能是作者的自编码器输出有sigmoid函数,所以你的输入图像像素值必须在[0,1]之间;第二可能是作者计算loss是求和不是平均,所以看起来大也正常。

怎么训练自己的数据呢

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

5 participants