【tensorflow】softmax

mac2022-06-30  20

softmax_cross_entropy_with_logits与sparse_softmax_cross_entropy_with_logits都是对最后的预测结果进行softmax然后求交叉熵

区别在于输入的label形式

sparse_softmax_cross_entropy_with_logits的label是 [batch_size],

softmax_cross_entropy_with_logits的label是[batch_size, classes], 也就是需要对label进行onehot编码

参考:https://stackoverflow.com/questions/37312421/whats-the-difference-between-sparse-softmax-cross-entropy-with-logits-and-softm

 

转载于:https://www.cnblogs.com/zhaopAC/p/10843335.html

相关资源:JAVA上百实例源码以及开源项目
最新回复(0)