TensorFlow KLDivergence loss为负

网友投稿 634 2022-11-15

TensorFlow KLDivergence loss为负

TensorFlow KLDivergence loss为负

kl_compute = tf.keras.losses.KLDivergence(reduction=losses_utils.ReductionV2.NONE, name='kullback_leibler_divergence') loss = tf.reduce_mean(kl_compute(labels, tf.nn.softmax(logits)))

改为

kl_compute = tf.keras.losses.KLDivergence(reduction=losses_utils.ReductionV2.NONE, name='kullback_leibler_divergence') loss = tf.reduce_mean(kl_compute(labels * 10, tf.nn.softmax(logits)))

即​​labels​​​改为​​labels * 10​​

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Spark API 详解/大白话解释 之 reduce、reduceByKey
下一篇:提升BERT fine-tune正确率0.2%-0.3%的一个细节
相关文章

 发表评论

暂时没有评论,来抢沙发吧~