1.交叉熵
逻辑斯蒂回归这个模型采用的是交叉熵,通俗点理解交叉熵
推荐一篇文章讲的很清楚:
因此,交叉熵越低,这个策略就越好,最低的交叉熵也就是使用了真实分布所计算出来的信息熵,因为此时 ,交叉熵 = 信息熵。这也是为什么在机器学习中的分类算法中,我们总是最小化交叉熵,因为交叉熵越低,就证明由算法所产生的策略最接近最优策略,也间接证明我们算法所算出的非真实分布越接近真实分布
2.代码解释
保存了模型,在上一次的基础上继续进行学习,这样的话可以直接从上次的准确率开始
Original: https://www.cnblogs.com/xiuercui/p/12018752.html
Author: 程序界第一佳丽
Title: Tensorflow-逻辑斯蒂回归
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/577571/
转载文章受原作者版权保护。转载请注明原作者出处!