tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None) 参数: logits:就是神经网络最后一层的输出,如果有batch的话,它的大小就是[batchsize,num_classes],单样本的话,大小就是num_classes labels:实际的标签,大小同上 执行流程 第一步是先对网络最后一层的输出做一个softmax,这一步通常是求取输出属于某一类的概率, 对于单样本而言,输出就是一个num_classes大…