1, softmax_cross_entropy_with_logits 的中的logits=x*w+b,其中w应该是[nfeats,nclass],b是[nclass]是对输出的每个类上logits的修正?. label 应该是[nsamples,nclass](用np.concatenate([yy,1-yy],1)生成one hot) 例如,2分类问题,nclass就是2, sparse_softmax_cross_entropy_with_logits 的的中的logits=x*w+b,…