查看tensorflow源碼其內部sequence_loss若是未指定softmax_loss_function使用的sparse_softmax_cross_entropy_with_logitsgit
你也能夠本身實現這個seq_loss:spa
使用這個tf.contrib.seq2seq.sequence_loss只須要傳入masks。而單獨使用這須要顯式的寫代碼定義mask對sparse_softmax_cross_entropy_with_logits的操做,下面的loss是batch lossblog