tensorflow實現seq2seq模型細節(2):tf.contrib.seq2seq.sequence_loss

查看tensorflow源碼其內部sequence_loss若是未指定softmax_loss_function使用的sparse_softmax_cross_entropy_with_logitsgit

你也能夠本身實現這個seq_loss:spa

使用這個tf.contrib.seq2seq.sequence_loss只須要傳入masks。而單獨使用這須要顯式的寫代碼定義mask對sparse_softmax_cross_entropy_with_logits的操做,下面的loss是batch lossblog