Seq2Seq 모델의 단일 context vector 구조가 긴 문장 처리 시 초기 단어 손실 문제를 발생시켜 Attention 메커니즘 도입의 필요성 제시
Understanding Attention Mechanisms – Part 1: Why Long Sentences Break Encoder–Decoders
Understanding Attention Mechanisms – Part 1: Why Long Sentences Break Encoder–Decoders
Understanding Seq2Seq Neural Networks – Part 8: When Does the Decoder Stop?