FFNN 초기 FFNN 은 입력이 늘 하나의 고정된 벡터였음. RNN RNN은 벡터의 열을 입력으로 받음. 이전타임의 hidden state 값을 이용해서 현재 hidden state를 변화시킬 수 있기 때문에 연속된 입력에 따라 변화를 모델링. Bidirectional RNN 양방향 RNN. 기존 RNN에서 반대방향으로도 가능하도록 함. LSTM RNN 기존 RNN이 Vanishing Gradient Problem이 있기 때문에 이를 해결하기위해 input/ouput/forget gate를 추가함. Gated Recurrent Unit (GRU) LSTM RNN이 많은 게이트를 사용하는 반면 GRU는 게이트 수를 많이 줄였다. Encoder-Decoder Model encoder RNN과 decoder..