• 19.Transformer self-attention

    강의 복습 내용 Transformer(self-attention) RNN기반 모델의 단점을 해결하기 위해 처음 등장 attention연산만을 이용해 입력 문장을 학습하며 학습속도가 빠르다는 장점이있다.
  • 18.sequence to sequence와 beam search

    강의 복습 내용 sequence를 encoding, decoding할 수 있는 sequence to sequence rnn과 attention을 결합한 모델 rnn의 단점을 보완하고자 attention(alignment)기법이 처음 등장 attantion의 종류와 translation task는?
  • 17.RNN과 LSTM,GRU

    강의 복습 내용 RNN을 활용하는 방법과 language model 순서를 가진 문장을 표현하는데 사용되는 RNN language model은 이전에 등장한 단어를 조건(condition)으로 다음에 등장할 단어를 예측하는 모델 RNN을 이용한 character-level의 language model
  • 16.NLP소개와 bag-of-words, Word Embedding

    강의 복습 내용 단어를 벡터로 표현하는 방법, 문서를 벡터로 표현하는 방법 전체적인 NLP 트렌드 NLP의 word2vec과 glove를 알아보기
  • 15.Generative model

    강의 복습 내용 generative model이 무엇인지 generative model의 트렌트와 방법론 variational auto-encoder가 generative인 이유
  • 14.RNN과 LSTM

    강의 복습 내용 RNN의 정의 역전파 BPTT RNN과 LSTM의 차이 LSTM의 계산 방식 transformer와 LSTM의 차이 transformer의 MHA는?
  • 13.CNN의 기능과 구조

    강의 복습 내용 cnn의 구조와 사용되는 분야를 정리한다. cnn의 발전되는 방향과 구조를 정리한다. detection하는 여러 어플리케이션을 정리한다.
  • 12.CNN과 optimization

    강의 복습 내용 CNN의 기초를 학습한다. CNN의 역전파가 계산되느것을 학습한다. 최적화 관련 용어,gradient descent의 method인 adam, 학습을 방해하는 regularization들을 정리
  • 11.베이즈정리와 딥러닝 기초와 PyTorch

    강의 복습 내용 베이즈 정리와 딥러닝의 기초를 공부한다. pytorch를 통한 mlp를 해석한다.
  • 10.통계학과 시각화도구

    강의 복습 내용 시각화도구matplotlib와 seaborn의 사용법을 익힌다. 통계학관련 모수와 확률분포의 종류를 알고 가정한다. 이런 확률분포를 통해 데이토 모수를 추정하는 방식을 안다. 최대가능도 추정법MLE 로그가능도로 많은 데이터를 계산하기쉽게 한다.