NLP 분야 논문리뷰 및 구현

Published: by Creative Commons Licence

Table of Contents




    Intro

    nlp분야의 논문들을 하나씩 정리하고, 구현해보려 합니다. Transformer에서 시작하여 LLM에 이르기까지의 논문을 하나씩 포스팅 해보도록 하겠습니다. 이 포스팅에는 각 모델들의 큰 특징을 요약해서 정리하겠습니다. 각 모델의 구현은 https://github.com/000namc/paper-implementations/tree/main 에서 확인할 수 있습니다.

    (Transformer) Attention Is All You Need

    (BERT) BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

    (GPT-1) Improving Language Understanding by Generative Pre-Training