미세조정(fine-tuning)이 필요없는 멀티테스킹 언어모델 | GPT-2는 GPT-1의 후속 모델로 2019년에 발표되었습니다. GPT-2는 이전 모델에 비해 대폭 늘어난 매개변수와 더욱 다양해진 학습 데이터 등 상당한 개선을 보여주며 자연어처리 분야에 큰 파장을 일으키기 시작한 모델입니다. GPT-2는 decoder의 차원수와 매개변수의 갯수에 따라 여러 버전으로 나누어져 있는데, 가장 큰 GPT-2 모델은 15억
출처 : https://brunch.co.kr/@harryban0917/288