09화 GPT-2 해부하기... | 매거진에 참여하세요

questTypeString.01quest1SubTypeString.04
publish_date : 24.06.04

09화 GPT-2 해부하기...

#2019년출시 #GPT2 #매개변수 #15억개매개변수 #효과 #방향성 #논문분석 #미세조정 #핵심원리

content_guide

미세조정(fine-tuning)이 필요없는 멀티테스킹 언어모델 | GPT-2는 GPT-1의 후속 모델로 2019년에 발표되었습니다. GPT-2는 이전 모델에 비해 대폭 늘어난 매개변수와 더욱 다양해진 학습 데이터 등 상당한 개선을 보여주며 자연어처리 분야에 큰 파장을 일으키기 시작한 모델입니다. GPT-2는 decoder의 차원수와 매개변수의 갯수에 따라 여러 버전으로 나누어져 있는데, 가장 큰 GPT-2 모델은 15억

출처 : https://brunch.co.kr/@harryban0917/288