09화 GPT-2 해부하기... | 매거진에 참여하세요

인사이트/로그개발 관련
작성일 : 24.06.04

09화 GPT-2 해부하기...

#2019년출시 #GPT2 #매개변수 #15억개매개변수 #효과 #방향성 #논문분석 #미세조정 #핵심원리

👉 본문을 50%이상을 읽으면 '여기까지다' 퀘스트가 완료됩니다(로그인 필수)

미세조정(fine-tuning)이 필요없는 멀티테스킹 언어모델 | GPT-2는 GPT-1의 후속 모델로 2019년에 발표되었습니다. GPT-2는 이전 모델에 비해 대폭 늘어난 매개변수와 더욱 다양해진 학습 데이터 등 상당한 개선을 보여주며 자연어처리 분야에 큰 파장을 일으키기 시작한 모델입니다. GPT-2는 decoder의 차원수와 매개변수의 갯수에 따라 여러 버전으로 나누어져 있는데, 가장 큰 GPT-2 모델은 15억

출처 : https://brunch.co.kr/@harryban0917/288