반응형
1. Prompt based learning란?
- input을 변형해 fine-tuning없이 pre-trained 모델을 down stream task에 적용하는 기술
- Pre-trained LM을 재학습없이 활용하는 방법으로, 2019년도부터 활발히 연구되고 있음
- 핵심은 Input과 Output을 재구성하는 것
2. prompt learning 과정
step1. 하늘색으로 표시된, Template이라고 불리는 문장을 input에 추가해 input 형식 변경
- mask에 어떤 단어가 들어오는지에 따라, I like this movie가 긍정인지, 부정인지 판단할 수 있게됨
step2. 변경된 input을 PLM(예시에서는 GPT)에 넣으면, GPT는 mask 토큰에 들어갈 수 있는 단어들의 확률분포를 출력함
step3. 가장 높은 확률을 받은 cool은 word와 class를 매핑하는 함수 Verbalizer를 통해 Positive lable로 판별됨
3. prompt 정의
Classification task의 경우 : Template과 Verbalizer를 정의하는 것
Generation task의 경우 : Template을 정의하는 것
4. Prompt 설계
연구 방향은 아래 4가지 항목을 어떻게 설계하느냐에 따라 달라지게 됨
4-1. Prompt shape : Cloze style prompt Vs. Prefix-style prompt
Cloze style : "I like movie. It is a <mask> movie."
Prefix-style : “What’s the sentiment of the review? I like this movie. <mask>."
PLM 선택과도 밀접한 연관이 있음. BERT와 같은 MLM 계열의 모델을 선택하면, Cloze-style, GPT와 같은 LM 계열 모델을 선택하면 Prefix-style의 Prompt shape을 선택하게됨
4-2. Prompt Enginnering : Hard prompt Vs. Soft prompt
Hard(Discrete) prompt : Natural language prompt
Soft(Continous) prompt: vector
hard 프롬프트의 경우, prompt 평가가 어렵고, 어떻게 구성하는지에 따라 성능차이가 크다는 것이 실험적으로 밝혀져, 2021년도부터 soft 프롬프트가 압도적으로 많이 연구되고 있음
4-3. Verbalizer : Hard verbalizer Vs. Soft verbalizer
Hard(Discrete) verbalizer: Natural language verbalizer
Soft(Continous) verbalizer: vector
Classification 문제일 경우 필요
4-4. Parameter update 범위
Fixed LM + prompt tuning : prompt-tuning
LM tuning + fixed prompt: LM-BFF
LM tuning + prompt tuning : P-tuning
반응형