본문 바로가기

NLP/Prompt-tuning

Prompt based learning 이란?

반응형

 1. Prompt based learning란?

  • input을 변형해 fine-tuning없이 pre-trained 모델을 down stream task에 적용하는 기술
  • Pre-trained LM을 재학습없이 활용하는 방법으로, 2019년도부터 활발히 연구되고 있음
  • 핵심은 Input과 Output을 재구성하는 것

2.  prompt learning 과정

step1. 하늘색으로 표시된, Template이라고 불리는 문장을 input에 추가해 input 형식 변경

            - mask에 어떤 단어가 들어오는지에 따라, I like this movie가 긍정인지, 부정인지 판단할 수 있게됨

step2. 변경된 input을 PLM(예시에서는 GPT)에 넣으면, GPT는 mask 토큰에 들어갈 수 있는 단어들의 확률분포를 출력함

step3. 가장 높은 확률을 받은 cool은 word와 class를 매핑하는 함수 Verbalizer를 통해 Positive lable로 판별됨

 

3. prompt 정의

Classification task의 경우 : Template과 Verbalizer를 정의하는 것

Generation task의 경우 : Template을 정의하는 것

 

4. Prompt 설계

연구 방향은 아래 4가지 항목을 어떻게 설계하느냐에 따라 달라지게 됨

 

4-1. Prompt shape  : Cloze style prompt Vs. Prefix-style prompt 

Cloze style : "I like movie. It is a <mask> movie." 
Prefix-style : “What’s the sentiment of the review? I like this movie. <mask>."

PLM 선택과도 밀접한 연관이 있음. BERT와 같은 MLM 계열의 모델을 선택하면, Cloze-style, GPT와 같은 LM 계열 모델을 선택하면 Prefix-style의 Prompt shape을 선택하게됨

 

4-2. Prompt Enginnering : Hard prompt Vs. Soft prompt

Hard(Discrete) prompt : Natural language prompt
Soft(Continous) prompt: vector

hard 프롬프트의 경우, prompt 평가가 어렵고, 어떻게 구성하는지에 따라 성능차이가 크다는 것이 실험적으로 밝혀져, 2021년도부터 soft 프롬프트가 압도적으로 많이 연구되고 있음


4-3. Verbalizer : Hard verbalizer Vs. Soft verbalizer

Hard(Discrete) verbalizer: Natural language verbalizer
Soft(Continous) verbalizer: vector

Classification 문제일 경우 필요


4-4. Parameter update 범위 

Fixed LM + prompt tuning : prompt-tuning
LM tuning + fixed prompt: LM-BFF
LM tuning + prompt tuning : P-tuning

 

 

 

반응형