전체 글 (10) 썸네일형 리스트형 [Transformer] Attention Is All You Need (1) : Abstract부터 Background까지 Transformer 논문을 아래 목차로 나눠 리뷰합니다. 더보기 1. Abstract ~ Background 2. Model Architecture 3. Attention 4. FFN, Positional Encoding 5. Training 6. Result, Conclution Abstract - Transformer는 Self-Attention만으로 구성된 새로운 인코더-디코더 모델 Contribution 1. 병렬 처리가 가능해지며 RNN보다 빠른 속도와 높은 정확도를 달성 2. Long-term dependency problem 해결 3. 자연어 처리 분야의 성과 Introduction Transduction models - 입력 시퀀스를 출력 시퀀스로 변환하는 모델 - e.g. RNN, Tr.. GRAFANA 설치 이전 1 2 다음