일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- pytorch
- beam search
- BoostCamp
- KLUE
- bert
- KLUE-RE
- ai-tech
- NLP
- Transformer
- Chatbot
- text classification
- huggingface
- MT-DNN
- fine-tuning
- boj
- Relation Extraction
- Eliza
- layer normalization
- BLEU Score
- Prompt Tuning with Rules for Text Classification
- FSML
- Dialogue System
- Transformers
- BELU
- scaled dot-product attention
- 취업
- multi-head attention
- 백준
- Conversation System
- GPT-1
Archives
- Today
- Total
목록multi-head attention (1)
dukim's blog
[WK07-Day031][21.09.14.Tue] Transformer 주요 내용 요약 및 구조 개선에 대한 후속 연구, 논문 선정 팁
Intro 이번주는 명훈님 논문 읽기 모임 내용 + 강의 및 과제 내용 + 멘토링 논문 읽기로 계속 진행함 NLP 논문 읽기 모임 - Transformer 피어세션 - Transformer 논문 읽기와 강의 내용을 따로 정리하지 않고 하나로 정리 멘토링 - 논문 읽기 - BART, XLNet 학습 내용 [논문 읽기 모임] 02. Transformer Transformer는 고전이다. 다시 볼 때마다 새롭고, 한 줄 한 줄 곱씹어야 될 만한 논문이기 때문. 이번 명훈님 발표 자료를 보니 내가 못 봤던 포인트들이 보였다. 한 번에 다 이해는 못 했지만 현재 이해한 수준에서만 몇 가지 정리해본다. contribution Sequence Transduction 문제에 대해 기존엔 Attention이 적용된 RN..
Boostcamp AI Tech 2th
2021. 9. 18. 13:57