일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Relation Extraction
- BoostCamp
- layer normalization
- scaled dot-product attention
- Transformers
- Prompt Tuning with Rules for Text Classification
- KLUE-RE
- MT-DNN
- GPT-1
- 취업
- Dialogue System
- ai-tech
- KLUE
- BLEU Score
- pytorch
- Transformer
- bert
- 백준
- boj
- huggingface
- BELU
- Conversation System
- text classification
- multi-head attention
- FSML
- Eliza
- fine-tuning
- Chatbot
- NLP
- beam search
Archives
- Today
- Total
목록scaled dot-product attention (1)
dukim's blog
[WK07-Day030][21.09.13.Mon] NLP 논문읽기 모임, Transformer (1) - Scaled Dot-Product Attention(Self-Attention)
Intro 오전 시간에는 명훈님이 진행하시는 NLP 논문 읽기 스터디에서 다루는 "Neural Machine Translation by Jointly Learning to Align and Translate" 논문을 읽고 정리함 1시부터 2시까지 NLP 논문 읽기 스터디 참여 2시부터 4시까지 Transformer 강의 수강했으나 집중이 잘 되지 않음 4시부터 6시까지 피어세션 진행, 지난주 회고 및 이번주 피어세션 계획 세움 결국 낮 시간에 Transformer를 다 수강하지 못 하고 밤 시간에 보충했다. 면접에 반드시 나오는 질문이기 때문에 어떻게든 내 말로 설명해보려고 학습정리를 수정하고 수정하다 보니 시간이 오래 걸렸다. 학습 내용 [NLP 논문 읽기 모임] 01. Neural Machine Tr..
Boostcamp AI Tech 2th
2021. 9. 14. 02:08