일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- fine-tuning
- BLEU Score
- Eliza
- Transformers
- 백준
- Dialogue System
- KLUE
- scaled dot-product attention
- Relation Extraction
- boj
- 취업
- KLUE-RE
- Prompt Tuning with Rules for Text Classification
- NLP
- multi-head attention
- MT-DNN
- bert
- ai-tech
- huggingface
- layer normalization
- Chatbot
- FSML
- Transformer
- Conversation System
- BoostCamp
- GPT-1
- text classification
- BELU
- beam search
- pytorch
Archives
- Today
- Total
목록layer normalization (1)
dukim's blog
[WK07-Day032][21.09.15.Wed] ELMo, GPT-1, Layer Normalization, Hugging Face Transformers 기본 사용법
Intro 논문 읽기 모임 3회차 : ELMo, GPT-1 어제 해결하지 못했던 Layer Normalization 정리 9, 10강 실습 코드 선택과제 3 BPE 학습내용 [논문 읽기 모임] ELMo, GPT-1 ELMo Peters et al., Deep contextualized word representations, NAACL 2018 예전 같았으면 자세히 읽었을텐데, 지금은 BERT 논문을 더 잘 이해하기 위한 배경지식 정도로만 내용 파악하는 게 맞는 것 같다. BERT 이전의 기법들을 통합하는 논문 Abstract 주요 특징 단어의 복잡한 특징 모델링(syntax, semantics) 다양한 언어 맥락 상에서 어떻게 사용되는지 학습(polysemy, 다의어) 구조 biLM pre-trained..
Boostcamp AI Tech 2th
2021. 9. 25. 16:29