일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- text classification
- Chatbot
- bert
- layer normalization
- Conversation System
- beam search
- Transformers
- MT-DNN
- KLUE-RE
- KLUE
- fine-tuning
- Prompt Tuning with Rules for Text Classification
- Relation Extraction
- BoostCamp
- multi-head attention
- Transformer
- Eliza
- Dialogue System
- 백준
- scaled dot-product attention
- NLP
- BLEU Score
- GPT-1
- 취업
- huggingface
- boj
- BELU
- ai-tech
- FSML
- pytorch
Archives
- Today
- Total
목록GPT-1 (1)
dukim's blog
[WK07-Day032][21.09.15.Wed] ELMo, GPT-1, Layer Normalization, Hugging Face Transformers 기본 사용법
Intro 논문 읽기 모임 3회차 : ELMo, GPT-1 어제 해결하지 못했던 Layer Normalization 정리 9, 10강 실습 코드 선택과제 3 BPE 학습내용 [논문 읽기 모임] ELMo, GPT-1 ELMo Peters et al., Deep contextualized word representations, NAACL 2018 예전 같았으면 자세히 읽었을텐데, 지금은 BERT 논문을 더 잘 이해하기 위한 배경지식 정도로만 내용 파악하는 게 맞는 것 같다. BERT 이전의 기법들을 통합하는 논문 Abstract 주요 특징 단어의 복잡한 특징 모델링(syntax, semantics) 다양한 언어 맥락 상에서 어떻게 사용되는지 학습(polysemy, 다의어) 구조 biLM pre-trained..
Boostcamp AI Tech 2th
2021. 9. 25. 16:29