일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 백준
- bert
- multi-head attention
- Transformer
- huggingface
- ai-tech
- 취업
- Chatbot
- beam search
- layer normalization
- Prompt Tuning with Rules for Text Classification
- text classification
- boj
- Relation Extraction
- GPT-1
- KLUE-RE
- scaled dot-product attention
- Eliza
- fine-tuning
- Conversation System
- BLEU Score
- Dialogue System
- Transformers
- pytorch
- MT-DNN
- NLP
- KLUE
- FSML
- BoostCamp
- BELU
Archives
- Today
- Total
dukim's blog
Large-Scale LM에 대한 얕고 넓은 지식들 (Part 2) 본문
집현전 최신반 발표로 고현웅님, 이윤재님과 함께 Large-scale 언어모델에 대한 서베이를 진행했습니다. 해당 발표는 part2에 해당하는 Prompting Method에 대한 내용입니다(고현웅님의 Part 1 발표는 Large-scale LM과 3D Parallelism을 다룹니다).
이 발표는 지난 7월 29일에 발표된 "Pre-train, Prompt, and Predict: A Systematic Survey of Prompting Methods in Natural Language Processing" Prompting method에 대한 논문 리뷰이기도 합니다. 본 자료가 Prompting Method에 대한 연구 및 개발을 시작하시는 분들께 도움이 되었으면 좋겠습니다.
논문 웹사이트: http://pretrain.nlpedia.ai/
발표 자료: https://bit.ly/3kVcIjd
발표 내용을 최대한 검토하였으나 부정확한 내용이 있을 수 있습니다. 오류에 대한 지적은 댓글 및 메일로 언제든 감사히 받겠습니다.
e-mail: eliza.dukim@gmail.com
'NLP' 카테고리의 다른 글
Fine-tuning a model on the KLUE-STS (1) | 2021.08.11 |
---|---|
Fine-tuning a model on the YNAT (0) | 2021.08.07 |
ALIGN: Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision (0) | 2021.06.07 |
Eliza in Python - (2) (0) | 2021.04.03 |
Eliza in Python - (1) (0) | 2021.04.03 |
Comments