일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- BoostCamp
- Eliza
- fine-tuning
- BLEU Score
- ai-tech
- BELU
- GPT-1
- Conversation System
- NLP
- KLUE
- Chatbot
- Dialogue System
- layer normalization
- pytorch
- Transformer
- huggingface
- Prompt Tuning with Rules for Text Classification
- multi-head attention
- bert
- FSML
- Transformers
- Relation Extraction
- beam search
- MT-DNN
- scaled dot-product attention
- 백준
- 취업
- boj
- text classification
- KLUE-RE
Archives
- Today
- Total
dukim's blog
Fine-tuning a model on the YNAT 본문
Coment
가짜연구소 3기 KLUE로 모델 평가하기 2주차에서 발표한 자료입니다.
HuggingFace 정말 많이들 쓴다던데, 어떻게 시작해야할지 막막하신 분들을 위해서 준비했습니다.
KLUE에서 공개한 Pre-trained 모델의 weights를 불러와서 한국어 벤치마크 데이터셋 KLUE의 제 분류 데이터셋 YNAT에 Fine-tuning하는 예제입니다.
Contents
- HuggingFace Datasets을 활용하여 KLUE 데이터셋 쉽게 전처리하기
- HuggingFace Hub에서 사전학습된 언어 모델을 다운로드 받아 사용하고, 학습한 모델을 업로드하여 공유하기
- Trainer 객체를 사용하여 모델 학습 및 평가 & hyperparameter search하기
- Weights & Biases를 활용하여 실험 관리하기
https://colab.research.google.com/drive/1x0xVXXIfPpqkxL-fG9LuQvJ5vd56-Ik6?usp=sharing
'NLP' 카테고리의 다른 글
Large-Scale LM에 대한 얕고 넓은 지식들 (Part 2) (0) | 2021.09.06 |
---|---|
Fine-tuning a model on the KLUE-STS (1) | 2021.08.11 |
ALIGN: Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision (0) | 2021.06.07 |
Eliza in Python - (2) (0) | 2021.04.03 |
Eliza in Python - (1) (0) | 2021.04.03 |
Comments