일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- scaled dot-product attention
- GPT-1
- text classification
- FSML
- huggingface
- BLEU Score
- boj
- Transformer
- BoostCamp
- layer normalization
- bert
- 백준
- Prompt Tuning with Rules for Text Classification
- multi-head attention
- fine-tuning
- ai-tech
- Relation Extraction
- KLUE
- Eliza
- MT-DNN
- BELU
- Chatbot
- 취업
- beam search
- Transformers
- Dialogue System
- Conversation System
- pytorch
- NLP
- KLUE-RE
Archives
- Today
- Total
dukim's blog
Fine-tuning a model on the YNAT 본문
Coment
가짜연구소 3기 KLUE로 모델 평가하기 2주차에서 발표한 자료입니다.
HuggingFace 정말 많이들 쓴다던데, 어떻게 시작해야할지 막막하신 분들을 위해서 준비했습니다.
KLUE에서 공개한 Pre-trained 모델의 weights를 불러와서 한국어 벤치마크 데이터셋 KLUE의 제 분류 데이터셋 YNAT에 Fine-tuning하는 예제입니다.
Contents
- HuggingFace Datasets을 활용하여 KLUE 데이터셋 쉽게 전처리하기
- HuggingFace Hub에서 사전학습된 언어 모델을 다운로드 받아 사용하고, 학습한 모델을 업로드하여 공유하기
- Trainer 객체를 사용하여 모델 학습 및 평가 & hyperparameter search하기
- Weights & Biases를 활용하여 실험 관리하기
https://colab.research.google.com/drive/1x0xVXXIfPpqkxL-fG9LuQvJ5vd56-Ik6?usp=sharing
'NLP' 카테고리의 다른 글
Large-Scale LM에 대한 얕고 넓은 지식들 (Part 2) (0) | 2021.09.06 |
---|---|
Fine-tuning a model on the KLUE-STS (1) | 2021.08.11 |
ALIGN: Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision (0) | 2021.06.07 |
Eliza in Python - (2) (0) | 2021.04.03 |
Eliza in Python - (1) (0) | 2021.04.03 |
Comments