일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- Dialogue System
- KLUE-RE
- Prompt Tuning with Rules for Text Classification
- pytorch
- fine-tuning
- scaled dot-product attention
- MT-DNN
- beam search
- 백준
- Transformers
- bert
- layer normalization
- boj
- huggingface
- 취업
- ai-tech
- multi-head attention
- GPT-1
- Transformer
- BLEU Score
- Eliza
- text classification
- Chatbot
- BELU
- Relation Extraction
- KLUE
- Conversation System
- FSML
- BoostCamp
- NLP
Archives
- Today
- Total
dukim's blog
Fine-tuning a model on the KLUE-STS 본문
Coment
가짜연구소 3기 KLUE로 모델 평가하기 4주차에서 발표한 자료입니다.
지난번 YNAT에 이어 STS에 대한 베이스라인 코드입니다.
KLUE에서 공개한 Pre-trained 모델의 weights를 불러와서 한국어 벤치마크 데이터셋 KLUE의 문장 유사도 평가 데이터셋 STS에 Fine-tuning하는 예제입니다.
Contents
- HuggingFace Datasets을 활용하여 KLUE 데이터셋 쉽게 전처리하기
- HuggingFace Hub에서 사전학습된 언어 모델을 다운로드 받아 사용하고, 학습한 모델을 업로드하여 공유하기
- Trainer 객체를 사용하여 모델 학습 및 평가 & hyperparameter search하기
- Weights & Biases를 활용하여 실험 관리하기
https://colab.research.google.com/drive/1uE7GrsZl8XrImf74bRoxRVYzoUfvMNzl?usp=sharing
'NLP' 카테고리의 다른 글
Large-Scale LM에 대한 얕고 넓은 지식들 (Part 2) (0) | 2021.09.06 |
---|---|
Fine-tuning a model on the YNAT (0) | 2021.08.07 |
ALIGN: Scaling Up Visual and Vision-Language Representation Learning With Noisy Text Supervision (0) | 2021.06.07 |
Eliza in Python - (2) (0) | 2021.04.03 |
Eliza in Python - (1) (0) | 2021.04.03 |
Comments