일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- BoostCamp
- Conversation System
- pytorch
- huggingface
- Eliza
- layer normalization
- FSML
- boj
- beam search
- bert
- multi-head attention
- 백준
- GPT-1
- Dialogue System
- BELU
- Transformers
- Prompt Tuning with Rules for Text Classification
- KLUE-RE
- text classification
- Transformer
- 취업
- Relation Extraction
- fine-tuning
- NLP
- KLUE
- MT-DNN
- scaled dot-product attention
- BLEU Score
- Chatbot
- ai-tech
- Today
- Total
목록Transformers (3)
dukim's blog
Intro 논문 읽기 모임 3회차 : ELMo, GPT-1 어제 해결하지 못했던 Layer Normalization 정리 9, 10강 실습 코드 선택과제 3 BPE 학습내용 [논문 읽기 모임] ELMo, GPT-1 ELMo Peters et al., Deep contextualized word representations, NAACL 2018 예전 같았으면 자세히 읽었을텐데, 지금은 BERT 논문을 더 잘 이해하기 위한 배경지식 정도로만 내용 파악하는 게 맞는 것 같다. BERT 이전의 기법들을 통합하는 논문 Abstract 주요 특징 단어의 복잡한 특징 모델링(syntax, semantics) 다양한 언어 맥락 상에서 어떻게 사용되는지 학습(polysemy, 다의어) 구조 biLM pre-trained..
Coment 가짜연구소 3기 KLUE로 모델 평가하기 4주차에서 발표한 자료입니다. 지난번 YNAT에 이어 STS에 대한 베이스라인 코드입니다. KLUE에서 공개한 Pre-trained 모델의 weights를 불러와서 한국어 벤치마크 데이터셋 KLUE의 문장 유사도 평가 데이터셋 STS에 Fine-tuning하는 예제입니다. Contents HuggingFace Datasets을 활용하여 KLUE 데이터셋 쉽게 전처리하기 HuggingFace Hub에서 사전학습된 언어 모델을 다운로드 받아 사용하고, 학습한 모델을 업로드하여 공유하기 Trainer 객체를 사용하여 모델 학습 및 평가 & hyperparameter search하기 Weights & Biases를 활용하여 실험 관리하기 https://col..
Coment 가짜연구소 3기 KLUE로 모델 평가하기 2주차에서 발표한 자료입니다. HuggingFace 정말 많이들 쓴다던데, 어떻게 시작해야할지 막막하신 분들을 위해서 준비했습니다. KLUE에서 공개한 Pre-trained 모델의 weights를 불러와서 한국어 벤치마크 데이터셋 KLUE의 제 분류 데이터셋 YNAT에 Fine-tuning하는 예제입니다. Contents HuggingFace Datasets을 활용하여 KLUE 데이터셋 쉽게 전처리하기 HuggingFace Hub에서 사전학습된 언어 모델을 다운로드 받아 사용하고, 학습한 모델을 업로드하여 공유하기 Trainer 객체를 사용하여 모델 학습 및 평가 & hyperparameter search하기 Weights & Biases를 활용하여 ..