일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- T5 논문 리뷰
- ImageNet Classification with Deep ConvolutionalNeural Networks 리뷰
- 정책기반 agent
- Multi Task Learning Objectives for Natural Language Processing
- BERT 사용방법
- Zero-shot Generalization in Dialog State Tracking through GenerativeQuestion Answering
- CNN 논문리뷰
- 뉴텝스 400
- RuntimeError: DataLoader worker (pid(s) ) exited unexpectedly
- 길찾기
- attention 설명
- Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer
- Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer 리뷰
- Attention Is All You Need
- BART 논문리뷰
- A Neural Attention Model for Abstractive Sentence Summarization
- BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 리뷰
- 다양한 모듈에서 log쓰기
- Evaluate Multiwoz
- hugging face tokenizer에서 special case 추가하기
- Attention Is All You Need 리뷰
- Multi Task Learning Objectives for Natural Language Processing 리뷰
- TOD 논문리뷰
- UBAR: Towards Fully End-to-End Task-Oriented Dialog System with GPT-2
- The Natural Language Decathlon:Multitask Learning as Question Answering
- MMTOD
- 바닥부터 배우는 강화 학습
- BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 논문리뷰
- NLP 논문 리뷰
- BERT란
- Today
- Total
목록전체 글 (40)
one by one ◼◻◼◻

다음학교는 포항공대 AI 대학원 합격후기 및 준비방법이다. 포항공과대학교에 지원할때는 컴퓨터공학과가 아닌 AI대학원에 지원했다. 처음에는 컴퓨터 공학과에 지원하려고 했는데 컴퓨터 공학과의 면접 문제들을 보니 내가 학부에서 배우지 않은 수업(전공 과목 편식을 좀 했다.., 논리회로 이런거 안들었음..)에 대한 질문도 많이 나와서 면접을 위해 공부할게 너무 많았다. 차라리 수학, 알고리즘을 물어보는 AI대학원의 면접이 좀 더 유리할 것 같아서 AI대학원으로 지원하였다. 포항공과대학교 인공지능 대학원 포항공과 대학교(이하 포스텍) AI대학원에서는 수학, 알고리즘 능력을 평가한다. 포스텍은 1차 서류 평가에서 합격한 사람을 대상으로 면접의 기회가 주어진다. 수학은 "mathematics for machine l..

2021 인공지능 데이터 활용 경진대회에 참여했다. 아쉽게도.. 예선에서 시간부족으로 모델을 제출하지 못해 결과를 알 수 없었다. 하지만 텍스트 요약 이라는 새로운 분야에 도전해서 결과를 얻었다는 점에서(비록 결과가 좋은지 어떤지는 모르지만..) 좋은 경험이었다! 예선대회는 dacon 플랫폼에서 이뤄졌고, 시간은 3일이 주어졌다. https://dacon.io/competitions/official/235818/overview/description "훈민정음에 스며들다"-문서요약 역량평가 - DACON 좋아요는 1분 내에 한 번만 클릭 할 수 있습니다. dacon.io 코드 공유에서 달린 댓글들을 보니 나 말고도 시간 부족으로 당황한 사람이 많은 듯 했다. (여담이지만.. 시간이 안그래도 부족한데 실수로..

제목 : HowMuchKnowledge Can You Pack Into the Parameters of a Language Model? 저자 : Tu Vu, Minh-Thang Luong, Quoc V. Le, Grady Simon, Mohit Iyyer, Noam Shazeer 발행년도 : 2021 paper : https://arxiv.org/abs/2109.06270 code : https://github.com/google-research/google-research/tree/master/TA-ST Review Abstract 최근의 발전이 NLP task에서 많은 발전을 이뤘지만, Large scale의 pretrained 언어 모델이 few shot 세팅에서는 그리 좋은 성능을 보이지 못하고 ..