일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- bootcamp
- 자료구조
- 리뷰
- 코딩테스트
- 노마드코더
- Ai
- 부트캠프
- 파이썬
- Codestates
- JavaScript
- 주간보고
- 빅데이터
- 꾸준히
- python
- 독서
- 재미져
- MYSQL
- 기초통계
- selenium
- 열심히
- 매일매일
- yolo
- 코드스테이츠
- 선형회귀
- 딥러닝
- SQL
- pandas
- leetcode
- 성실히
- 2021
- Today
- Total
목록GPT2 (2)
코딩일기
안녕하십니까 다제입니다. 오늘은 huggingface에서 모델을 사용할 때 config.json 파일을 자주 살펴보게 되는데요 최근 text generation을 요즘 유심히 살펴보고 있고, 그중에서도 gpt2의 config.json을 살펴보다가 모르는 표기가 있어서 간단하게 정리를 하고자 하는데요 일단, 우리가 config.json을 살펴보아야 하는 이유는 모델이 어느 정도의 언어 표현 능력이 있는지를 config파일을 보면서 대략적으로 알 수 있기 때문입니다. 특히, vocab_size, n_embeddings(n_embd), n_head, n_layer를 살펴보면 대략적으로 감을 잡을 수 있습니다. 아! 이 녀석을 차용하여 사용하면 어느 정도의 표현까지는 말을 할 수 있겠구나 vocab_size :..
안녕하십니까 다제입니다. 오늘은 clipcap이라는 논문을 소개드리고자 합니다. clipcap은 Image-Caption Domain에 활용되는 모델입니다. image caption이란, 입력된 이미지를 이해하고 이미지에 대한 설명을 텍스트로 출력하는 도메인입니다. ※ caption : 이미지에 대한 간략한 설명 또는 주석 즉, clipcap은 clip이라는 모델을 이용하여 이미지를 이해하고 gpt2를 활용하여 이미지에 대한 설명(caption or description)을 생성해내는 모델입니다. 차근차근 하나씩 설명을 드릴 예정인데, 바쁘고 결론만 알고 싶은 분들을 위해 Abstract에 최대한 요약 해놓았습니다. Clip을 모르시는 분들은 제가 포스팅한 Clip(Constractive Language..