일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 코드스테이츠
- Ai
- 매일매일
- 꾸준히
- selenium
- 노마드코더
- 부트캠프
- bootcamp
- 기초통계
- 빅데이터
- 선형회귀
- 리뷰
- 성실히
- 열심히
- 파이썬
- 코딩테스트
- 딥러닝
- leetcode
- python
- 재미져
- Codestates
- yolo
- 2021
- pandas
- 주간보고
- 자료구조
- SQL
- MYSQL
- 독서
- JavaScript
- Today
- Total
목록Code/딥러닝(NL) (28)
코딩일기
오늘 소개해 드릴 재미있는 AI 기술은 embedchain입니다. 실제 사용 예시 코드를 코랩으로 준비하였습니다. 또한, 배포했던 이미지도 함께 스샷으로 찍어두었으니, 다들 직접 실습해보시고, 배포까지 해보시면 좋을 거 같습니다. LLM을 사용하여 RAG(검색 증강 생성) 애플리케이션을 구축하는 방법을 알아보고자 합니다. 지금까지 RAG 애플리케이션은 AI 혁명의 가장 유용한 결과입니다. 아마 내년쯤에는 훨씬 더 큰 발전을 볼 수 있을 것입니다. 한때 prompt engineer가 대세였다면, 이제 RAG engineer가 대세가 되지 않을까 조심스럽게 추측해봅니다. RAG가 무엇인지 모르시는 분들은 아래 글을 참고해주세요. https://dajeblog.co.kr/3-%eb%85%bc%eb%ac%b8-..
오늘은 Gemini(제미나이)에 대해서 소개해드리는 시간입니다. Gemini가 무엇이고, 누가 만들었고, 어떤 기능을 할 수 있는지에 대해서 알아보도록 하겠습니다. 텍스트 뿐 아니라 음성과 이미지 등을 이해할 수 있는 멀티모달 방식의 ai로 만들져서 채팅 수준을 넘어 말하거나 들을 수 있고, 그림도 이해할 수 있습니다. 수학 문제를 풀거나 데이터를 분석하는 높은 추론 능력까지 갖추어 프로그램 코딩까지 할 수 있다고 설명하였습니다. 제미나이(Gemini)는 Ultra, Pro, Nano 3가지 모델로 구성되어 있습니다. 구글은 제미나이(Gemini) Ultra가 GPT4보다 성능이 좋다고 주장합니다. 그러나, 개발자들 사이에서는 정말 좋다고 말할 수 있는 것인가? 에 대한 논란이 붉어지고 있습니다. 왜 논..
Attention Sinks로 더 많이 소개되고 있는 논문 : Efficient Streaming Language Models with Attention Sinks(feat. text of infinite length without fine-tuning)에 대해서 오늘은 한번 알아보고자 해요. 어떤 문제를 해결하고 싶었고, 어떻게 아이디어 발견하였고, 수식과 코드까지 어떻게 연결되었는지 한 큐에 설명드릴테니 잘 따라오셔요! 기존 문제점 mit-han-lab의 영상 중 왼쪽 영상처럼 KV Cache보다 긴 문장을 생성하다보면, 모델이 튀어 이상한 문장을 생성하는 것을 발견할 수 있습니다. 원 저자는 이 문제를 논문에서 아래와 같이 말하고 있습니다. (여기서 한 가지 오해할 수 있는 사실이 엄청 긴 입력문장..
Gradient Accumulation과 GradientCheckPointing이 무엇을까요? LLM을 fine-tuning 할 때, 메모리 부족 문제는 많은 연구자와 개발자들이 직면하는 고질적인 문제 중 하나입니다. 한정된 리소스 자원으로 대규모 모델을 훈련시키는 동안 메모리 부족으로 학습이 실패하는 상황은 흔히 발생하는 문제입니다. 그러나 걱정하지 마세요! 오늘은 여러분이 겪고 있는 이러한 어려움을 극복하는 두 가지 중요한 기술을 소개하려고 합니다. Gradient Accumulation과 Gradient CheckPointing은 메모리 부족 문제를 해결하는 데 필수적인 도구입니다. 이러한 기술을 익히고 적용함으로써, LLM 학습 중 메모리 문제로 인한 실패를 더 이상 겪지 않을 수 있습니다. 이 ..
git release를 활용하여 대용량 데이터 파일을 주고 받을 수 있다는 사실을 알고 계셨나요? 프로젝트를 하다보면, 다른 분들에게 대용량 파일을 공유하기 위해 드라이브를 사용하여 공유하곤 합니다. 그러나, 이는 파일을 다운로드/업로드할때 매우 번거롭습니다. 어떻게 하면 서로 쉽게 주고 받을 수 있는지에 대해서 오늘은 알려드리고자 합니다. git release 데이터 저장하기 Git Release: 완벽하게 알아보기 1. Git-Release란? 2. Git-Release의 장점 3. Git-Release 생성하기 4. Git-Release 주의사항 5. 결론 Git-Release: Tag 1. 태그(Tag) 2. Semantic Versioning (SemVer) 3. Git Hooks 4. Cont..
보호되어 있는 글입니다.
안녕하십니까 다제입니다. 오늘은 이미지 분야에서 사용되는 다양한 Loss에 대해서 알아보고자 합니다. 이미지 분야에서 먼저 Deep Metric Learning이라는 표현이 자주 사용됩니다. 해당 용어가 무엇인지 찾아도 잘 안나오셨을텐데 이부분 먼저 살펴본 후 Arcface와 나머지 Loss들에 대해서 살펴보도록 하겠습니다. 여기서 Metric은 거리를 의미하게 되고 수학에서 거리는 함수를 의미합니다. 예를 들어, sin, cosin도 두 점 간의 거리를 수식으로 표현하는 것처럼 말이죠 이러한 Metric function은 입력을 받고, 추력으로 0 ~ 무한대의 실수 값을 리턴해주며 아래와 같은 3가지 조건을 만족해야 거리함수가 됩니다. 조건1 : distance(x, y) = 0 == x = y -> ..
안녕하세요 다제입니다. 요즘 글을 쓰다가 자꾸 이것저것 연결이 되어 글 하나를 제대로 못 올리고 있는데요 이렇게 해서 안돼겠다 싶더라구요. 그래서 이제 조각조각 난 개념들을 먼저 올리고 이를 순서대로 볼 수 있는 글을 따로 올려야겠다 라는 생각이들었습니다. 오늘은 공부하는 것 중 표준화하는 Layer층을 만드는 방법에 대해서 소개를 해볼까 합니다. 머신러닝을 하시는 분들은 sklearn에서 가볍게 scaler를 이용하여 값을 변경하면 되잖아? 라고 생각하실 수 있습니다. 그런데, 그러한 과정을 거치지 않고 바로 데이터를 넣고 인공지능 안에서 모든 것들이 처리 되게 구현하고 싶어서 찾아본 밥법입니다. 사실 원리는 간단합니다. class로 만들고 함수를 정의하고 model을 만들 때 layer를 넣어주기만 ..
보호되어 있는 글입니다.
안녕하십니까 다제 입니다. 오늘부터 시리즈로 NLP에 대해 전반적으로 공부를 진행해보고자 합니다. 해당 시리즈는 위키독스 딥러닝을 이용한 자연어 처리 입문 오프라인 강의, Andrew Ng 교수님 강의 내용을 함께 혼용하여 정리한 내용입니다. 요즘 많은 강의를 듣고 코딩을 하면서 "NLP가 과연 무엇일까?"에 대한 질문을 해보았습니다. 제가 생각하는 NLP는 현재까지 언어를 수학으로 이해하는 과정이다. 라고 저만의 정의를 지어보았습니다. 향후 NLP에 대한 개인적인 견해는 변동될 수 있지만 지금까지는 이렇게 이해하고 있습니다. 오늘은 일반적인 텍스트 전처리가 어떻게 이루어지고 있는지, 한국어에는 어떠한 전처리가 추가될 수 있는지도 함께 알아보도록 하겠습니다. ** 목차 ** 1. Tokenization ..