2025. 1. 13. 18:09ㆍAI/LLM 스터디
오늘의 공부 내용:
- 허깅페이스의 llm 모델 사용법(google/gemma-2b-it)
- batch_size의 중요성
hugging face에서 gemma access 권한을 신청 했는데 몇일 지나도 안되길래 퍼플렉시티에 물어봤더니 같은 문제를 겪은 사람들이 많은 것 같았다. hugging face에 올라온 discussion들을 좀 더 뒤져봤더니 해결방법 발견!

그냥 20GB/20GB, H100 PCle로 했다. 책에서 하라는 용량보다 적게 했는데 아직은 굳이 클 필요는 없는 것 같다. 필요할 때 삭제하고 다시 생성하면 되겠지…
그리고 전에 이 실습코드를 L40으로도 돌려봤는데 큰 차이는 없는 것 같았다. 괜히 h100으로 했다… 다시 L40으로!

이 함수를 실행시키던 중 ‘You seem to be using the pipelines sequentially on GPU. In order to maximize efficiency please use a dataset’ 이런 경고가 떴다.
‘더 빠르게 할 수 있는건가?’ 하고 구글링 해봤더니 pipeline에 batch_size를 주면 병렬로 더 빠르게 돌릴 수 있다고 한다.
batch_size 줬더니 더 빨라진 것 같다ㅋㅋ
이거 하고 내가 여기저기 건드린 코드 올리려고
책 repo 포크하고 이 코드 올려서 푸시했는데 실수로 인증 토큰을 올렸다!!!
바로 토큰 만료시키고 --amend로 수정 후 force push로 갈아엎었다…
그런데 바로 깃헙에서 메일로 토큰 올린 것 같다고 알려줬다. aws 키도 그렇고 이렇게 털리는 사람이 많은듯ㅋㅋ
https://github.com/gwangmin/llm-finetuning/blob/main/chapter3/3.4/Gemma_2B_it_Full_Finetuning.ipynb
'AI > LLM 스터디' 카테고리의 다른 글
[LLM 스터디] 9일차 인증 - wandb, transformers api, 풀파인튜닝 (0) | 2025.01.15 |
---|---|
[LLM 스터디] 8일차 인증 - datasets, Collator (0) | 2025.01.15 |
[LLM 스터디] 6일차 인증 - Parallelism (0) | 2025.01.13 |
[LLM 스터디] 5일차 인증 - gemma, llama 구조 (1) | 2025.01.05 |
[LLM 스터디] 4일차 인증 - PEFT, NLP tasks (1) | 2025.01.02 |