[LLM 스터디] 5일차 인증 - gemma, llama 구조

2025. 1. 5. 19:29AI/LLM 스터디

오늘의 공부 내용:

- gemma와 llama의 모델 구조

    - gemma, llama는 비교적 작은 모델이지만 설계로 효율성을 높인 아키텍처

- BatchNorm과 LayerNorm의 차이

    - BatchNorm: CNN에 적합, batch_size가 커야 좋음.

    - LayerNorm: NLP/RNN에 적합

- RoPE, NLP에 적합한 활성화 함수들

 

 

 

gemma 구조인데 딱 보자마자 '인셉션을 여기에 써먹는구나~' 했다...

전에 googlenet 리뷰할 때 본거랑 너무 똑같자나~