728x90 Quantization1 LLM모델의 양자화!!(Quantization): GPTQ 및 AWQ 방식 알아보 오늘의 글 3줄요약!!양자화는 모델을 압축한다!!단순히 모델 다운받아 사용할거면 GPTQ가 완벽!!메모리를 아끼며 학습시키려면!! AWQ를 쓰자!! OpenAI의 GPT가 LLM 모델의 대표가 되어가고있지만,이는 유로상업 모델로 그 구조가 공개되어있지 않습니다!! 하지만!! Meta의 llama를 필두로해서 여러 오픈소스 모델이 공개되고있는데요!!이런 오픈소스 모델은 엄청 큰!! 메모리와 계산 자원을 요구합니다. 이를 해결하기 위한 방법 중 하나가 양자화(Quantization)입니다.쉽게 말해 LLM 모델을 압축한다고 이해하면 되겠죄~~?원래 양자화란 아날로그 신호를 binary 한 양자(전자는 1에서 1.5 가 없이 바로 2로가죠!?)신호로 바꾸는데서 유래되었는데요!! 오늘은 LLM모델의 양자화에 .. 2024. 10. 7. 이전 1 다음 728x90