OLLAMA에서 Gemma3 27B IT QAT 모델 지원 시작 – 양자화로 더 가벼워진 AI의 힘

in #ai2 months ago (edited)

OLLAMA가 Gemma3 27B IT-QAT 모델을 공식 지원하기 시작했습니다! 이 모델은 Quantization-Aware Training (QAT)을 적용해 추론 속도를 향상시키고 메모리 사용량을 줄였습니다. 이제 아래 명령어로도 실행 가능합니다:

$ ollama run gemma3:287b-it-qat

QAT는 훈련 단계부터 양자화 최적화를 고려한 기술로, 대용량 모델의 실제 활용성에 혁신을 일으키고 있습니다. 27B QAT와 27B 버전의 차이는 공식 문서 확인을 추천합니다. (참고: https://ollama.com/library/gemma3:27b-it-qat)

Sort:  

Upvoted! Thank you for supporting witness @jswit.

H4LAB Delegation Status (2025/04/21)
https://www.steemit.com/@h4lab/2025-04-21-status

@h4lab님이 당신을 멘션하였습니다.
멘션을 받고 싶거나 받지 않으시려면 댓글을 남겨주세요. 빠른 시일내에 반영하도록 하겠습니다.