Mac을 위한 최강의 로컬 AI, 'SuperGemma4-26B-Uncensored'

22

설명

최근 Google이 공개한 Gemma 4 모델이 AI 커뮤니티에서 큰 화제입니다. 그중에서도 성능과 속도, 그리고 자유도를 모두 잡은 SuperGemma4-26B-Uncensored-Fast v2 모델이 Hugging Face를 통해 공개되었습니다. Apple Silicon 환경에서 로컬 AI를 운영하려는 분들에게 최고의 선택지가 될 것으로 보입니다. 1. 주요 특징 및 장점 Uncensored (무검열): 일반적인 챗봇 모델들이 가진 지나친 거절 반응이나 가드레일을 완화하여, 사용자의 질문에 더 직접적이고 정직하게 응답합니다. Apple Silicon 최적화 (MLX): Apple의 MLX 프레임워크와 4-bit 양자화를 사용하여 MacBook 등에서 매우 빠르고 효율적으로 구동됩니다. (약 13GB 수준의 가벼운 크기) 강력한 성능 향상: 순정 Gemma 4 26B 모델보다 코딩(+6.3), 논리(+8.3), 한국어(+4.3) 성능이 눈에 띄게 개선되었습니다. 압도적인 속도: 한국어 프롬프트 기준 약 222 tok/s, 생성 속도 약 89.4 tok/s라는 놀라운 퍼포먼스를 보여줍니다. (v2 버전 기준) 2. 왜 이 모델인가? 이 모델은 단순히 "제약이 없는 모델"을 넘어, 실제 로컬 에이전트 작업에 적합하도록 튜닝되었습니다. 특히 한국어 기술 프롬프트나 브라우저 자동화, 복잡한 코딩 작업에서 순정 모델보다 더 똑똑한 답변을 내놓는 것이 특징입니다. 3. 기술 사양 베이스 모델: Google Gemma-4-26B-A4B-it 아키텍처: MoE (Mixture-of-Experts) - 효율적인 자원 사용 가능 포맷: MLX 4-bit (Apple Silicon 전용) 추천 사양: M1/M2/M3 시리즈 칩셋이 탑재된 Mac (RAM 16GB 이상 권장) 4. 사용 방법 Hugging Face의 mlx-lm 라이브러리를 이용해 간단히 실행할 수 있습니다. Bash pip install mlx-lm python -m mlx_lm.generate --model Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2 --prompt "안녕하세요, 오늘 날씨에 대해 이야기해줘." 📝 모델 정보 및 출처 모델명: SuperGemma4-26B-Uncensored-Fast-v2 (MLX 4-bit) 제작자: Jiunsong 라이선스: Gemma License (Google의 정책을 따름) 저장소 링크: https://huggingface.co/Jiunsong/supergemma4-26b-uncensored-mlx-4bit-v2

댓글 0

아직 댓글이 없습니다. 첫 댓글을 남겨 보세요.