차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판이전 판
다음 판
이전 판
tech:ollama [2026/02/08 11:34] 192.168.0.1tech:ollama [2026/03/13 13:48] (현재) 192.168.0.1
줄 2: 줄 2:
 ====== Ollama====== ====== Ollama======
  
-Ollama나 OpenWebUI 같은 환경에서 모델을 고르다 보면 이름 옆에 붙는 다양한 태그들이 헷갈리실 수 있다Mac mini 32GB 사용자를 위해 아주 쉽고 직관적으로 정리해 드릴게요.+ 
 + 
 +   ollama run qwen3.5:9b --verbose  --think=false "월경 주기에 대해서 알려줘" 
 + 
 + qwen3.5:4b  
 + 
 +total duration:       43.345010709s 
 +load duration:        105.515709ms 
 +prompt eval count:    19 token(s) 
 +prompt eval duration: 214.224625ms 
 +prompt eval rate:     88.69 tokens/s 
 +eval count:           807 token(s) 
 +eval duration:        42.19583567s 
 +eval rate:            19.13 tokens/s 
 + 
 + 
 + qwen3.5:9b  
 + 
 +total duration:       1m4.25225775s 
 +load duration:        3.324773875s 
 +prompt eval count:    19 token(s) 
 +prompt eval duration: 651.957ms 
 +prompt eval rate:     29.14 tokens/s 
 +eval count:           798 token(s) 
 +eval duration:        59.355316133s 
 +eval rate:            13.44 tokens/s
  
 ==== 클라우드 (Cloud / API)==== ==== 클라우드 (Cloud / API)====
줄 61: 줄 86:
      * 램 사용 20GB, 단순 인사 대답 약 3초. 약간 복잡한 질문은 3분 정도 걸려.      * 램 사용 20GB, 단순 인사 대답 약 3초. 약간 복잡한 질문은 3분 정도 걸려.
    * qwen2.5-coder:14b (9.0 GB)     * qwen2.5-coder:14b (9.0 GB) 
-     * 램사용 21GB+     * 램사용 21GB, 3-4문장 대답 8분.
  
    * Llava (4.0 GB)     * Llava (4.0 GB) 
줄 70: 줄 95:
  
 [[openclaw]] [[openclaw]]
 +
 +
 +
 +<file>
 +# 32GB 맥에서 LLM을 위해 GPU 한도를 26GB 정도로 늘리기
 +sudo sysctl iogpu.wired_limit_mb=26624
 +</file>