차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

다음 판
이전 판
tech:ollama [2026/02/06 04:18] – 만듦 59.10.158.200tech:ollama [2026/03/13 13:48] (현재) 192.168.0.1
줄 2: 줄 2:
 ====== Ollama====== ====== Ollama======
  
-Ollama나 OpenWebUI 같은 환경에서 모델을 고르다 보면 이름 옆에 붙는 다양한 태그들이 헷갈리실 수 있다Mac mini 32GB 사용자를 위해 아주 쉽고 직관적으로 정리해 드릴게요.+ 
 + 
 +   ollama run qwen3.5:9b --verbose  --think=false "월경 주기에 대해서 알려줘" 
 + 
 + qwen3.5:4b  
 + 
 +total duration:       43.345010709s 
 +load duration:        105.515709ms 
 +prompt eval count:    19 token(s) 
 +prompt eval duration: 214.224625ms 
 +prompt eval rate:     88.69 tokens/s 
 +eval count:           807 token(s) 
 +eval duration:        42.19583567s 
 +eval rate:            19.13 tokens/s 
 + 
 + 
 + qwen3.5:9b  
 + 
 +total duration:       1m4.25225775s 
 +load duration:        3.324773875s 
 +prompt eval count:    19 token(s) 
 +prompt eval duration: 651.957ms 
 +prompt eval rate:     29.14 tokens/s 
 +eval count:           798 token(s) 
 +eval duration:        59.355316133s 
 +eval rate:            13.44 tokens/s
  
 ==== 클라우드 (Cloud / API)==== ==== 클라우드 (Cloud / API)====
줄 52: 줄 77:
    
    
 +=====테스트=====
 +
 +   * Qwen2.5:32b-instruct-q3_K_M (15GB), cl 32768,   
 +     * 램 29gb 점유, 오픈클로 5분 이상 걸림.
 +   * qwen3-q3:
 +     * 램 24까지 올라감. 오픈클로 간단 인사 2분..^
 +   * qwen2.5:14b (9.0 GB)  ((openclaw config set agents.defaults.model.primary "ollama/qwen2.5:14b"))
 +     * 램 사용 20GB, 단순 인사 대답 약 3초. 약간 복잡한 질문은 3분 정도 걸려.
 +   * qwen2.5-coder:14b (9.0 GB) 
 +     * 램사용 21GB, 3-4문장 대답 8분.
 +
 +   * Llava (4.0 GB) 
 +   * qwen3-coder:30b (18 GB) 
 +     * 램26gb 점유. 대답 4분.
 +   * deepseek-r1:14b      9.0 GB    - 한국말 제대로 못함.
 +
 +
 +[[openclaw]]
 +
 +
 +
 +<file>
 +# 32GB 맥에서 LLM을 위해 GPU 한도를 26GB 정도로 늘리기
 +sudo sysctl iogpu.wired_limit_mb=26624
 +</file>
 +