차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판이전 판
다음 판
이전 판
tech:openclaw [2026/02/25 04:46] – [Heartbeat.md 예제] 115.93.88.195tech:openclaw [2026/03/11 03:51] (현재) – [models] 115.93.88.195
줄 2: 줄 2:
 ====== Openclaw====== ====== Openclaw======
  
-  
 OpenClaw는 LLM(거대 언어 모델)을 기반으로, 개인 서버와 일상을 자동화하고 관리하도록 설계된 오픈소스 AI 에이전트 게이트웨이임. OpenClaw는 LLM(거대 언어 모델)을 기반으로, 개인 서버와 일상을 자동화하고 관리하도록 설계된 오픈소스 AI 에이전트 게이트웨이임.
  
줄 9: 줄 8:
   * https://docs.openclaw.ai/   * https://docs.openclaw.ai/
  
 +[[qwen3.5]]
 +
 +  llama.cpp 옵션에 -ngl 99 --n-cpu-moe 24 -> 24는 16gb vram 기준이니 8gb는 적당히 조절하면서 최적값 찾아봐. MoE 모델이라 활성화 파라미터만 vram에 올리면 충분히 실사용 가능한 속도 나옴.
 +
 +
 +  .\llama-cli.exe   -m Qwen3.5-35B-A3B-UD-MXFP4_MOE.gguf   -ngl 28   --flash-attn   --color -p "
 =====주요 특징 및 능력===== =====주요 특징 및 능력=====
  
줄 36: 줄 41:
 [[https://twofootdog.tistory.com/555|오픈클로(OpenClaw) 설치부터 제미나이(Gemini) 무료 연동까지 완벽 가이드(feat. 구 클로드봇(Clawdbot) 설치 가이드)]] [[https://twofootdog.tistory.com/555|오픈클로(OpenClaw) 설치부터 제미나이(Gemini) 무료 연동까지 완벽 가이드(feat. 구 클로드봇(Clawdbot) 설치 가이드)]]
  
 +====삭제====
 +
 +  openclaw uninstall --all --yes --non-interactive
 =====대화창===== =====대화창=====
  
줄 118: 줄 126:
  
 </file> </file>
 +====qmd====
  
 +https://github.com/tobi/qmd
 +를 사용해서 장기 기억을 인덱싱하고 검색함.
 +
 +  openclaw memory status
 ====cron/jobs.json==== ====cron/jobs.json====
  
줄 488: 줄 501:
 } }
 </file> </file>
 +=====models=====
 +
 +M4 실리콘의 경우
 +mlx 모델을 사용하는 것이 낫다고 함. [[ollama]]보다는 편의성이 떨어짐. 
 +모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빠르다는 주장도 있다.
 +
 +[[https://discuss.pytorch.kr/t/mlx-vlm-m5-apple-silicon-mlx-vlm/8963|mlx-vlm]],
 +[[https://github.com/waybarrios/vllm-mlx|vllm-mlx]] 참조.
 +
 +메인모델은 똑똑하고 빨라야 하기 때문에 구글 젬민, 쳇지피티, 오푸스 등을 사용하고
 +자주 작동하는 Heartbeat나 각종 긴 시간이 걸리는 작업을 처리하는 서브에이전트는 로컬 모델을 사용하는 것을 추천한다.
 +
 +
 +
 +
 +
 + "한반도의 지정학적 중요성 알려줘"
 + 
 + 
 + 
 +### 요약
 +결국 한반도는 **"안보적 위험 (핵 문제, 북대서양)"** 과 **"경제적 가치 (무역, 기술, 에너지 공급)"** 이 충돌하는 지점이기 때문입니다. 따라서 세계 각국은 여기
 +의 상황 변화가 지역적 전쟁이나 경제 파장을 초래할 수 있으므로 항상 감시하고 있는 지정학적 "불안 요소"이자 동시에 "전략적 교차로"라고 평가됩니다.
 +
 +
 +
 +## qwen3.5:4b
 +
 +
 +total duration:       2m9.078710125s
 +load duration:        1.027773417s
 +prompt eval count:    19 token(s)
 +prompt eval duration: 214.916625ms
 +prompt eval rate:     88.41 tokens/s
 +eval count:           2381 token(s)
 +eval duration:        2m5.437022108s
 +eval rate:            18.98 tokens/s
 +
 +
 +## qwen3.5:9b
 +
 +total duration:       2m16.405829917s
 +load duration:        3.300296709s
 +prompt eval count:    19 token(s)
 +prompt eval duration: 353.761042ms
 +prompt eval rate:     53.71 tokens/s
 +eval count:           1757 token(s)
 +eval duration:        2m10.881691527s
 +eval rate:            13.42 tokens/s
 +
 +
 +## gpt-oss:20b 
 +
 +total duration:       1m29.23167875s
 +load duration:        3.888069916s
 +prompt eval count:    77 token(s)
 +prompt eval duration: 500.265375ms
 +prompt eval rate:     153.92 tokens/s
 +eval count:           2197 token(s)
 +eval duration:        1m23.066894938s
 +eval rate:            26.45 tokens/s
 +
 +