차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판이전 판
다음 판
이전 판
tech:openclaw [2026/03/06 10:33] 175.209.35.54tech:openclaw [2026/03/11 03:51] (현재) – [models] 115.93.88.195
줄 2: 줄 2:
 ====== Openclaw====== ====== Openclaw======
  
-  
 OpenClaw는 LLM(거대 언어 모델)을 기반으로, 개인 서버와 일상을 자동화하고 관리하도록 설계된 오픈소스 AI 에이전트 게이트웨이임. OpenClaw는 LLM(거대 언어 모델)을 기반으로, 개인 서버와 일상을 자동화하고 관리하도록 설계된 오픈소스 AI 에이전트 게이트웨이임.
  
줄 42: 줄 41:
 [[https://twofootdog.tistory.com/555|오픈클로(OpenClaw) 설치부터 제미나이(Gemini) 무료 연동까지 완벽 가이드(feat. 구 클로드봇(Clawdbot) 설치 가이드)]] [[https://twofootdog.tistory.com/555|오픈클로(OpenClaw) 설치부터 제미나이(Gemini) 무료 연동까지 완벽 가이드(feat. 구 클로드봇(Clawdbot) 설치 가이드)]]
  
 +====삭제====
 +
 +  openclaw uninstall --all --yes --non-interactive
 =====대화창===== =====대화창=====
  
줄 501: 줄 503:
 =====models===== =====models=====
  
-M4 실리 경우 +M4 실리콘의 경우 
-mlx 모델을 사용하는 것이 빠르다.+mlx 모델을 사용하는 것이 낫다고 함. [[ollama]]보다는 편의성이 떨어짐.  
 +모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빠르다는 주장도 있다. 
 + 
 +[[https://discuss.pytorch.kr/t/mlx-vlm-m5-apple-silicon-mlx-vlm/8963|mlx-vlm]], 
 +[[https://github.com/waybarrios/vllm-mlx|vllm-mlx]] 참조. 
 + 
 +메인모델은 똑똑하고 빨라야 하기 때문에 구글 젬민, 쳇지피티, 오푸스 등을 사용하고 
 +자주 작동하는 Heartbeat나 각종 긴 시간이 걸리는 작업을 처리하는 서브에이전트는 로컬 모델을 사용하는 것을 추천한다. 
 + 
 + 
 + 
 + 
 + 
 + "한반도의 지정학적 중요성 알려줘" 
 +  
 +  
 +  
 +### 요약 
 +결국 한반도는 **"안보적 위험 (핵 문제, 북대서양)"** 과 **"경제적 가치 (무역, 기술, 에너지 공급)"** 이 충돌하는 지점이기 때문입니다. 따라서 세계 각국은 여기 
 +의 상황 변화가 지역적 전쟁이나 경제 파장을 초래할 수 있으므로 항상 감시하고 있는 지정학적 "불안 요소"이자 동시에 "전략적 교차로"라고 평가됩니다. 
 + 
 + 
 + 
 +## qwen3.5:4b 
 + 
 + 
 +total duration:       2m9.078710125s 
 +load duration:        1.027773417s 
 +prompt eval count:    19 token(s) 
 +prompt eval duration: 214.916625ms 
 +prompt eval rate:     88.41 tokens/s 
 +eval count:           2381 token(s) 
 +eval duration:        2m5.437022108s 
 +eval rate:            18.98 tokens/s 
 + 
 + 
 +## qwen3.5:9b 
 + 
 +total duration:       2m16.405829917s 
 +load duration:        3.300296709s 
 +prompt eval count:    19 token(s) 
 +prompt eval duration: 353.761042ms 
 +prompt eval rate:     53.71 tokens/s 
 +eval count:           1757 token(s) 
 +eval duration:        2m10.881691527s 
 +eval rate:            13.42 tokens/s 
 + 
 + 
 +## gpt-oss:20b  
 + 
 +total duration:       1m29.23167875s 
 +load duration:        3.888069916s 
 +prompt eval count:    77 token(s) 
 +prompt eval duration: 500.265375ms 
 +prompt eval rate:     153.92 tokens/s 
 +eval count:           2197 token(s) 
 +eval duration:        1m23.066894938s 
 +eval rate:            26.45 tokens/s 
  
-vllm-mlx  참조.