차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판이전 판
다음 판
이전 판
tech:openclaw [2026/03/10 04:46] – [models] 115.93.88.195tech:openclaw [2026/03/11 03:51] (현재) – [models] 115.93.88.195
줄 2: 줄 2:
 ====== Openclaw====== ====== Openclaw======
  
-  
 OpenClaw는 LLM(거대 언어 모델)을 기반으로, 개인 서버와 일상을 자동화하고 관리하도록 설계된 오픈소스 AI 에이전트 게이트웨이임. OpenClaw는 LLM(거대 언어 모델)을 기반으로, 개인 서버와 일상을 자동화하고 관리하도록 설계된 오픈소스 AI 에이전트 게이트웨이임.
  
줄 504: 줄 503:
 =====models===== =====models=====
  
-M4 실리 경우 +M4 실리콘의 경우 
-mlx 모델을 사용하는 것이 빠르다.+mlx 모델을 사용하는 것이 낫다고 함. [[ollama]]보다는 편의성이 떨어짐.  
 +모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빠르다는 주장도 있다.
  
 [[https://discuss.pytorch.kr/t/mlx-vlm-m5-apple-silicon-mlx-vlm/8963|mlx-vlm]], [[https://discuss.pytorch.kr/t/mlx-vlm-m5-apple-silicon-mlx-vlm/8963|mlx-vlm]],
 [[https://github.com/waybarrios/vllm-mlx|vllm-mlx]] 참조. [[https://github.com/waybarrios/vllm-mlx|vllm-mlx]] 참조.
 +
 +메인모델은 똑똑하고 빨라야 하기 때문에 구글 젬민, 쳇지피티, 오푸스 등을 사용하고
 +자주 작동하는 Heartbeat나 각종 긴 시간이 걸리는 작업을 처리하는 서브에이전트는 로컬 모델을 사용하는 것을 추천한다.
  
  
-모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빨라.