차이
문서의 선택한 두 판 사이의 차이를 보여줍니다.
| 양쪽 이전 판이전 판다음 판 | 이전 판 | ||
| tech:openclaw [2026/03/10 04:46] – [models] 115.93.88.195 | tech:openclaw [2026/03/11 03:51] (현재) – [models] 115.93.88.195 | ||
|---|---|---|---|
| 줄 2: | 줄 2: | ||
| ====== Openclaw====== | ====== Openclaw====== | ||
| - | |||
| OpenClaw는 LLM(거대 언어 모델)을 기반으로, | OpenClaw는 LLM(거대 언어 모델)을 기반으로, | ||
| 줄 504: | 줄 503: | ||
| =====models===== | =====models===== | ||
| - | M4 실리 경우 | + | M4 실리콘의 |
| - | mlx 모델을 사용하는 것이 빠르다. | + | mlx 모델을 사용하는 것이 |
| + | 모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빠르다는 주장도 있다. | ||
| [[https:// | [[https:// | ||
| [[https:// | [[https:// | ||
| + | |||
| + | 메인모델은 똑똑하고 빨라야 하기 때문에 구글 젬민, 쳇지피티, | ||
| + | 자주 작동하는 Heartbeat나 각종 긴 시간이 걸리는 작업을 처리하는 서브에이전트는 로컬 모델을 사용하는 것을 추천한다. | ||
| - | 모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빨라. | ||