차이
문서의 선택한 두 판 사이의 차이를 보여줍니다.
| 양쪽 이전 판이전 판다음 판 | 이전 판 | ||
| tech:openclaw [2026/03/06 12:09] – [시작하기] 192.168.0.1 | tech:openclaw [2026/03/11 03:51] (현재) – [models] 115.93.88.195 | ||
|---|---|---|---|
| 줄 2: | 줄 2: | ||
| ====== Openclaw====== | ====== Openclaw====== | ||
| - | |||
| OpenClaw는 LLM(거대 언어 모델)을 기반으로, | OpenClaw는 LLM(거대 언어 모델)을 기반으로, | ||
| 줄 504: | 줄 503: | ||
| =====models===== | =====models===== | ||
| - | M4 실리 경우 | + | M4 실리콘의 |
| - | mlx 모델을 사용하는 것이 빠르다. | + | mlx 모델을 사용하는 것이 |
| + | 모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빠르다는 주장도 있다. | ||
| + | |||
| + | [[https:// | ||
| + | [[https:// | ||
| + | |||
| + | 메인모델은 똑똑하고 빨라야 하기 때문에 구글 젬민, 쳇지피티, | ||
| + | 자주 작동하는 Heartbeat나 각종 긴 시간이 걸리는 작업을 처리하는 서브에이전트는 로컬 모델을 사용하는 것을 추천한다. | ||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | " | ||
| + | |||
| + | |||
| + | |||
| + | ### 요약 | ||
| + | 결국 한반도는 **" | ||
| + | 의 상황 변화가 지역적 전쟁이나 경제 파장을 초래할 수 있으므로 항상 감시하고 있는 지정학적 " | ||
| + | |||
| + | |||
| + | |||
| + | ## qwen3.5: | ||
| + | |||
| + | |||
| + | total duration: | ||
| + | load duration: | ||
| + | prompt eval count: | ||
| + | prompt eval duration: 214.916625ms | ||
| + | prompt eval rate: 88.41 tokens/s | ||
| + | eval count: | ||
| + | eval duration: | ||
| + | eval rate: 18.98 tokens/s | ||
| + | |||
| + | |||
| + | ## qwen3.5: | ||
| + | |||
| + | total duration: | ||
| + | load duration: | ||
| + | prompt eval count: | ||
| + | prompt eval duration: 353.761042ms | ||
| + | prompt eval rate: 53.71 tokens/s | ||
| + | eval count: | ||
| + | eval duration: | ||
| + | eval rate: 13.42 tokens/s | ||
| + | |||
| + | |||
| + | ## gpt-oss:20b | ||
| + | |||
| + | total duration: | ||
| + | load duration: | ||
| + | prompt eval count: | ||
| + | prompt eval duration: 500.265375ms | ||
| + | prompt eval rate: | ||
| + | eval count: | ||
| + | eval duration: | ||
| + | eval rate: 26.45 tokens/s | ||
| - | vllm-mlx | ||