차이
문서의 선택한 두 판 사이의 차이를 보여줍니다.
| 양쪽 이전 판이전 판다음 판 | 이전 판 | ||
| tech:openclaw [2026/02/16 21:30] – [cron] 192.168.0.1 | tech:openclaw [2026/03/11 03:51] (현재) – [models] 115.93.88.195 | ||
|---|---|---|---|
| 줄 2: | 줄 2: | ||
| ====== Openclaw====== | ====== Openclaw====== | ||
| - | |||
| OpenClaw는 LLM(거대 언어 모델)을 기반으로, | OpenClaw는 LLM(거대 언어 모델)을 기반으로, | ||
| 줄 9: | 줄 8: | ||
| * https:// | * https:// | ||
| + | [[qwen3.5]] | ||
| + | |||
| + | llama.cpp 옵션에 -ngl 99 --n-cpu-moe 24 -> 24는 16gb vram 기준이니 8gb는 적당히 조절하면서 최적값 찾아봐. MoE 모델이라 활성화 파라미터만 vram에 올리면 충분히 실사용 가능한 속도 나옴. | ||
| + | |||
| + | |||
| + | .\llama-cli.exe | ||
| =====주요 특징 및 능력===== | =====주요 특징 및 능력===== | ||
| 줄 36: | 줄 41: | ||
| [[https:// | [[https:// | ||
| + | ====삭제==== | ||
| + | |||
| + | openclaw uninstall --all --yes --non-interactive | ||
| =====대화창===== | =====대화창===== | ||
| 줄 78: | 줄 86: | ||
| | 🌐 웹 검색 및 브라우징| Brave / Tavily | Brave는 일반 검색에 적합하고, | | 🌐 웹 검색 및 브라우징| Brave / Tavily | Brave는 일반 검색에 적합하고, | ||
| | 이메일 | Nylas 이 서비스는 무료 || | | 이메일 | Nylas 이 서비스는 무료 || | ||
| + | |||
| + | |||
| + | * Groq – Fastest, 1K req/day on Llama 3.3 70B, great for bots | ||
| + | * • Mistral – 1 billion tokens/ | ||
| + | * • OpenRouter – 50 req/day (used to be 200), good for testing multiple models | ||
| + | * • Gemini Flash – Best for long documents (1M context window) | ||
| + | |||
| + | |||
| ====memory.md 예==== | ====memory.md 예==== | ||
| 줄 110: | 줄 126: | ||
| </ | </ | ||
| + | ====qmd==== | ||
| - | =====Heartbeat.md 예제===== | + | https:// |
| + | 를 사용해서 장기 기억을 인덱싱하고 검색함. | ||
| + | |||
| + | openclaw memory status | ||
| + | ====cron/ | ||
| + | |||
| + | 작동하는 cron 예제. | ||
| + | <file json jobs.json> | ||
| + | { | ||
| + | " | ||
| + | " | ||
| + | { | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | }, | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | }, | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | }, | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | " | ||
| + | } | ||
| + | } | ||
| + | ] | ||
| + | } | ||
| + | |||
| + | |||
| + | |||
| + | </ | ||
| + | |||
| + | ====Heartbeat.md 예제==== | ||
| < | < | ||
| 줄 433: | 줄 501: | ||
| } | } | ||
| </ | </ | ||
| + | =====models===== | ||
| + | |||
| + | M4 실리콘의 경우 | ||
| + | mlx 모델을 사용하는 것이 낫다고 함. [[ollama]]보다는 편의성이 떨어짐. | ||
| + | 모델이 플래시 어텐션을 켜고 작동하면 GGUF가 MLX보다 약간 더 빠르다는 주장도 있다. | ||
| + | |||
| + | [[https:// | ||
| + | [[https:// | ||
| + | |||
| + | 메인모델은 똑똑하고 빨라야 하기 때문에 구글 젬민, 쳇지피티, | ||
| + | 자주 작동하는 Heartbeat나 각종 긴 시간이 걸리는 작업을 처리하는 서브에이전트는 로컬 모델을 사용하는 것을 추천한다. | ||
| + | |||
| + | |||
| + | |||
| + | |||
| + | |||
| + | " | ||
| + | |||
| + | |||
| + | |||
| + | ### 요약 | ||
| + | 결국 한반도는 **" | ||
| + | 의 상황 변화가 지역적 전쟁이나 경제 파장을 초래할 수 있으므로 항상 감시하고 있는 지정학적 " | ||
| + | |||
| + | |||
| + | |||
| + | ## qwen3.5:4b | ||
| + | |||
| + | |||
| + | total duration: | ||
| + | load duration: | ||
| + | prompt eval count: | ||
| + | prompt eval duration: 214.916625ms | ||
| + | prompt eval rate: 88.41 tokens/s | ||
| + | eval count: | ||
| + | eval duration: | ||
| + | eval rate: 18.98 tokens/s | ||
| + | |||
| + | |||
| + | ## qwen3.5:9b | ||
| + | |||
| + | total duration: | ||
| + | load duration: | ||
| + | prompt eval count: | ||
| + | prompt eval duration: 353.761042ms | ||
| + | prompt eval rate: 53.71 tokens/s | ||
| + | eval count: | ||
| + | eval duration: | ||
| + | eval rate: 13.42 tokens/s | ||
| + | |||
| + | |||
| + | ## gpt-oss: | ||
| + | |||
| + | total duration: | ||
| + | load duration: | ||
| + | prompt eval count: | ||
| + | prompt eval duration: 500.265375ms | ||
| + | prompt eval rate: | ||
| + | eval count: | ||
| + | eval duration: | ||
| + | eval rate: 26.45 tokens/s | ||
| + | |||
| + | |||