发现和使用优秀的技能扩展
将OpenClaw内存搜索配置为使用Ollama作为嵌入服务器(兼容OpenAI的/v1/embeddings接口),而非内置的node-llama-cpp本地GGUF加载方式。这包括交互式模型选择,以及将现有本地嵌入GGUF可选导入Ollama的功能。
Configure OpenClaw memory search to use Ollama as the embeddings server (OpenAI-compatible /v1/embeddings) instead of the built-in node-llama-cpp local GGUF loading. Includes interactive model selection and optional import of an existing local embedding GGUF into Ollama.