众所周知,openclaw是token吞金兽。虽然现在gpt调用几乎是免费的,但是可能也有些朋友使用其他api渠道或者没有自己的号池在使用各家中转站。如果没办法正确的调通缓存触发,会让token的使用成本超超超级加倍!关乎钱包的问题必须马上折腾明白。 今天更新了3.23-1和3.23-2版本之后,发现缓存触发果然出问题了,解决思路如下: 修复前: 修复后: 适用场景: 你用的是 ope...
Qwen3 模型原生支持 32,768 个 token 的上下文长度。对于超出此限制的长文本,官方推荐使用 YaRN (Yet another RoPE-based Neural network scaling) 扩展技术。YaRN 是一种基于旋转位置编码(RoPE)的扩展方法,已验证可将上下文长度扩展至 131,072 个 token,并被 transformers、llama.cpp、v...