当前位置: 首页 > news >正文

ollama 支持VRAM 自动适配了

ollama 支持VRAM 自动适配了

ollama 从0.15.5 开始支持VRAM 自动适应了,但是也是因为此参数可能会造成部分模型运行有问题,因为过大的上下文会造成模型可能启动有问题,比如我在测试glm-ocr 模式的时候

解决方法

可以通过自定义模型配置上下文参数,临时规避此问题,当然chat api 也支持动态参数,简单的方法是自定义一个省事

参考配置

FROM glm-ocr
PARAMETER num_ctx 32768

说明

以上是在运行中的一些实践,大家可以解决实际调整

参考资料

https://github.com/ollama/ollama/releases