当前位置: 首页 > news >正文

5分钟本地跑起大模型

Ollama 是什么?

一个让你在自家电脑上运行大模型的免费工具,相当于大模型的“安装管家”,帮你把复杂的 AI 模型一键下载到本地,不用联网也能用 。
运行本地大模型可以进行微调可以作为个人的知识库,比如模仿作家文风之类的,并且不需要apikey的花费,完全免费。

第一步:装Ollama(就两步)
  1. 打开官网ollama,根据电脑系统下载,比如Windows版。

  1. 双击安装,完事。(右下角会出现个小羊驼图标)
第二步:下载模型

现在ollama界面友好了很多,之前需要命令行输入,现在你只需在下拉中选择你想下载安装的大模型。要考虑你的显卡,比如3070左右的显卡可以玩玩8b的模型,3060左右的7b,如果你的显卡很差建议运行1.5b大小的模型。目前国产的模型绝大多数都被限制,比如敏感类的文字

第三步:开始聊天

下载完就可以在对话框中和本地大模型对话了,也可以使用cmd命令对话


如果你觉得CMD界面不好看
  • 下载一个叫Chatbox的软件。
  • 设置里选模型来源为Ollama
  • 点开就能用,界面和ChatGPT差不多。

总结

后续如果想通过接口调用模型使用ollama也很简单

嫌C盘空间不够:下载前,先点界面里的设置(Settings),把模型存储位置改到其他盘(比如D盘),省得C盘爆红。

喜欢敲命令的:老办法依然管用,按 Win+R 输入 cmd,敲 ollama run deepseek-r1 也一样跑起来。

http://www.jsqmd.com/news/500410/

相关文章:

  • 从“笔耕不辍”到“智绘蓝图”:书匠策AI如何重塑问卷设计新生态?
  • 服务器安装向量数据库-Docker版本
  • Claude AI编程实战 的32 个技巧,建议收藏
  • OpenClaw树莓派摄像头任务测试
  • [具身智能-21]:深度解析:ROS 2 (底层) + Android (上层) 双系统架构
  • 构建高效能团队:研发效能平台如何赋能企业创新?
  • 学习java第2天
  • 《防雷设计不止于“避雷针”:沃虎PoE++防护方案如何实现供电与数据的“双冗余安全”》
  • 关于Linux中的日志问题
  • 塔讯总线协议转换信捷 PLC 对接 TCP/IP 设备实战方案
  • 盘点2026年最靠谱的京东e卡回收渠道 - 团团收购物卡回收
  • 锂电池测试设备采集到本地数据库的解决方案
  • 2025-2026降AI率工具12家实测:学生党零成本最优解是它
  • AI外呼破局|成人教育降本关键,告别高转化成本
  • 千匠网络B2B软件开发:定制化赋能企业数字化交易闭环
  • 欧盟小额包裹监管趋严低客单模式如何调整才能不亏
  • AI辅助氢氧切割,助力工业企业零碳转型
  • LVGL9.5在VScode中安装模拟器
  • 【云原生】Helm应用商店
  • Avalonia的生命周期 之一
  • day55 代码随想录算法训练营 图论专题9
  • 软件质量概念、八大质量模型特征、影响质量的因素
  • LLM 节点调参-AI不再胡扯
  • QtCreator开发软件使用小技巧
  • CD147(分化簇147):作用机制、上市药物与未来研发趋势
  • JavaScript基础课程十三、ES6+ 核心语法(三)——数组与对象高级方法
  • 2025年年终总结之17.教育之文化的意义
  • LangChain4j AI Services 深度解析:声明式 API 与接口驱动开发
  • 企业私域运营全指南:从 0 到 10 万用户,可复制的全链路实操手册
  • 部署EasyVoice实现文字转语音