貌似 DeepSeek 又挂掉了,不知道是用的人太多还是被攻击了。
聊一下开源大模型本地部署,供感兴趣的朋友参考。
最简单的方法就是 Ollama,客户端用 Cherry Studio。(都有官网,操作简单,没代码能力要求)
我的 MacBook 配置是 M4 Max + 128G,装了deepseek-r1:14b,llama3.3:70b,还有qwen2:72b。
后面这两 70b 级别的,基本上随便问个问题都会让风扇狂转,内存占用去到 70GB,14b 的r1 倒是用起来风平浪静。
貌似 DeepSeek 又挂掉了,不知道是用的人太多还是被攻击了。
聊一下开源大模型本地部署,供感兴趣的朋友参考。
最简单的方法就是 Ollama,客户端用 Cherry Studio。(都有官网,操作简单,没代码能力要求)
我的 MacBook 配置是 M4 Max + 128G,装了deepseek-r1:14b,llama3.3:70b,还有qwen2:72b。
后面这两 70b 级别的,基本上随便问个问题都会让风扇狂转,内存占用去到 70GB,14b 的r1 倒是用起来风平浪静。
作者最新文章
热门分类
汽车TOP
汽车最新文章