通过ollama本地部署了deepseepr1:14B的模型,尝试问了下北京即

李布滑 2025-02-08 16:32:46

通过ollama本地部署了deepseep r1:14B的模型,尝试问了下北京即将迎来的天气状况,

可以通过图1(本地部署)和图2(网页服务器)答案对比,现阶段能力最强的还是网页端,毕竟服务器上的才是满血完全体,联网资料多,回答更清晰更有逻辑。

只不过本地部署胜在稳定,以及你自己可以调教出性格,做一些好玩的东西。

以后买电脑,显存和运行内存都逐渐变成更加值得优先考虑的选项了。

0 阅读:0
李布滑

李布滑

感谢大家的关注