很早以前就对人工智能兴趣十足,早期还开发了一个系统,但因计算量和工作量太大而终止了。最近deepseek火遍全球,也重新燃气心中对人工智能的理想。
碍于手头的笔记本电脑只有16g内存,4g显存,所以过去一个月里一直只部署了1.5b、7b、8b和14b,也没想试更大的模型。
但这几天感觉这些小模型的准确性越来越无法满足我对人工智能期望,因此准备先立足现有条件,尝尝32b和70b的鲜。
方法很简单,就是把系统的虚拟内存设置到足够大,32b启动就需要20g,加上其他软件的需求,最好设置到35g以上;70b启动至少需43g,因此最好设置到64g以上。
这样设置后,运行肯定没有问题,但速度确实奇慢,70b跑两小时才回答了90多个汉子,完全无法忍受。下面是这次尝鲜的成果,分享给大家,不妨一试。
我用的方案是deepseek-r1+ollama+anythingLLM+chatbox。可以方便实现本地知识库的部署。
没有回复内容