在本地跑大模型,个人认为目前最好的软件肯定是Ollama无疑了,
不管你是在PC上跑大模型,在Mac上跑大模型,还有在树莓派上跑大模型,
我们都可以用Ollama去跑各种大大小小的模型,而且它的扩展性非常强。
Ollama本地运行大模型
现在安装Ollama超级简单的,只需要进入Ollama官网下载安装包,然后安装即可。
https://ollama.com/download
如果自己不确定模型名称可以去官网查看模型
https://ollama.com/library
每款大模型都有不同版本,根据自己的机器来选择,根据官网的文档也说明了,一般
7B的模型至少需要8G的内存,
13B的模型至少需要16G内存,
70B的模型至少需要64G内存。
使用Web UI界面连接Ollama
ollama没有界面化的页面使用,它是在终端里交互的,所以我们要使用图形化的界面里去操作,这是我们可以使用Open WebUI。
Open WebUI是一个开源的Web UI界面,github地址
https://github.com/open-webui/open-webui
如果对知识库有更高的需求,可以使用AnythingLLM这个软件
https://github.com/Mintplex-Labs/anything-llm
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。
评论(0)