标签搜索

本地部署LLM大语言模型

zyb
zyb
2024-04-19 / 0 评论 / 34 阅读 / 正在检测是否收录...

本地部署LLM大语言模型

LLM

大型语言模型(LLM,Large Language Model)是基于深度学习的一种算法,它使用海量的文本数据来进行训练,可以执行多种自然语言处理(NLP)任务。这些模型通常包含数十亿到数万亿的参数,使得它们能够学习语言的复杂模式并生成人类可读的文本。LLM的核心技术包括Transformer架构和自注意力机制,使模型能够理解文本中的单词和短语之间的关系。这些模型能够执行的任务包括但不限于文本生成、文本分类、问答、对话、翻译、摘要等

在线免费大语言模型

需要英伟达显卡,cude核心越多显存越大效果越好

没有显卡的小伙伴也不要紧,这里推荐几个开源免费的大语言模型

安装ollama

ollama是一个开源框架,简化了大模型部署步骤,现在已经支持各系统部署

https://ollama.com/ 下载地址,选择自己要部署的系统进行安装,安装完成以后进终端测试是否安装成功 ollama -v

下载模型

以llama3模型举例

ollama list 可以查看当前安装的的所有模型

默认只有本机可以访问,如果openwebUI配置在其他ip需要手动修改环境变量

  • win

    • OLLAMA_ORIGINS=*
    • OLLAMA_HOST=0.0.0.0

    • 如果访问不到,检查防火墙和端口
  • linux

    • OLLAMA_HOSR=0.0.0.0 ollama serve

升级ollama mac和win可以直接在任务栏更新,linux需要使用更新脚本进行更新

curl -fsSL https://ollama.com/install.sh | sh

win版本默认存储在c盘 C:\Users\<username>\.ollama\models`,可以设置环境变量,设置OLLAMA_MODELS为所选目录

其他问题可以详看官方文档 https://github.com/ollama/ollama/blob/main/docs/faq.md#how-do-i-configure-ollama-server

安装openwebUI

https://github.com/open-webui/open-webui 项目地址

openwebUI 是一个开源的可视化web应用,几乎就是为ollama量身定制的,安装之前需要先部署Docker,这里就不详细讲解docker的安装了 ,可以自行百度

  • docker 安装命令
//修改 ollama请求地址   ip:端口号 ollama默认端口号是11434

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

下载的很慢,需要等一会 安装完成以后 docker ps 查看容器是否在运行

访问端使用 doker服务部署地址:3000 端口进行访问web界面

第一次会让你先注册,这个随便填就行

检查地址是否正常,测试连接

5

评论 (0)

取消