admin管理员组文章数量:1567254
LobeChat是什么
LobeChat
是开源的高性能聊天机器人框架,支持语音合成、多模态、可扩展的(Function Call)插件系统。支持一键免费部署私人ChatGPT/LLM
网页应用程序。
地址:github/lobehub/lob…
为什么要用LobeChat
有些朋友会问,这些功能大部分都可以用chatGPT plus实现,为什么还要费劲安装 LobeChat
,我觉得有以下几点需求的朋友可以用到 LobeChat
:
- 有时需要在不开代理的情况下访问
ChatGPT
; - 有些场景下语音输入很便利,可以体验到
ChatGPT
安卓版的便利; - 只有一个账号的情况下想共享给朋友使用,并且要保证用户的隐私安全。
- 不仅体验
OpenAI
,有时需要切换其他大模型厂商; - 能自定义域名并个性化使用。
LobeChat的特性
GPT
视觉认知:LobeChat
支持GPT-4-vision
的视觉识别,实现多模态对话,用户可上传图片进行智能对话。- 语音互动: 支持文本转语音和语音转文本,多种声音选择,提升交流体验。
- 文生图功能: 结合最新
AI
技术,用户可将文本直接转换为图片。 - 插件系统: 扩展
ChatGPT
功能,包括实时信息获取、新闻、文档检索等。 - 助手市场: 提供多种助手,支持工作和学习,促进社区协作。
- 渐进式Web应用: 提供类似原生应用的体验,优化移动和桌面使用。
- 移动适配: 优化移动体验,欢迎用户反馈以改进版本。
- 自定义主题: 提供多种主题和颜色选择,满足个性化需求。
准备工作
需要以下准备工作提前做好,具体操作可以参考文章最后的参考文献。
- 一台服务器:使用
docker
部署服务时需要,使用Vercel
时不需要。 OpenAI API Key
:调用ChatGPT
提供的API
时需要使用。API
代理:要调用OpenAI API
,无法访问外网时需要代理服务,Vercel
部署时不需要。
安装体验
LobeChat
提供了 Vercel
的 自托管版本 和 Docker 镜像,这使你可以在几分钟内构建自己的聊天机器人,无需任何基础知识。
使用 Vercel
安装
白嫖 Vercel
的服务器资源,还不需要代理服务,推荐优先使用,不过个人版有限额,但够用了。
1、Fork 仓库
Fork
这个 https://github/lobehub/lobe-chat
仓库,为了保持和原仓库同步更新,建议执启动 Upstream Sync Action
,启用之后可以设置每小时进行一次自动更新。
2、注册 vercel 账户
Vercel
是一个自动化的Web
应用部署、预览和上线平台,结合了Github Page
和Github Action
的功能。它支持应用模板,帮助开发人员快速搭建和上线应用,同时支持Github
项目导入和联动。Vercel
专注于项目的部署和静态托管,提供Serverless Function
,但不涉及持续集成测试等其他CI/CD
流水线任务。此外,Vercel
支持零配置部署到全球边缘网络,提高访问速度,自动处理CDN
和HTTPS
配置,且可以部署多种环境,如生产环境和预览环境。用户可以通过Vercel
平台全自动部署个人网站,只需修改仓库中的代码并推送至Github
,Vercel
便会自动触发重新部署流程。
地址:vercel/
3、新建项目
可以通过这个Deploy链接直接创建项目,参数都准备好了,也可以按照下面步骤一步步创建。
新建项目:
选择自己git仓库中的项目,搜不到的话需要授权访问该项目:
设置环境变量:
环境变量 | 类型 | 描述 | 示例 |
---|---|---|---|
OPENAI_API_KEY | 必选 | 这是你在 OpenAI 账户页面申请的 API 密钥 | sk-xxxxxx...xxxxxx |
OPENAI_PROXY_URL | 可选 | 如果你手动配置了 OpenAI 接口代理,可以使用此配置项来覆盖默认的 OpenAI API 请求基础 URL | https://api.chatanywhere 或 https://aihubmix/v1 默认值: https://api.openai/v1 |
ACCESS_CODE | 可选 | 添加访问此服务的密码,你可以设置一个长密码以防被爆破,该值用逗号分隔时为密码数组 | awCTe)re_r74 or rtrt_ewee3@09! or code1,code2,code3 |
CUSTOM_MODELS | 可选 | 用来控制模型列表,使用 + 增加一个模型,使用 - 来隐藏一个模型,使用 模型名=展示名 来自定义模型的展示名,用英文逗号隔开。 | qwen-7b-chat,+glm-6b,-gpt-3.5-turbo |
部署过程需要静静等待几分钟。。。
部署成功之后,可以配置域名,也可以进一步设置:
4、访问lobe-chat项目
点击中间图标进入,出现如下界面:
需要输入设置的访问密码 ACCESS_TOKEN
才能访问,也可以配置社交账号单点登录访问:
可以切换 ChatGPT
版本或者其他厂商的模型:
设置->默认助手->模型
手机访问,适配也是没问题的:
5、自定义域名
如下步骤可以设置自定义域名:
需要到域名解析服务商添加以下内容:
使用docker安装
Docker
部署也很简单,使用以下命令即可使用一键启动 LobeChat
服务:
bash
复制代码
$ docker pull lobehub/lobe-chat
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e ACCESS_CODE=lobe66 \
--name lobe-chat \
lobehub/lobe-chat
如果你需要通过代理使用 OpenAI
服务,你可以使用 OPENAI_PROXY_URL
环境变量来配置代理地址:
bash
复制代码
$ docker run -d -p 3210:3210 \
-e OPENAI_API_KEY=sk-xxxx \
-e OPENAI_PROXY_URL=https://api-proxy/v1 \
-e ACCESS_CODE=lobe66 \
--name lobe-chat \
lobehub/lobe-chat
总结
LobeChat
是一个功能强大、易于部署和使用的聊天机器人框架,为用户提供了一个创新的交互和沟通工具,可配置 OpenAI
、Azure OpenAI
、智普 AI
等多种模型 API
。配合租赁 OpenAI API Key
即可享受 ChatGPT plus
相关功能,适用于需要部署和使用聊天机器人的个人和企业,特别是那些寻求高性能、多功能和可定制化聊天机器人解决方案的用户。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
😝有需要的小伙伴,可以点击下方链接免费领取或者V扫描下方二维码免费领取🆓
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
😝有需要的小伙伴,可以Vx扫描下方二维码免费领取==🆓
版权声明:本文标题:体验LobeChat搭建私人ChatGPT 内容由热心网友自发贡献,该文观点仅代表作者本人, 转载请联系作者并注明出处:https://www.elefans.com/dianzi/1725314340a1018882.html, 本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。
发表评论