1. GitHub开源项目
Github上已经有很多大佬提供的把ChatGPT接入微信的开源项目,因此我们用不着自己造轮子,只需要选择一个合适的开源项目根据自己的需求部署一下就可以。
这些开源项目主要是用TypeScript、Go语言开发的,但因为我本人对python语言比较熟悉,因此选择了一个用python开发的项目,这样也方便学习源码嘛。
Github地址:github.com/zhayujie/ch…
2. 前期准备
(1) 获取openAI API key
首先你得有个OpenAI账号,注册方法网上有很多,这里不再赘述。有了账号之后前往API管理界面创建一个API key(注意创建完以后一定要复制key把它保存下来,一旦离开这个界面以后就再也无法查看key的值了)。
注意,OpenAI API调用是收费的。2023年3月25日前注册的账户有$18的免费额度,新注册的用户没有免费额度。另外,如果你的OpenAI账户没有绑定银行卡,那你的API调用会受到限制,具体来讲是1分钟内只能调用3次。这个限制挺烦的,建议还是绑一张卡。国内的银行卡用不了,可以去申请一张虚拟银行卡绑定上去。
至此,前期准备就完成了,接下来准备部署。
3. 准备部署环境
该项目支持Linux、MacOS、Windows系统(可在Linux服务器上长期运行),同时需要安装python环境。
建议Python版本在 3.7.1~3.9.X 之间,推荐3.8版本,3.10及以上版本在 MacOS 可用,其他系统上不确定能否正常运行。
这部分的详细教程可以在项目自述文件中找到。以下是我在腾讯云的云服务器上部署项目的过程:
(1) 配置代理
这一步没能过审,删去了。可以参考一下项目自述文件中的方法。
(2) 配置python环境
我是用Docker配置的python3.8环境。
- 拉取一个python3.8的Docker镜像,并基于刚刚拉取的镜像创建一个容器,命名为chatbot,然后进入该容器。
sudo docker pull python:3.8
sudo docker run -it --name chatbot python:3.8 bash
复制代码
以后可以使用以下命令进入容器
sudo docker exec -it chatbot bash
复制代码
- 克隆项目代码
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/
复制代码
- 安装核心依赖
能够使用itchat创建机器人,并具有文字交流功能所需的最小依赖集合
pip3 install -r requirements.txt
复制代码
执行该命令后会自动安装所需的各种依赖,静待安装完成即可。
4. 部署
(1) 修改配置文件
配置文件的模板在根目录的config-template.json
中,需复制该模板创建最终生效的 config.json
文件:
cp config-template.json config.json
复制代码
然后修改config.json
文件,按需求更改配置:
# config.json文件内容示例
{
"open_ai_api_key": "YOUR API KEY", # 填入上面创建的 OpenAI API KEY
"model": "gpt-3.5-turbo", # 模型名称。当use_azure_chatgpt为true时,其名称为Azure上model deployment名称
"proxy": "127.0.0.1:7890", # 代理客户端的ip和端口
"single_chat_prefix": ["bot", "@bot"], # 私聊时文本需要包含该前缀才能触发机器人回复
"single_chat_reply_prefix": "[bot] ", # 私聊时自动回复的前缀,用于区分真人
"group_chat_prefix": ["@bot"], # 群聊时包含该前缀则会触发机器人回复
"group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], # 开启自动回复的群名称列表
"group_chat_in_one_session": ["ChatGPT测试群"], # 支持会话上下文共享的群名称
"image_create_prefix": ["画", "看", "找"], # 开启图片回复的前缀
"conversation_max_tokens": 1000, # 支持上下文记忆的最多字符数
"speech_recognition": false, # 是否开启语音识别
"group_speech_recognition": false, # 是否开启群组语音识别
"use_azure_chatgpt": false, # 是否使用Azure ChatGPT service代替openai ChatGPT service. 当设置为true时需要设置 open_ai_api_base,如 https://xxx.openai.azure.com/
"character_desc": "你是ChatGPT, 一个由OpenAI训练的大型语言模型, 你旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。", # 人格描述,
}
复制代码
以下内容必须修改:
open_ai_api_key
:替换为你的key,注意用双引号包裹。proxy
:修改为"x.x.x.x:7890",这是之前启动的代理客户端监听的ip和端口。因为我是在服务器上用docker配置的python环境,所以x.x.x.x必须是服务器的公网ip,而不能是127.0.0.1。
另外,group_name_white_list
字段用于设置启用聊天机器人的群里,只有把群聊名称写到这个数组里才支持在这个群聊中与机器人对话。
详细的配置说明参见项目自述文件
(2) 运行程序
配置完成后,使用nohup命令在后台运行程序:
# 首次运行需要新建日志文件
touch nohup.out
# 在后台运行程序并通过日志输出二维码
nohup python3 app.py & tail -f nohup.out
复制代码
用微信小号(即充当机器人的微信号) 扫码登录后程序即可运行于服务器后台,此时可通过 ctrl+c
关闭日志,不会影响后台程序的运行。使用 ps -ef | grep app.py | grep -v grep
命令可查看运行于后台的进程,如果想要重新启动程序可以先 kill
掉对应的进程。日志关闭后如果想要再次打开只需输入 tail -f nohup.out
。此外,scripts
目录下有一键运行、关闭程序的脚本供使用。
多账号支持: 将项目复制多份,分别启动程序,用不同账号扫码登录即可实现同时运行。 特殊指令: 用户向机器人发送 #reset 即可清空该用户的上下文记忆。
登录后,手机登录微信小号,可以看到显示电脑已登录。
5. 效果展示
直接向充当机器人的微信号发送消息
在群里@机器人对话
6. 总结
至此,基于ChatGPT的微信聊天机器人部署完成。从此可以直接在微信中与ChatGPT对话。但是,目前的聊天机器人还具有一定局限性:
- 只启用了项目中的基础模块,没有包含语音识别等扩展模块。
- 由于接口调用费用原因,使用的是OpenAI的GPT-3.5-trubo模型,没有使用GPT-4。
- 还是接口调用费用问题,我的ChatGPT账号注册于3月25日之前,有$18的免费额度。但接口的调用毕竟是收费的,免费额度总有用完的那一天,到时候如果还想继续使用机器人就得氪金了。
- 接入微信的问题,使用中发现与机器人对话时微信会提示对方身份异常,存在封号风险。