搭建属于自己的基于ChatGPT的微信聊天机器人(方法)

1. GitHub开源项目

Github上已经有很多大佬提供的把ChatGPT接入微信的开源项目,因此我们用不着自己造轮子,只需要选择一个合适的开源项目根据自己的需求部署一下就可以。

图1 在Github搜索ChatGPT wechat

这些开源项目主要是用TypeScript、Go语言开发的,但因为我本人对python语言比较熟悉,因此选择了一个用python开发的项目,这样也方便学习源码嘛。

图2 chatgpt-on-wechat开源项目截图

Github地址:github.com/zhayujie/ch…

2. 前期准备

(1) 获取openAI API key

首先你得有个OpenAI账号,注册方法网上有很多,这里不再赘述。有了账号之后前往API管理界面创建一个API key(注意创建完以后一定要复制key把它保存下来,一旦离开这个界面以后就再也无法查看key的值了)。

图3 创建OpenAI API key

注意,OpenAI API调用是收费的。2023年3月25日前注册的账户有$18的免费额度,新注册的用户没有免费额度。另外,如果你的OpenAI账户没有绑定银行卡,那你的API调用会受到限制,具体来讲是1分钟内只能调用3次。这个限制挺烦的,建议还是绑一张卡。国内的银行卡用不了,可以去申请一张虚拟银行卡绑定上去。

至此,前期准备就完成了,接下来准备部署。

3. 准备部署环境

该项目支持Linux、MacOS、Windows系统(可在Linux服务器上长期运行),同时需要安装python环境。

建议Python版本在 3.7.1~3.9.X 之间,推荐3.8版本,3.10及以上版本在 MacOS 可用,其他系统上不确定能否正常运行。

这部分的详细教程可以在项目自述文件中找到。以下是我在腾讯云的云服务器上部署项目的过程:

(1) 配置代理

这一步没能过审,删去了。可以参考一下项目自述文件中的方法。

(2) 配置python环境

我是用Docker配置的python3.8环境。

  1. 拉取一个python3.8的Docker镜像,并基于刚刚拉取的镜像创建一个容器,命名为chatbot,然后进入该容器。
sudo docker pull python:3.8
sudo docker run -it --name chatbot python:3.8 bash
复制代码

图4 容器截图

以后可以使用以下命令进入容器

sudo docker exec -it chatbot bash
复制代码

  1. 克隆项目代码
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/
复制代码

图5 克隆项目代码并进入项目文件夹


  1. 安装核心依赖

能够使用itchat创建机器人,并具有文字交流功能所需的最小依赖集合

pip3 install -r requirements.txt
复制代码

执行该命令后会自动安装所需的各种依赖,静待安装完成即可。


图6 安装依赖


4. 部署

(1) 修改配置文件

配置文件的模板在根目录的config-template.json中,需复制该模板创建最终生效的 config.json 文件:

cp config-template.json config.json
复制代码

然后修改config.json文件,按需求更改配置:

# config.json文件内容示例
{
  "open_ai_api_key": "YOUR API KEY",                          # 填入上面创建的 OpenAI API KEY
  "model": "gpt-3.5-turbo",                                   # 模型名称。当use_azure_chatgpt为true时,其名称为Azure上model deployment名称
  "proxy": "127.0.0.1:7890",                                  # 代理客户端的ip和端口
  "single_chat_prefix": ["bot", "@bot"],                      # 私聊时文本需要包含该前缀才能触发机器人回复
  "single_chat_reply_prefix": "[bot] ",                       # 私聊时自动回复的前缀,用于区分真人
  "group_chat_prefix": ["@bot"],                              # 群聊时包含该前缀则会触发机器人回复
  "group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], # 开启自动回复的群名称列表
  "group_chat_in_one_session": ["ChatGPT测试群"],              # 支持会话上下文共享的群名称  
  "image_create_prefix": ["画", "看", "找"],                   # 开启图片回复的前缀
  "conversation_max_tokens": 1000,                            # 支持上下文记忆的最多字符数
  "speech_recognition": false,                                # 是否开启语音识别
  "group_speech_recognition": false,                          # 是否开启群组语音识别
  "use_azure_chatgpt": false,                                 # 是否使用Azure ChatGPT service代替openai ChatGPT service. 当设置为true时需要设置 open_ai_api_base,如 https://xxx.openai.azure.com/
  "character_desc": "你是ChatGPT, 一个由OpenAI训练的大型语言模型, 你旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。",  # 人格描述,
}
复制代码

以下内容必须修改:

  • open_ai_api_key:替换为你的key,注意用双引号包裹。
  • proxy:修改为"x.x.x.x:7890",这是之前启动的代理客户端监听的ip和端口。因为我是在服务器上用docker配置的python环境,所以x.x.x.x必须是服务器的公网ip,而不能是127.0.0.1。

另外,group_name_white_list字段用于设置启用聊天机器人的群里,只有把群聊名称写到这个数组里才支持在这个群聊中与机器人对话。

详细的配置说明参见项目自述文件

(2) 运行程序

配置完成后,使用nohup命令在后台运行程序:

# 首次运行需要新建日志文件  
touch nohup.out        

# 在后台运行程序并通过日志输出二维码
nohup python3 app.py & tail -f nohup.out          
复制代码

微信小号(即充当机器人的微信号) 扫码登录后程序即可运行于服务器后台,此时可通过 ctrl+c 关闭日志,不会影响后台程序的运行。使用 ps -ef | grep app.py | grep -v grep 命令可查看运行于后台的进程,如果想要重新启动程序可以先 kill 掉对应的进程。日志关闭后如果想要再次打开只需输入 tail -f nohup.out。此外,scripts 目录下有一键运行、关闭程序的脚本供使用。

多账号支持: 将项目复制多份,分别启动程序,用不同账号扫码登录即可实现同时运行。 特殊指令: 用户向机器人发送 #reset 即可清空该用户的上下文记忆。

登录后,手机登录微信小号,可以看到显示电脑已登录。

图8 手机微信截图


5. 效果展示

直接向充当机器人的微信号发送消息

图9 直接与机器人对话


在群里@机器人对话

图10 群聊中艾特机器人


6. 总结

至此,基于ChatGPT的微信聊天机器人部署完成。从此可以直接在微信中与ChatGPT对话。但是,目前的聊天机器人还具有一定局限性:

  1. 只启用了项目中的基础模块,没有包含语音识别等扩展模块。
  2. 由于接口调用费用原因,使用的是OpenAI的GPT-3.5-trubo模型,没有使用GPT-4。
  3. 还是接口调用费用问题,我的ChatGPT账号注册于3月25日之前,有$18的免费额度。但接口的调用毕竟是收费的,免费额度总有用完的那一天,到时候如果还想继续使用机器人就得氪金了。
  4. 接入微信的问题,使用中发现与机器人对话时微信会提示对方身份异常,存在封号风险。

猜你喜欢

转载自juejin.im/post/7223339726140096570