微信扫码
添加专属顾问
我要投稿
wechatbot-webhook 是一个轻量、可部署的微信机器人webhook服务,使用http接口收发微信消息, 用它作为个人通知、AIGC 应用或者 coze、n8n、Dify等自动化工作流的消息节点。
基于 http 请求,与hooks微信不同,因为基于web api,所以优势在于可以部署到arm架构等设备上。
1、开源地址:https://github.com/danni-cool/wechatbot-webhook
2、部署
# 拉取最新镜像
docker pull dannicool/docker-wechatbot-webhook
# # 启动容器并映射日志目录,日志按天维度生成,e.g: app.2024-08-029.log
docker run -d --name wxBotWebhook --restart unless-stopped -p 3001:3001 -v ~/wxBot_logs:/app/log -e ACCEPT_RECVD_MSG_MYSELF=true -e RECVD_MSG_API=http://119.91.148.69:3000/receive/ -e LOGIN_API_TOKEN=197653 dannicool/docker-wechatbot-webhook
ACCEPT_RECVD_MSG_MYSELF=true:机器人能接收自己发的消息。
RECVD_MSG_API=http://http://119.91.148.69:3000/receive:接收消息的 API 地址,实现处理接收消息的逻辑,如果你不想实现这个功能,可以不填,默认为空。
LOGIN_API_TOKEN=197653:自定义登录 API token,可以不填,默认自动生成一个。
使用 compose 部署 (可选)
wget -O docker-compose.yml https://cdn.jsdelivr.net/gh/danni-cool/wechatbot-webhook@main/docker-compose.yml && docker-compose down && docker-compose -p wx_bot_webhook up
3、登录
# -f 表示 "follow",即实时跟踪日志输出。
docker logs -f wxBotWebhook
# 启动容器时,使用 -d 选项将其置于后台运行。
docker run -d --name wxBotWebhook c7feffe5b169(image_name)
# 将日志输出重定向到文件
docker logs wxBotWebhook > /path/to/logfile.log 2>&1 &
# 查看日志
tail -f /path/to/logfile.log
这样,容器在后台运行,同时日志被写入指定文件,而不会实时打印到终端。
服务器端命令行扫码登录也可以浏览器访问:
http://119.91.148.69:3001/login?token=197653,扫码登录wx。
项目部署成功后,拿到发送消息的 API 地址:http://119.91.148.69:3001/webhook/msg/v2?token=197653。
def send_to_user(nick_name, data):
    """
    私聊
    :param nick_name: 昵称
    :param data: 消息内容
    :return:
    """
    # 请求头
    headers = {
        "Content-Type": "application/json",
    }
    data = create_request_data(nick_name, data)
    response = post_request_with_retries(url=BOT_URL, headers=headers, data=json.dumps(data))
    print(response.json())
    
# 单条消息
data = {
    "content": "爬虫与AI前沿"
}
# 同一个人发送多条消息
datas = [
    {
        "type": "text",
        "content": "你好?"
    },
    {
        "type": "fileUrl",
        "content": "https://static.cninfo.com.cn/finalpage/2024-08-29/1221034055.PDF"
    }
]
send_to_user(nick_name='摩诘', data=data)
send_to_user(nick_name='摩诘', data=datas)
def send_to_room(nick_name, data):
    """
    群聊
    :param nick_name: 群昵称
    :param data: 消息内容
    :return:
    """
    # 请求头
    headers = {
        "Content-Type": "application/json",
    }
    data = create_request_data(nick_name, data, is_room=True)
    response = post_request_with_retries(url=BOT_URL, headers=headers, data=data)
    print(response.json())
# 单条消息
data = {
    "content": "爬虫与AI前沿"
}
# 多条消息
datas = [
    {
        "type": "text",
        "content": "你好?"
    },
    {
        "type": "fileUrl",
        "content": "https://static.cninfo.com.cn/finalpage/2024-08-29/1221034055.PDF"
    }
]
send_to_room(nick_name='爬虫与AI前沿', data=data)
send_to_room(nick_name='爬虫与AI前沿', data=datas)
def send_to_url(nick_name, content):
    # 给 url 拼接 query 参数 $alias 可用于指定发送给目标的文件名
    # 请求头
    headers = {
        "Content-Type": "application/json",
    }
    data = {
        "to": nick_name,
        "data": {
            "type": "fileUrl",
            "content": content
        }
    }
    response = post_request_with_retries(url=BOT_URL, headers=headers, data=json.dumps(data))
    print(response.json())
# 发文件 url 同时支持修改成目标文件名
content = "https://download.samplelib.com/jpeg/sample-clouds-400x300.jpg?$alias=1234.jpg"
send_to_url(nick_name='摩诘', content=content)
def send_to_local_file(nick_name, file_name, is_room=False):
    """
    发送本地文件
    :param nick_name: 昵称
    :param file_name: 文件路径
    :param is_room: 是否是群聊
    :return:
    """
    data = create_request_data(to=nick_name, is_room=is_room)
    files = {'content': open(file_name, 'rb')}
    response = post_request_with_retries(url=BOT_URL_FILE, headers=None, data=data, files=files)
    print(response.json())
# 发送本地文件-私聊
file_path = '/Users/oscar/Downloads/dify.png'
send_to_local_file(nick_name='摩诘', file_name=file_path)
def send_to_rooms():
    """
    群发消息
    :return:
    """
    # 请求头
    headers = {
        "Content-Type": "application/json",
    }
    data = [
        {
            "to": "摩诘",
            "data": {
                "content": "你好?"
            }
        },
        {
            "to": "杨",
            "data": [
                {
                    "content": "你好?"
                },
                {
                    "content": "近况如何?测试群发机器人!"
                }
            ]
        }
    ]
    response = post_request_with_retries(url=BOT_URL, headers=headers, data=json.dumps(data))
    print(response.json())
返回值 response 结构:
{
    "success": true,
    "message": "Message sent successfully",
    "task": {
        "successCount": 3,
        "totalCount": 3,
        "failedCount": 0,
        "reject": [],
        "sentFailed": [],
        "notFound": []
    }
}
payload 结构
在最开始部署项目,启动命令里有一个参数
RECVD_MSG_API即:http://119.91.148.69:3000/receive/ ,这个参数就是用来接收消息的。
pip 安装 FastAPI在终端或命令提示符中运行以下命令:
pip install fastapi
FastAPI 是一个基于 ASGI 的框架,Uvicorn 是一个高性能的 ASGI 服务器,用于运行 FastAPI 应用。安装 Uvicorn 可以通过以下命令完成:
pip install uvicorn
python-multipart 是一个用于处理多部分表单数据(multipart/form-data)的库,通常在处理文件上传时使用。要安装 python-multipart,你可以使用以下 pip 命令:
pip install python-multipart
你可以使用以下代码创建一个简单的 FastAPI 应用,并将其保存为 main.py:
from fastapi import FastAPI
app = FastAPI()
@app.get("/")
def read_root():
    return {"Hello": "World"}
使用 Uvicorn 运行 FastAPI 应用,可以在终端中运行以下命令:
uvicorn server:app --reload
or
nohup python3 server.py > log.txt 2>&1 &
main 是你保存 FastAPI 应用的文件名(不包括 .py 后缀)。app 是 FastAPI 实例的名称。--reload 选项启用自动重载,以便在代码更改时自动重新启动服务器。打开浏览器,访问 http://127.0.0.1:3000。你应该能看到返回的 {"Hello": "World"}。
还可以访问自动生成的 API 文档,分别为:
http://127.0.0.1:3000/docshttp://127.0.0.1:3000/redoc1、创建一个名为server.py的文件
from fastapi import FastAPI, Form
from fastapi.responses import JSONResponse
import uvicorn
from loguru import logger
app = FastAPI()
# 配置 Loguru 日志
logger.add("logs/app.log", rotation="1 week", retention="1 month", level="INFO", format="{time} {level} {message}")
@app.post("/receive")
async def receive_message(
        type: str = Form(...),
        content: str = Form(...),
        source: str = Form(...),
        isMentioned: str = Form(...),
        isMsgFromSelf: str = Form(...),
):
    # 处理请求数据
    response_data = {
        "type": type,
        "content": content,
        "source": source,
        "isMentioned": isMentioned,
        "isMsgFromSelf": isMsgFromSelf,
    }
    try:
        # 填写处理逻辑-开始
        logger.info("Received data: {}", response_data)
        # 填写处理逻辑-结束
        return JSONResponse(content={"status": "success", "data": response_data})
    except Exception as e:
        logger.error("Error processing request: {}", e)
        return JSONResponse(content={"status": "error", "data": "处理失败"})
if __name__ == "__main__":
    uvicorn.run(app, host="0.0.0.0", port=3000)
比如接入 ChatGPT/文心一言 处理消息后进行回复。2 、启动服务器
# 创建虚拟环境
conda create -n wechatbot python=3.10
# 激活虚拟环境
conda activate wechatbot
# 克隆代码
git clone https://github.com/huanglaoxie0503/wechatbot.git
# 安装所需的库
pip install -r requirements.txt
# 启动
nohup python server.py > log.txt 2>&1 &
wechatbot服务已经部署好,接下来咱们考虑接入Dify自动化工作流的消息节点,打造智能的 AI 助理。
测试工作流,并发布为工具。创建一个Agent,把刚才创建的工作流添加到Agent中。
测试Agent,此处使用文心一言大模型。
完整代码:https://github.com/huanglaoxie0503/wechatbo
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-11-03
震惊,Github开源,真正让程序员效率提升 90%的AI辅助工具来啦!!!
2025-11-03
Dify迎来最强开源对手!这个本地Agent内置微调+超细权限控制~
2025-11-03
我们大胆做了个决定,大会所有音乐bgm由AI生成,这部分预算可以省了!|Jinqiu Scan
2025-11-03
LongCat-Flash-Omni 正式发布并开源:开启全模态实时交互时代
2025-11-03
科大讯飞“王炸”开源!企业级智能体平台 Astron Agent:原生集成 RPA,Apache 2.0 商业友好!
2025-11-03
DeepSeek-OCR到底厉害在哪?
2025-11-02
刚刚,OpenAI开源了两个大模型~
2025-11-01
零一万物联合开源中国推出OAK平台,目标打造Agent世界的“基础设施”
            2025-08-20
2025-09-07
2025-08-20
2025-08-26
2025-08-22
2025-09-06
2025-10-20
2025-08-22
2025-09-08
2025-08-12
2025-11-03
2025-10-29
2025-10-28
2025-10-13
2025-09-29
2025-09-17
2025-09-09
2025-09-08