WeClone从聊天记录创造数字分身的一站式解决方案

WeClone是一款从聊天记录创造数字分身的一站式解决方案。它基于微信、QQ、Telegram等聊天记录,使用大模型微调技术,让你的AI分身不仅拥有你的语气和表达风格,还能与你的社交平台无缝对接,让它成为你的另一种存在。
通过WeClone,你可以:
• 用自己的聊天记录训练AI,让它更符合你的表达习惯。 • 绑定至多个社交平台,实现数字分身的实际应用。 • 采用隐私信息过滤和本地化微调部署,确保数据安全。
核心功能特点
1. 个性化微调:利用微信等聊天记录对LLM(大语言模型)进行微调,让AI拥有你的独特表达方式。 2. 多平台绑定:支持微信、QQ、Telegram、企微、飞书等平台,让你的数字分身随时随地与你的社交圈互动。 3. 隐私保护:提供数据过滤功能,自动去除敏感信息,并允许用户自定义禁用词库,确保数据安全。 4. 轻量级部署:采用LoRA等优化微调方式,降低显存占用,使得普通设备也能运行训练。 5. 智能数据预处理:自动去除手机号、身份证号、网址等隐私信息,并支持清洗聊天数据,提高训练质量。
如何快速开始?
1. 环境搭建
• 安装CUDA(版本12.4及以上),确保PyTorch可以正确使用显卡加速。 • 使用uv进行依赖安装,这是一个快速的Python环境管理工具: git clone https://github.com/xming521/WeClone.git cd WeClone uv venv .venv --python=3.10 source .venv/bin/activate # Windows执行 .venv\Scripts\activate uv pip install --group main -e .
• 如需使用最新的LLaMA Factory模型,请执行: uv pip install --upgrade git+https://github.com/hiyouga/LLaMA-Factory.git
2. 数据准备
• 使用PyWxDump导出微信聊天记录(建议从手机备份至电脑,数据量更完整)。 • 选择CSV格式导出后,放入dataset/csv目录。
3. 数据预处理
• 运行以下命令对数据进行清洗和格式调整: weclone-cli make-dataset
4. 微调模型
• 根据数据集调整settings.jsonc配置,并使用: weclone-cli train-sft
• 如果是多卡训练,需安装deepspeed并执行: deepspeed --num_gpus=使用显卡数量 weclone/train/train_sft.py
5. 使用AI分身
• 可使用以下命令进行聊天测试: weclone-cli webchat-demo weclone-cli server
• 绑定至AstrBot,实现AI分身在微信、QQ等平台的自动回复。
结语
WeClone让打造一个独具个性的数字分身成为可能,让AI真正融入你的社交世界。无论是个人应用还是实验探索,WeClone都能提供一套完整的解决方案,让你的AI更有“人味”。试试吧,让你的数字分身真正成为你的另一种存在!
[广告]赞助链接:
关注数据与安全,洞悉企业级服务市场:https://www.ijiandao.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

随时掌握互联网精彩
- 谷歌浏览器开始停止支持MV2扩展程序 目前可通过实验性选项恢复使用
- 远程控制工具ToDesk继续缩减免费用户配额 每月连接时长缩减至80小时
- 框框大学:来自各种大学学长学姐们的忠告
- PG Back Web2.0,轻松备份 PostgreSQL!
- CertD SSL证书一站式管理工具
- Moniker如何PUSH域名?
- 高通推出由AI赋能的视频会议解决方案,支持更出色、更具沉浸感的虚拟会议和协作,加速未来办公方式变革
- 华人女婿小野三太成密西根大学首位亚裔校长,年薪超650万!
- 5G NR Release 17中的五大关键技术发明
- 套皮OBS?曝TikTok新品违反开源协议!
- 春节大爆料:男女“云约会”骗钱、与滴滴大数据斗智、拉票信息致孩子被拐……
- 看雪精华集21 新鲜出炉!1229篇干货文章助你功力倍增!