如今,打造一个言行举止酷似真人的 AI 聊天机器人并非难事。可一旦被 “克隆” 的对象并未同意,这种行为究竟算不算错?
AI 完全可以模仿真人,这项技术早已成熟,其伦理边界在多数场景下本应清晰。但随着应用不断翻新,越来越多的情况正在让伦理判断变得模糊。

光明面:自愿使用,效率倍增
企业 CEO、政治人物可以主动用 AI 工具为自己打造数字分身,包含聊天机器人与虚拟形象,代自己与人互动。
硅谷对此尤为热衷。Meta 创始人扎克伯格、LinkedIn 联合创始人里德・霍夫曼都在打造或已拥有自己的数字孪生体。
政坛也有不少案例,巴基斯坦前总理伊姆兰・汗在狱中通过授权语音克隆开展竞选活动;纽约市长埃里克・亚当斯用 AI 克隆语音拨打自动电话,用普通话、意第绪语等多语种与选民沟通。
这类应用通常合乎伦理,前提是互动方明确知道自己面对的是 AI 克隆体,而非真人。
阴暗面:未经许可,诈骗丛生
AI 克隆的另一面,是大量未经许可、违背伦理的滥用。
2019 年,骗子用 AI 模仿某集团高管的声音与德国口音,诱骗英国一家能源公司 CEO 转账 22 万欧元。
2023 年,美国亚利桑那州一位母亲遭勒索,犯罪分子用 AI 克隆其 15 岁女儿的声音索要 100 万美元赎金。
2024 年,香港一名跨国企业财务人员在视频会议中被深度伪造的 CFO 与多位同事欺骗,转账 2500 万美元。
其他恶意用途还包括把名人面孔换到色情视频上。这些行为的是非曲直一目了然,全都属于严重错误。
灰色地带:职场克隆、前任复刻,伦理边界模糊
随着 AI 克隆在中国快速兴起,相关伦理争议变得更加复杂。
· 职场克隆:悄悄复制同事与上司
一种新趋势是,员工用专用软件打造上司或同事的数字替身。最受关注的项目是 “同事技能”(Colleague Skill),由上海一位 24 岁工程师周天翼在 3 月底发布。
这款开源工具支持上传聊天记录、邮件、内部文档,生成模仿特定同事专业能力与沟通风格的数字人格,底层用到 Claude、Kimi、ChatGPT、DeepSeek API、OCR、情感分析等技术。
它不是通用 AI,而是给大模型套上 “专属面具”,让 AI 以特定人的知识与语气对话。
该项目最初只是讽刺 AI 引发的裁员潮,但后来被不少员工认真使用,用途包括:留存机构知识;随时模拟讨论方案;克隆上司,预判其对工作的反应。
据报道,这些职场克隆绝大多数都未获得本人同意。
· 更私人的争议:复刻前任,数字 “复活”
开发者随后又推出衍生项目“前任技能”(Ex-Partner Skill),用 AI 重建前任伴侣,让用户继续 “交往”。
用户上传照片、社交动态、聊天记录,AI 就能模仿对方的语气、口头禅、细微表达,甚至记得共同去过的地方。有人把它当作数字亡灵,用来缅怀逝去的亲人。
在监管压力下,该项目的公开仓库已被下架或清理,但核心框架仍在私下传播,并被用于 “数字复活”。
支持者认为这有疗愈作用,属于私人行为,不构成骚扰、跟踪或侵权;反对者则指出,未经许可的克隆本身就是伦理缺陷。单方面对着一个虚拟形象倾诉,并非真正的沟通。
海外也出现类似趋势:尽管 Character.AI 已在条款中禁止未经许可克隆私人身份,仍有用户用它打造前任聊天机器人。
结语
未经同意克隆同事、上司、前任伴侣,正在冲击我们固有的是非观念。这不仅是新的伦理难题,更是 AI 时代向全社会提出的一道必答题:我们该如何界定、约束、引导这项强大又危险的技术?