will的ai伦理漫谈
2006年,一组密码学家提出了一个听起来像悖论的问题:能否在分析一组数据的同时,让任何人都无法从结果中判断某个具体的人是否在这组数据里?
辛西娅·德沃克(Cynthia Dwork)等人给出的答案是:可以,但有代价。他们的方法叫做差分隐私(Differential Privacy)——核心思路是在查询结果上加入精心校准的随机噪声,噪声大小与查询的敏感度成比例。无论攻击者事先掌握多少背景信息,他从输出中能额外获得的关于任何个人的信息,都被限制在一个严格的数学边界内。
这篇发表于TCC 2006的论文,后来成为苹果、谷歌和美国人口普查局部署隐私保护系统的理论基础。
不过这个框架有一个关键盲点:它精确告诉你在选定隐私参数ε之后如何加噪声,却对应该选什么ε完全沉默。ε是0.1还是10,是政策决定,不是数学决定。今天各大平台部署的ε值差异高达数百倍,没有任何监管标准。
更深的张力在于:经差分隐私训练的AI模型,往往在少数群体上精度损失最大——恰恰是最需要隐私保护的人,也在承担最高的保护代价。数学工具本身是精密的,但谁来决定怎么用、用多少,依然是一个尚未被认真回答的政治问题。
