will的ai伦理漫谈
想象一个这样的城市:路灯自动感知人流,垃圾桶在满之前就发出警报,犯罪热点被算法实时标注。听起来很高效。
但是,白俄罗斯裔技术批评家Evgeny Morozov在著作《只需点击,即可拯救一切》(To Save Everything, Click Here)里问了一个更尖锐的问题:
这座城市,解决的究竟是什么问题?
莫罗佐夫把这种把社会问题重新包装成技术谜题的思维方式称为解决方案主义(solutionism)。
它的逻辑链条是:问题可以被定义、被量化、被优化。但并非所有的摩擦都是低效率。民主审议需要分歧,道德成长需要犯错,司法判决需要人类判断那些说不清楚的细腻权衡。当算法接手这些领域,我们消除的不只是不便,而是这些制度本身存在意义的那一部分。
这与古德哈特定律(Goodhart's Law)有着结构上的相似:一旦某个指标变成目标,它就不再是好指标了。放到AI治理的语境里,这个逻辑同样适用。
今天的负责任AI工具箱——偏见审计、可解释性要求、伦理检查清单——提供了问责的形式,却可能悄悄绕过了真正的政治问题:谁控制AI,谁定义问题,谁承担代价。莫罗佐夫的批评提醒我们,技术修补从来不是结构追问的替代品。
