关于工作、阅读和技术的博客

进击的代码 2024-10-21 06:34:43

在《不负责任的机制》(The Unaccountability Machine)一书中,丹·戴维斯(Dan Davies)提出,组织会形成“责任沉没”结构,这些结构通过吸收或掩盖决策的后果,使得没有人能为之承担直接责任。举个例子:某家酒店公司的高层决定减少清洁人员的数量,因为这能改善某个地方的财务报表。随后,当你试图入住时,房间却还没准备好,前台职员无法告诉你何时能入住,他们只能提供一张代金券,但你需要的是一个房间。你找不到人投诉,也无法向那个远在天边的决策者反馈他们搞砸了你的计划。责任就这样被吞噬在虚无中,永远消失。

戴维斯提出:

要让责任沉没发挥作用,必须打破某个环节;必须阻止受决策影响的人反馈给系统,从而影响系统的运作。

戴维斯,《不负责任的机制》,第 17 页

一旦你开始留意这些责任沉没现象,你会发现它们无处不在。比如当你的医疗保险拒绝支付某个手术费用;当航空公司取消了你的航班;当政府机构宣布你不符合某项福利资格;当投资者要求所有公司在应用程序中加入所谓的人工智能功能。到处都是这些断裂的链条,决策的影响者和决策者之间的联系被切断。

当然,前提是有人确实做了决策。责任沉没的另一种机制则是决策本身的级联效应——决策随着层层传递,最后失去了其原始的逻辑。戴维斯举了《多米尼恩系统诉福克斯新闻》(Dominion Systems vs Fox News)的案例,福克斯新闻不断传播关于选举的虚假新闻。在福克斯内部,似乎没有人明确决定要撒谎关于投票机的事情;相反,大家都有一种默契,觉得无论如何都得保住观众的收视率。某个时刻,或许有人宣布(或者强烈暗示)观众数据是唯一重要的,接下来的每个决定都顺理成章地从这个前提出发。但谁能为一项未曾真正做出的决策负责呢?

此时,我们有必要停下来思考一下“负责”到底是什么意思。戴维斯认为:

责任的基本法则是:你能够改变决策的程度,正是你能够为之负责的程度,反之亦然。

戴维斯,《不负责任的机制》,第 17 页

这个观点很有用。我经常回顾西德尼·德克尔(Sidney Dekker)对责任的定义,他认为责任是你要讲述的东西。某件事情是如何发生的?促成它发生的条件是什么?当时是什么使得那个决策看起来像是个好主意?在这个决策或事件中有哪些人参与?(几乎从来不可能只有一个人参与。)所有这些问题及更多问题,都是理解一项决策如何发生的必要前提,而这也是学习如何在未来做出更好决策的基础。

如果你将这两个框架结合起来,你可能会得出结论:要对某件事负责,你必须既有权改变它,又要明白你在行使权力时想要实现什么目标。你既需要权力,也需要权力行使背后的故事。

与人工智能的比较显而易见,因为将决策委托给算法是构建责任沉没的一种便捷方式。但无论是公司、政府,还是那些游走在二者之间的组织,早已擅长于形成这种沉没结构。人工智能提供的“责任清洗”并不是一种新服务,而是一种升级和扩展版。这并不意味着它就不那么令人畏惧,但也许能提供一些有用的线索。任何曾试图追责失败的努力,不太可能在面对一个算法时取得更大成功。我们需要一套全新的策略。

0 阅读:0

进击的代码

简介:程序员,分享生活、工作、技术、学习。