有太多经验的国际象棋新手也可以击败它这当......《噪声》摘录

管理类 日期 2023-01-17
有太多经验的国际象棋新手也可以击败它。这当然也很重要:乘客能够获胜,会很愉快。

接下来,我们一起来看一下美国某些州所采用的刑事量刑政策,即“三振出局”(three strikes ad you’re out)。意思就是,如果一个人犯下了三重重罪,那么他一定会被判终身监禁。这一政策减少了由于随机分配法官所导致的变异性。这项政策的一些拥护者主要是担心水平噪声的影响,以及某些法官可能对惯犯太过仁慈。消除噪声正是“三振出局”立法的核心。

然而,即使“三振出局”政策成功降低了噪声,我们也可以提出合理的反对意见——这一成功背后的代价过高。有些犯下三重重罪的人不应该被判终身监禁:也许他们不是暴力犯罪,也许是他们悲惨的生活处境迫使他们犯罪,也许他们能够改过自新。许多人认为,无视特定情境的终身监禁不仅过于苛刻,还异常死板,因此,持反对意见的人认为采用“三振出局”政策来减少噪声的成本太高。

以“伍德森诉北卡罗来纳州案”为例。在该案件中,美国最高法院裁定,强制性死刑有违美国宪法,不是因为死刑太残忍,而是因为法律就是这样规定的。强制判处死刑纯粹是为了确保判决免受噪声干扰。也就是说,在某些特定情境中,杀人犯必须被处死。美国最高法院说,“刑罚个别化”之所以有存在的必要性,是因为“不考虑罪犯的过往经历和生活习惯,就对同一法律范畴内的每项罪行都处以相同的惩罚,这样的观念已经不再盛行了”。美国最高法院还认为,强制性判处死刑存在一个严重的制度性缺陷:它“没有将被定罪的人视为独特的个体,而是将其视为无差别的群体中的一员,从而盲目地判处有太多经验的国际象棋新手也可以击败它。这当然也很重要:乘客能够获胜,会很愉快。

接下来,我们一起来看一下美国某些州所采用的刑事量刑政策,即“三振出局”(three strikes ad you’re out)。意思就是,如果一个人犯下了三重重罪,那么他一定会被判终身监禁。这一政策减少了由于随机分配法官所导致的变异性。这项政策的一些拥护者主要是担心水平噪声的影响,以及某些法官可能对惯犯太过仁慈。消除噪声正是“三振出局”立法的核心。

然而,即使“三振出局”政策成功降低了噪声,我们也可以提出合理的反对意见——这一成功背后的代价过高。有些犯下三重重罪的人不应该被判终身监禁:也许他们不是暴力犯罪,也许是他们悲惨的生活处境迫使他们犯罪,也许他们能够改过自新。许多人认为,无视特定情境的终身监禁不仅过于苛刻,还异常死板,因此,持反对意见的人认为采用“三振出局”政策来减少噪声的成本太高。

以“伍德森诉北卡罗来纳州案”为例。在该案件中,美国最高法院裁定,强制性死刑有违美国宪法,不是因为死刑太残忍,而是因为法律就是这样规定的。强制判处死刑纯粹是为了确保判决免受噪声干扰。也就是说,在某些特定情境中,杀人犯必须被处死。美国最高法院说,“刑罚个别化”之所以有存在的必要性,是因为“不考虑罪犯的过往经历和生活习惯,就对同一法律范畴内的每项罪行都处以相同的惩罚,这样的观念已经不再盛行了”。美国最高法院还认为,强制性判处死刑存在一个严重的制度性缺陷:它“没有将被定罪的人视为独特的个体,而是将其视为无差别的群体中的一员,从而盲目地判处了死刑”。

当然,死刑涉及的风险极高,关于司法的分析可以应用于许多其他情境,尽管这些情境大多数与法律无关。评估学生的老师、评估患者的医生、评估雇员的雇主、确定保费的核估员、评估运动员的教练,如果这些人都采用过分刻板的减少噪声的规则,他们很可能会犯错。比如,如果雇主使用简单的规则来评估员工,对其做出提拔或解雇的决定,这些规则可能确实消除了噪声,却忽略了员工绩效的一些重要的考核内容。一个不能考虑各种重要因素、不存在噪声的系统做出的判断可能比依赖个体做出的有噪声的判断更糟糕。

在第27章,我们将以“每个人都是独特的个体,而不是毫无差别的群体中的一员”这一观点为例,来说明以上问题。目前,我们先重点探讨一个相对有些乏味的内容。一些减少噪声的策略会导致太多的错误,就像上文提到的愚蠢的国际象棋游戏程序。

尽管如此,这种反对意见似乎比实际更具说服力。如果一种减少噪声的策略容易导致错误,那么我们要做的不应该是轻易向高噪声水平妥协,而是尝试找到更好的减少噪声的策略。例如,我们可以采用汇总判断的方法,而不是采用愚蠢的法则,或者,我们可以制定明智的而不是愚蠢的指南或规则。从减少噪声的角度,一所大学应只录取考试分数最高的一批人。如果这一规则看起来过于简化,那么学校可以创造一个公式来综合考量高考成绩、在校成绩、年龄、运动表现、家庭背景等。复杂的规则可能更准确,因为它整合了所有的相关因素。同理,医生可以采用复杂的规则对某些疾病进行诊断。专业人士使用的指南和规则并不总是简单或粗糙的,其中一些有助于减少噪声,且了死刑”。

当然,死刑涉及的风险极高,关于司法的分析可以应用于许多其他情境,尽管这些情境大多数与法律无关。评估学生的老师、评估患者的医生、评估雇员的雇主、确定保费的核估员、评估运动员的教练,如果这些人都采用过分刻板的减少噪声的规则,他们很可能会犯错。比如,如果雇主使用简单的规则来评估员工,对其做出提拔或解雇的决定,这些规则可能确实消除了噪声,却忽略了员工绩效的一些重要的考核内容。一个不能考虑各种重要因素、不存在噪声的系统做出的判断可能比依赖个体做出的有噪声的判断更糟糕。

在第27章,我们将以“每个人都是独特的个体,而不是毫无差别的群体中的一员”这一观点为例,来说明以上问题。目前,我们先重点探讨一个相对有些乏味的内容。一些减少噪声的策略会导致太多的错误,就像上文提到的愚蠢的国际象棋游戏程序。

尽管如此,这种反对意见似乎比实际更具说服力。如果一种减少噪声的策略容易导致错误,那么我们要做的不应该是轻易向高噪声水平妥协,而是尝试找到更好的减少噪声的策略。例如,我们可以采用汇总判断的方法,而不是采用愚蠢的法则,或者,我们可以制定明智的而不是愚蠢的指南或规则。从减少噪声的角度,一所大学应只录取考试分数最高的一批人。如果这一规则看起来过于简化,那么学校可以创造一个公式来综合考量高考成绩、在校成绩、年龄、运动表现、家庭背景等。复杂的规则可能更准确,因为它整合了所有的相关因素。同理,医生可以采用复杂的规则对某些疾病进行诊断。专业人士使用的指南和规则并不总是简单或粗糙的,其中一些有助于减少噪声,且不至于产生让人难以忍受的高昂代价(或偏差)。如果指南或规则行不通,也许我们可以引入其他适用于特定情境的决策卫生策略,比如汇总判断,或是像中介评估法那样的结构化的流程。

算法无噪声,但会导致偏差

人们通常在算法的背景下讨论减少噪声的潜在高额成本,因此人们越来越反对有偏差的算法。我们已经看到,算法消除了噪声,因此看起来很有吸引力。事实上,本书的大部分内容都可以算作支持使用算法的证据,因为算法没有噪声。但是,如果使用算法会增加种族或性别歧视,抑或不利于弱势群体,那么减少噪声将得不偿失。

人们普遍担心算法会导致歧视——这无疑是一个很严重的风险。数学家凯茜·奥尼尔(Cathy O’Neil)在《算法霸权》(Weapos of Math Destructio)一书中主张:依靠大数据和借助算法来做决策可能会产生偏见、加剧不平等,甚至威胁民主本身。另一种质疑的声音表示:“存在潜在偏差的数学模型正在重塑我们的生活,而负责开发它们的公司和政府都无意去解决这一问题。”独立新闻调查机构ProPublica称,“替代性制裁的惩罚性罪犯管理分析”(Correctioal Offeder Maagemet Profilig for Alterative Sactios)这种广泛用于对惯犯进行风险评估的算法,对少数族裔成员有强烈的偏见。

没有人会怀疑,我们有可能甚至很容易创建出一种无噪声但带有种族主义、性别歧视或其他偏差的算法。如果一种算法直接根据被告不至于产生让人难以忍受的高昂代价(或偏差)。如果指南或规则行不通,也许我们可以引入其他适用于特定情境的决策卫生策略,比如汇总判断,或是像中介评估法那样的结构化的流程。

算法无噪声,但会导致偏差

人们通常在算法的背景下讨论减少噪声的潜在高额成本,因此人们越来越反对有偏差的算法。我们已经看到,算法消除了噪声,因此看起来很有吸引力。事实上,本书的大部分内容都可以算作支持使用算法的证据,因为算法没有噪声。但是,如果使用算法会增加种族或性别歧视,抑或不利于弱势群体,那么减少噪声将得不偿失。

人们普遍担心算法会导致歧视——这无疑是一个很严重的风险。数学家凯茜·奥尼尔(Cathy O’Neil)在《算法霸权》(Weapos of Math Destructio)一书中主张:依靠大数据和借助算法来做决策可能会产生偏见、加剧不平等,甚至威胁民主本身。另一种质疑的声音表示:“存在潜在偏差的数学模型正在重塑我们的生活,而负责开发它们的公司和政府都无意去解决这一问题。”独立新闻调查机构ProPublica称,“替代性制裁的惩罚性罪犯管理分析”(Correctioal Offeder Maagemet Profilig for Alterative Sactios)这种广泛用于对惯犯进行风险评估的算法,对少数族裔成员有强烈的偏见。

没有人会怀疑,我们有可能甚至很容易创建出一种无噪声但带有种族主义、性别歧视或其他偏差的算法。如果一种算法直接根据被告的肤色决定是否准许他获得保释,那么其中就存在歧视,这在许多国家是不合法的。将求职者是否可能怀孕纳入算法,则是在歧视女性。在这些案例以及其他案例中,算法能够消除判断中不必要的变异,但也会引发令人难以接受的偏差。

原则上,我们应该能够设计出一种不考虑种族或性别的算法,实际上这也完全可以做到。但有一个更具挑战性且备受关注的问题,那就是即使一个算法并不直接使用性别或种族作为预测因素,也可能会产生歧视,进而导致偏差。

我们说过,算法存在偏差有两个主要原因。首先,无论我们是否有意设计,算法都可能使用与种族或性别高度相关的预测因素。例如,身高和体重与性别相关,人们成长和居住的地区与种族相关。

其次,不同的数据来源可能导致歧视。如果一个算法是基于存在偏差的数据集训练所得,那么它就会产生偏差。例如,用来预测犯罪的“预测性警务”算法,其目的是改善警力的配置。如果现有的犯罪数据反映了某些区域的警力过度部署,或对某些类型犯罪的报案量相对较高,那么由此产生的算法将加剧这种歧视或使其永久化。只要原有的训练数据有偏差,就有可能有意或无意地设计出一种存在歧视的算法。因此,即使算法没有直接考虑种族或性别,它也可能像人类一样存在偏差。事实上,就这一点而言,算法可能更糟:由于消除了噪声,它们可能比人类的判断包含更稳定的偏差。

对于许多人来说,要考虑的一个关键的现实因素是:一种算法是否会对相同的群体产生不同的影响。究竟如何测试这种不同的影响,的肤色决定是否准许他获得保释,那么其中就存在歧视,这在许多国家是不合法的。将求职者是否可能怀孕纳入算法,则是在歧视女性。在这些案例以及其他案例中,算法能够消除判断中不必要的变异,但也会引发令人难以接受的偏差。

原则上,我们应该能够设计出一种不考虑种族或性别的算法,实际上这也完全可以做到。但有一个更具挑战性且备受关注的问题,那就是即使一个算法并不直接使用性别或种族作为预测因素,也可能会产生歧视,进而导致偏差。

我们说过,算法存在偏差有两个主要原因。首先,无论我们是否有意设计,算法都可能使用与种族或性别高度相关的预测因素。例如,身高和体重与性别相关,人们成长和居住的地区与种族相关。

其次,不同的数据来源可能导致歧视。如果一个算法是基于存在偏差的数据集训练所得,那么它就会产生偏差。例如,用来预测犯罪的“预测性警务”算法,其目的是改善警力的配置。如果现有的犯罪数据反映了某些区域的警力过度部署,或对某些类型犯罪的报案量相对较高,那么由此产生的算法将加剧这种歧视或使其永久化。只要原有的训练数据有偏差,就有可能有意或无意地设计出一种存在歧视的算法。因此,即使算法没有直接考虑种族或性别,它也可能像人类一样存在偏差。事实上,就这一点而言,算法可能更糟:由于消除了噪声,它们可能比人类的判断包含更稳定的偏差。

对于许多人来说,要考虑的一个关键的现实因素是:一种算法是否会对相同的群体产生不同的影响。究竟如何测试这种不同的影响,以及如何确定算法中的歧视、偏差或公平性具体包含哪些因素,这些都是异常复杂难解的问题,也超出了本书的范围。

然而,我们之所以提出这个问题,是因为相对于人类判断,算法还是具有独特的优势的。对于新手而言,我们建议仔细对算法进行评估,以确保其中没有输入不被法律许可的变量,并检测是否存在令人反感的歧视。要让人类个体接受同样的审查非常困难,因为他们的判断往往是不透明的。人们有时会无意中以一种外部观察者(包括法律制度)无法轻易看穿的方式表现出歧视。因此,在某些方面,算法比人类更透明。

毫无疑问,我们需要关注无噪声但有偏差的算法的成本,就像我们需要考虑无噪声但有偏差的规则的成本一样。关键问题是,我们是否可以设计一种在多种重要指标上的表现都优于真实世界中的人类判断的算法,它更准确、噪声更少、没有歧视、非常公正。大量证据表明,在人类选出的多个判定标准组合方面,算法的表现都可以比人类更好。请注意,我们说的是可以,而不是一定。例如,正如第10章所述,在保释决策方面,算法可能比人类法官更准确,也更少产生种族歧视。同样,简历筛选算法可以比人类简历筛选者挑选出更好以及更多样化的人才。

基于这些例子和更多其他的例子,我们可以自然而然地得出一个结论:在充满不确定性的世界中,尽管预测性算法不太可能做到完美,但与通常充满噪声和偏差的人类判断相比,算法远没有那么不完美。算法的优势在于有效性(好的算法几乎总是可以做出更好的预测)和更少的歧视(好的算法比人类判断的偏差更小)。如果算法比人类专以及如何确定算法中的歧视、偏差或公平性具体包含哪些因素,这些都是异常复杂难解的问题,也超出了本书的范围。

然而,我们之所以提出这个问题,是因为相对于人类判断,算法还是具有独特的优势的。对于新手而言,我们建议仔细对算法进行评估,以确保其中没有输入不被法律许可的变量,并检测是否存在令人反感的歧视。要让人类个体接受同样的审查非常困难,因为他们的判断往往是不透明的。人们有时会无意中以一种外部观察者(包括法律制度)无法轻易看穿的方式表现出歧视。因此,在某些方面,算法比人类更透明。

毫无疑问,我们需要关注无噪声但有偏差的算法的成本,就像我们需要考虑无噪声但有偏差的规则的成本一样。关键问题是,我们是否可以设计一种在多种重要指标上的表现都优于真实世界中的人类判断的算法,它更准确、噪声更少、没有歧视、非常公正。大量证据表明,在人类选出的多个判定标准组合方面,算法的表现都可以比人类更好。请注意,我们说的是可以,而不是一定。例如,正如第10章所述,在保释决策方面,算法可能比人类法官更准确,也更少产生种族歧视。同样,简历筛选算法可以比人类简历筛选者挑选出更好以及更多样化的人才。

基于这些例子和更多其他的例子,我们可以自然而然地得出一个结论:在充满不确定性的世界中,尽管预测性算法不太可能做到完美,但与通常充满噪声和偏差的人类判断相比,算法远没有那么不完美。算法的优势在于有效性(好的算法几乎总是可以做出更好的预测)和更少的歧视(好的算法比人类判断的偏差更小)。如果算法比人类专

声明:部分内容来自互联网,如侵权请联系删除!
友情:思诺速记

相关推荐

管理类 / 日期:2024-03-11
理解那个东西,但是我已经发现,他的信息距离和我越来越近了。因为他不再看《舟山晚报》,我也不再看《新民晚报》了,我们看的都是腾讯新闻App,看新闻头条,他也看我的朋友圈。所以信息高速一旦被打通了,一、二线和三、四线城市之间的认知壁垒也逐渐被打破了。要掌握70%~80%的都市消费,其实就是掌握两亿中产阶层。像分众这样的公司,之所以能够覆盖78%有家庭汽车的、80
管理类 / 日期:2024-03-11
实现资产最大限度的增值。一些合伙人可以通过“股权转让”等资产重组方式退出。二、退出如何结算当合伙人退出公司后,其所持的股权应该按照一定的形式退出。一方面对于继续在公司里做事的其他合伙人更公平;另一方面也便于公司的持续稳定发展。而合伙人退出之后,如何结算也是一个问题。一般采用三种方法:估值法、参考相关法律、另外约定。估值法,即当合伙人中途退出,退出时公司可以按
管理类 / 日期:2023-01-17
九、生产厂厂长绩效合约九、生产厂厂长绩效合约十、财务部总监绩效合约十、财务部总监绩效合约十一、财务部副总监绩效合约十一、财务部副总监绩效合约【工具6-05】某企业营销部各岗位绩效责任协议书一、营销总监岗位绩效责任协议书1.目的为明确工作目标、工作责任,公司与营销总监签订本目标责任书,以确保工作目标按期完成。2.责任期限____年__月__日~____年__月
管理类 / 日期:2023-01-17
在美国的购物商场中,我们发现女性(约占购物人数的50%)贡献了70%的营业额。因此,增加那30%的男性消费的一个方法就是,开设专门为男性设计的商场。虽然二八分析的第二个应用有时候是很有效的,也能提高那些“表现不佳”的工厂的生产力,但是通常情况下,第一个用途会更轻松,回报也更多。 不要以线性方式运用二八分析在讨论二八分析的用途时,我们还有必要简单谈谈

推荐列表

热门标签