AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx

上传人:lao****ou 文档编号:214562 上传时间:2023-05-29 格式:DOCX 页数:6 大小:31.55KB
下载 相关 举报
AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx_第1页
第1页 / 共6页
AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx_第2页
第2页 / 共6页
AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx_第3页
第3页 / 共6页
AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx_第4页
第4页 / 共6页
AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx_第5页
第5页 / 共6页
亲,该文档总共6页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx》由会员分享,可在线阅读,更多相关《AI前沿专题009_AI和人分工的指导原则AI负责预测人负责判断.docx(6页珍藏版)》请在第一文库网上搜索。

1、AI前沿专题009_ AI和人分工的指导原则-AI负责预测人负责判断人到底有什么能力是不可被Al替代的?每个人都需要思考这个问题。三个加拿大经济 学家在权力与预测这本书中有一个洞见,我看有可能就是Al和人分工的指导原则。简单说,就是双方共同做出决策,其中Al负责预测,人负责判断。要说明这一点,我们先看一个真实的案例。网约车公司Uber一直在测试自动驾驶汽车。 2018年,Uber的自动驾驶汽车在亚利桑那州撞死了一个行人,引起了激烈的讨论。你仔细分析这个事故,会发现在撞击前6秒,AI已经看到了前方有一个未知物体。它 没有立即做出刹车的决定,因为它判断那个物体是人的概率非常低一一虽然那个概率并不

2、是OoAI有个判断阈值,只有在前方物体是人的概率超过一定数值的情况下,它才会刹车。 撞击前6秒,概率没有超过阈值;等到后来终于看清是人的时候,刹车已经晚了。我们把刹车决定分为预测(Prediction)和判断(judgement)两步。AI的预测 也许不够准,但是它已经预测出这个物体*可能*是一个人,它给出了不为0的概率一一接下 来的问题是出在了判断上。在这个概率上应不应该踩刹车,是这个判断导致了悲剧。Uber AI用的是阈值判断法,这可以理解,如果对前方任何一个是人的概率不为0的物 体,Al都选择刹车,它就会在路上不停地踩刹车,这车就没法开了。当然你可以说这个阈 值不合理,但是这里总是需要一

3、个判断。请注意,正因为现在有了 AL我们才可以做这样的分析。以前发生过那么多人类司机 撞人的事件,从来没有人去分析那个司机是犯了预测错误还是判断错误。但这种分析其实是 完全合理的,因为两种错误性质很不一样一一请问这位司机,你是根本没看见前方有人呢, 还是已经感觉到前方物体*有可能*是人,但是你感觉那个可能性并不是很大,又因为赶时间, 你觉得那么小的概率可以接受,就开过去了?你犯的到底是预测错误,还是判断错误?决策=预测+判断。预测,是告诉你发生各种结果的概率是多少:判断,是对于每一种结果,你在多大程度 上愿意接受。我们专栏前面讲蒂姆帕尔默的首要怀疑,其中专门讲过怎样根据预测的概率做决 策lo你

4、周末有个户外聚会,要不要为此租个帐篷防止下雨,这是你的决策。天气预报告 诉你那天下雨的概率是30%,这是预测。面对这样一个概率,下雨的损失是不是可以接受的, 这是你的判断。我们当时讲的是只要采取行动的代价(也就是帐篷的租金)小于损失(也就是下雨会给 你带来多大的麻烦)乘以概率,就*应该*采取行动,租个帐篷防止淋雨。但是在这一讲的视 角下,请注意,这个“应该”,应该理解成是对你的*建议*。是否采取行动的拍板权还是在你手里一一因为那个损失最终是由你来承受的。AI不会 承受损失,用公式给你提建议的人不会承受损失。英国女王也好、你岳母也好,在场来宾淋 雨这件事是大是小,不是Al所能知道的一一那其实是你

5、自己的主观判断。Al很擅长预测天气概率,但是判断一个天气状况带来的后果,需要更多的、具体的、也 许只有你自己才知道的信息,所以做判断的应该是你而不是AIoAI时代的决策二AI的预测+人的判断也就是说,我们应该让预测和判断脱钩。以前所有的决策都是人负责预测,人负责判断, 现在则应该是Al负责预测,人负责判断一一HumanHumanpredictionjudgment我们承认Al比人聪明,但是我们也知道真正承受风险、体验后果的是人而不是AI。预 测是客观的,判断是主观的。Al不能僭越人的判断,人也不应该专断Al的预测。Al与人各 安其位,分工明确。如何实施这个分工呢? 一个方法是人为给Al设定一个

6、自动判断门槛。比如自动驾驶汽车,我们可以规定,当Al预测前方物体是人的概率高于0. 01%或 者0.00001%也行,反正你得有个不为零的数值一一的时候就必须踩刹车。这个判断标准, 这条线,肯定不是Al自己规定的,而是人事先设定的。你把这条线编程到Al之中,但是下 达那条编程指令的必须得是人一一因为只有人能判断人命的价值:对Al来说,人命的价值 是无法用客观方法估算的。其实我们已经在用这种判断了。以前你到商店买东西用的是现金,那个现金是真钞还是 假钞,得由商店收银员自己预测、自己判断。现在你刷信用卡,那个信用卡是真卡还是假卡, 现在不是由收银员决策,而是由信用卡联网系统根据算法来预测和判断的。

7、算法会先评估这 张卡是假卡的概率有多大(预测),再看看那个概率是否高于某一条线(判断),决定是否拒 收。那条线不是任何Al算出来的,而是事先某个由人类组成的委员会划定的一一因为线划 得太低得罪客户的是人,线划得太高承担损失的也是人。未来我们会面对各种各样类似的事情,权力与预测这本书建议这样的判断最好由一 个像美国食品药品监督管理局(FDA)这样的机构来执行,就好像评估一种新药是否可以上 市一样。另一个方法是把判断量化成钱。你租了一辆车,要去一个比较远的地方,你有两条路线可选。第一条比较直,老老实实 开车就行,路上没什么风景。第二条会经过一个风景区,对你来说是一种享受,但是风景区 里有行人,会增

8、加出事故的概率。如果Al直接跟你说哪条路出事故的概率有多大,你可能 还是不好判断。更方便的做法是,AI告诉你,走风景区那条路,租车的保险费比走第一条路高1块钱。 这一块钱的保险费代表AI对两条路风险差异的预测。现在判断交给你。如果你认为风景对你的重要性超过1块钱,那你就走风景区;如果你 对风景没有那么高的兴趣,你就省下1块钱。你看,AI无需了解你,也不可能了解你一一是你在这一块钱和风景之间的选择,揭示 了你的偏好。在经济学上,这叫做显性偏好(ReVeaIed Preference):人的很多偏好本 来是说不清的,但是一跟钱挂钩就能说清了。预测跟判断脱钩,对人是一种赋能。以前如果你想去开出租车,

9、可不是会开车就行。首先你得学认路,你得知道这个城市中 从任意A点到任意B点的最短路线是什么一一用本讲的话说就是你得会预测一一才能开好 出租车。现在Al接管了预测路线的事儿,你只要会开车就可以去开网约车了。有了 AI,人会判断就会决策。但这并不是说决策很容易,因为判断有判断的学问。生活中更多的判断既不是由委员会划线也不是被量化成了钱,是必须由个人对具体情 况进行具体分析。这个结果对你来说到底有多好,或者到底有多坏,到底能不能承受,你怎 么判断呢?有的可能是你读书或者跟别人学的,比如你听说被烧红的烙铁烫会很疼,你会愿意以很 高的代价避免被烫。但是听说不如亲历。只有你真的被烫过,你才能知道有多疼。判

10、断,有 很大的主观成分。而判断这个能力正在变得越来越重要。美国的一个统计显示,1960年只有5%的工作需 要决策技能,到2015年已经有30%的工作需要决策技能,而且还都是高薪岗位。因为只有人知道有多疼,所以人不是机器。而判断力和随之而来的决策力,本质上是一 种权力一一Al没有权力。这就是权力与预测这本书书名的缘起。当AI接管了预测之后,决策权力在社会层面和公司组织层面的行使就成了一个新问题。有个例子。因为知道了铅对人体有害,从1986年开始,美国政府禁止新建筑物使用含 铅的饮用水管。可是很多旧建筑物的水管都含铅,这就有一个对旧水管的改造问题。但是改 造非常费钱费力,旧水管又不都含铅,你得先把

11、水管挖出来才知道是否含铅,那先挖谁家的 呢?2017年,密歇根大学的两个教授搞了一个AI,能以80%的准确率预测哪家的水管含铅。 密歇根州的弗林特市(Flint)使用了这个AI。一开始都挺好,市政府安排施工队根据Al的 预测给各个居民家换水管。工程这样进行了一段时间之后,有些居民不干了。他们质疑说,为什么我家邻居水管换 了,我家的却没换?特别有富裕居民区的人说,为什么先去换那些贫困地区的水管,难道不 是我们交的税更多吗?收到这么抱怨,弗林特市的市长就干脆决定不听Al的了,咱挨家挨户慢慢换。结果这 样一来,决策准确率一下子从80%降到了 15%又过了一段时间,是美国法院推出一个法 案,说换水管这

12、个决策必须先听Al的预测,决策准确性才又提高回来一一1%-1背带谷料招护武校校武武武 b #, $ ,& #, S 身 #, F这件事儿的道理是Al改变了决策权。没有Al的预测,因为只有政府能预测和判断谁家 水管应该先换,决策权是完全把持在政客手里;有了 AI,老百姓或者社区都可以自己判断, 尤其美国三权分立,司法系统也可以直接发话,政客就不好使了。决策权到底应该属于谁呢?从经济学角度来说,当然是谁决策对整个组织的效率最高, 就应该属于谁。以前预测和判断不分的时候,决策权往往应该交给一线人员,因为他们直接接触关键信 息,他们的预测最准确一一正所谓让听得见炮火的人指挥。现在Al接管了预测,人的决

13、策就是判断。这时候可以考虑,让那些个人利益跟公司利 益最相关的人决策,或者让受这个决策影响最大的人决策,或者让最能理解决策后果的人决 策这些都意味着组织的变革。变革还意味着以前的预测者,现在要转型为判断者,或者解释者。比如以前天气预报机构的职责是提高预测的准确度,现在有了 Al,他们的主要职责就 不是预测天气了一一也许变成了向公众和政府机构解释预测结果。AI说下周有5%的可能性 会发生龙卷风,政府官员不懂这5%代表多大损失,也许你这个气象学家能给解释一下。未 来的气象台可能更多地是提供人性化服务,比如建议老百姓明天怎么制定出行计划,而不仅 仅是预报一个下雪概率。再比如,以前放射科医生的最主要任务是看图预测病情。现在Al看图的能力已经超过 了人类,那放射科就得琢磨别的服务,也许是向病人解释病情,也许放射科就不应该继续存 在我们这个Al专题前面讲过,把决策权交给Al会让人很难受。Al再厉害,我们也不愿 意把它奉为神灵一一Al最好老老实实扮演助手或者祭司的角色,拍板权还是应该在人的手 里。权力与预测这本书提供了一个解决方案,那就是Al只负责预测,让人掌握判断。 在我看来这个分工非常合理,希望这一讲能给带给你些许安慰。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 汇报材料

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服