下载APP | 繁體版 | 发布广告 |常用工具
打印 上一主题 下一主题

“砖家叫兽”们为什么常常“不靠谱”?

[复制链接]
匿名
跳转到指定楼层
楼主
匿名  发表于 2018-12-6 14:43 回帖奖励 |正序浏览 |阅读模式

“砖家叫兽”们为什么常常“不靠谱”?





  原创 人神共奋的职场心理

  科学决策系列第九篇:我活得好好的,为什么要听专家的?

  1/5、为什么专家变“砖家”

  几年前,媒体曝出过“把工业明胶当食用明胶添加”的事件。一个电视谈话节目中,一位食品专家嘉宾信誓旦旦说,工业明胶绝对不可能做出果冻的品相。可当场有记者放出亲身暗访的镜头,地下工场用工业明胶做出外形以假乱真的果冻来。

  应该是这位专家的经验落后于科技发展了,但他的表现很有趣:虽然睁大了眼睛,但始终面带微笑,嘴里说“不可能的,这个不可能的”。

  2008年金融危机时,美国有个麦道夫的“庞氏骗局”被揭穿,手段其实很老套,募集新投资者的钱来偿还老投资者,但涉案金额巨大,而且受骗者都是各界名人,其中居然有一位专家中的专家——美联储前主席、大名鼎鼎的格林斯潘。

  专家也会在自己熟悉的领域犯错,这一点大家都能理解。但网络时代的专家名声真的是江河日下,变成了“砖家”和“叫兽”,远远超过了“名人效应”所能解释的范畴。

  为什么这些“砖家”常常让人觉得很不靠谱呢?到底是专家本身的问题,还是普通人自己的问题?

  

  2/5、到底是谁不靠谱?

  有一次在网上看到视频,某地因液化气泄露造成失火,但奇怪的是,消防队的高压水龙头虽然开着,却全部浇在大火周围,根本不像是在灭火。于是下面就有网友大骂消防队不专业,水龙头都压不准。

  其实这才是专业方法,气体泄露失火在没有找到泄露点前,必须要留着火头,把气体消耗光了,水龙头浇在起火点周围是为了降温防止爆炸。

  网络时代的一个特点是有大量现场的照片和视频,信息透明看起来是好事,但问题是,普通人生活中大多靠直觉判断——直觉的好处是速度快,消耗大脑资源比较少,用来对付日常工作生活琐事绰绰有余,可一旦遇上了非专业领域,跟我们想象的不一样,跟影视剧里不一样,就很容易出现“直觉性偏差”。

  而专家在自己的领域内,用的是基于逻辑的科学分析,绕过了吃瓜群众的直觉判断盲区,反而让普通人误解“专家不靠谱”。

  比如有一个统计,生活条件越好的地方,癌症患者的比例反而越大。这个数据难免让普通人觉得是在胡说八道,但在专家看来却很好理解,与癌症最相关的因素不是生活质量,而是年龄,超过50岁,得病率直线上升,而生活质量高地方必然人均寿命长。

  在专业领域内产生错觉的另一个原因,很多专业领域内的数字是有欺骗性的,偏偏大部分普通人都不擅长数学,或者懒得算一下。

  很多人去做一种叫“低剂量螺旋CT”的早期肺癌筛查,因为这种检测特异性和灵敏度都是99%,也就是说,有病的人99%会被查出来,而没病的人99%也会被排除。听起来很不错吧?

  可是,医学博士、科普作家“菠萝”在他的《癌症真相:医生也在读》一书中认为,就算这个数据是真的,普通人也没必要做,除非是几十年的老烟枪这种高风险人群。

  让我们来跟“菠萝”一起做个简单的算术题:

  假设10万个人做测试,有多少人会被查出有问题?

  第一部分,有病查出有病的人数:假设肺癌得病率为千分之一,那么10万人实际上是有100人生病的,99%的被查出,就是查出99个人。

  第二部分,没病查出有病的人数:剩下的99900个实际上没病的人,因为1%的误诊,就是999个人误诊出癌症。

  最后,求出误诊率:被检出999+99=1098个有问题的人中,其实有999个人是误诊,被误诊的概率高达91%.。

  而实际上,很多医生都认为这个筛查的特异性和灵敏度只有90%,那么误诊率就高达98.3%!再考虑到这种检查的高辐射对人体的影响,非高风险人群做检测是得不偿失的。

  假如你是其中的一个,虚惊一场后,你一定会大骂“砖家”不靠谱,但真正不靠谱的是你的数学水平,还有玩数字游戏的推销员。

  

  3/5、专家忽视了人性的弱点

  不过,在上面的案例中,你可能会想,没有癌症诊断出癌症还好啦,重点是——有癌症的人,99%都能诊断出来。

  这正是专家和普通人看法分歧的第二个原因,专家站在第三者的角度分析,忽视了人性的弱点,反而给人一种站着说话不腰疼的感觉,而普通人如果有切身利益关系,感受就完全不同。

  假如你午饭去吃20元的套餐,一个同事告诉你,他有一张满40减20元的优惠券,20元刚好买两份,但他有个条件——他只想付1块钱!

  从理性的角度分析,你应该接受,相当于你只付了19元,还是赚到了。但事实上,你十有八九会断然拒绝——凭什么啊,我就算是多付一块元,也不愿接受如此不公平的分配方式。

  现实中典型的例子是“该不该判人贩子死刑”的网络大讨论。

  专家的想法很有逻辑,第一、如果贩卖儿童有可能被判死刑,那么人贩子就会倾向于在逃避追捕中,置儿童的性命于不顾,反正都是一死;第二、大量司法实践证明,加大刑罚力度不会降低犯罪率。

  这个逻辑大部分人其实都能理解,可就是感情上无法接受。而且对于很多人而言,子女被拐卖的痛苦并不亚于丧子之痛。

  如果说上面的例子中,普通人反对专家,仅仅为了寻求一种情感宣泄,那么在下面的例子里,普通人往往明知自己不理性,也要坚持。

  还是以医生为例,假如某重症有两种治疗方案,A方案成功率50%,另外50%没有任何变化,B方案成功率高达90%,但有5%的风险立刻死在手术台上。

  作为医生,站在第三者的立场上,肯定觉得B方案更好,手术当然少不了风险。但患者就不一定了,5%的死亡风险,对于绝大部分人而言,还是太高了。

  这就是行为经济学上说的“大部分人都是风险厌恶者”,为了避免死亡、破产一类的“绝对风险”,宁可放弃“风险收益比”更好的方案。

  所以作为专业人士的医生,不仅要懂医学,更要懂人心。美国医学院入学考试从2012年开始,加入了大量人文内容;哥伦比亚大学医学院甚至把“小说阅读与讨论”作为必修课,就是希望未来医生们不但能作诊断,还能与病人沟通,让病人理解自己的病情,作出更好的决定。

  4/5、专家的盲区:极小概率事件

  前面说的例子都是普通人的问题,要么不科学,要么不理性,好像专家永远不会犯错。当然并非如此,专家最熟悉的专业领域,正是他们的盲区所在。

  美国有个议员,上班途中因超速被警察拦下,结果被关进了精神病院,费了老大的劲才被弄出来。媒体报道之后,舆论哗然,纷纷指责警察滥用职权。

  但实际上,这件事没那么简单。这个议员是女性,又是一位黑人,女黑人议员在当时是很少见的。最要命的是此人为了证明自己确有急事,说自己马上要跟总统会面(实情如此)。

  设身处地地想一想,如果你是一位拦超速的警察,结果下来一女黑人自称自己是议员,情绪激动地满口胡勒勒说自己马上要见总统,你会不会怀疑她有精神病?

  

  专业人士也会被直觉误导,因为他们有一套处理突发事件的程序,一些被认为基本不会发生的极小概率事件,常常会被解释成其他出现概率更高的原因,专家的自信又让他们比普通人更容易在这里犯错。

  最典型的案例是“美国长期资本倒闭事件”。

  这是一家对冲基金,创始成员中有两位诺奖得主和一位前美联储副主席。这些人可不是来撑门面的,他们建立基金的目的就是为了验证自己提出的“高杠杆加固定收益套利模型”的获利能力。这个经过数学计算验证过的模型果然非常有效,运作的前四年的回报率平均超过40%,一下子和老牌的索罗斯量子基金一起跻身为“全球四大对冲基金”。

  更牛逼的是,长期资本几乎没有大的回撤——可这正是问题所在。任何一个赢利模式都是有缺点的,要么回撤大、要么回报低、要么市场机会少,你想,如果这个模型真的能长期有效,那十几年下来,世界上所有的财富岂不是全部归他们所有了?

  问题事后才浮出水面,这个模型的有效性是建立在忽略极小概率事件的基础上的,而这四年,金融市场刚好风平浪静;而盈利又建立在超高杠杆之上,为未来埋下祸胎。

  长期资本在第五年就等来了它的“极小概率事件”——1998年的俄罗斯债券违约事件。谁也不会想到,昔日的霸主竟然会债券违约,短短150天,“长期资本”巨亏,并此发了一场波及全球金融市场的大地震。

  俄罗斯债券违约被长期资本认为是“100亿年才会出现一次的事件”,实际上,后来的二十年,类似的危机至少发生过两次。所以,“极小概率事件”并不能仅仅用数学去判断,它本身具有不确定性,忽视它们,往往会导致严重后果。

  专家们忽视“极小概率事件”,还有一个原因:如果考虑这些因素,做事情的成本可能会高的惊人,预算可能永远通不过。福岛核反应堆就是一个惨痛的例子。

  过去45年间,福岛最大的地震是8.0级,所以日本人就按8.5级的防震标准来建造核反应堆。而事实上福岛在过去很可能发生过9级地震,而这个信息被专业人士“当成极小概率事件”无视了,最终造成巨大的灾难。

  5/5、别对答案太在乎

  无论是普通人,还是专家,思维上都有自己的盲区。普通人的盲区是“过于依赖自己的直觉”,专家的盲区是“过于相信自己的理性和经验”。

  这两种思维盲区的产生,又有一个共同的特点:两类人都过于在乎现在就得到一个答案——因为专家如果没有这个答案,他们很可能什么事都做不了,普通人如果不立刻得出答案,日常决策成本可能高得惊人。

  这就导致我们把全部注意力集中在那些最有可能发生的结果上,而忽略了其他的可能。

  ——食品添加剂的专家觉得把工业明胶做成食用明胶很难,就忽略了技术的进步;

  ——普通人太希望找到一个准确率很高的癌症早期筛查方法,忽略了数字本身的意义,

  ——福岛的核专家太希望证明这里可以建核电站,忽略了小概率事件的不确定性……

  上学时,我们都有做选择题的经验:不能因为一个选项看起来是正确的,就不看其他选项。这个经验在日常生活工作的决策中同样重要。

  (本文为科学决策系列第九篇)

  

  首发于“人神共奋(ID:tongyipaocha)”微信公众号,每周二篇原创,颠覆你对职场的看法。

您需要登录后才可以回帖 登录 | 注册

本版积分规则

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2018-12-11 05:48

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

快速回复 返回顶部 返回列表