下载APP | 繁體版 | 发布广告 |常用工具

清华教授:AI无法替代的人类优势,你孩子掌握几个?

京港台:2023-4-11 19:31| 来源:果壳 | 评论( 7 )  | 我来说几句


清华教授:AI无法替代的人类优势,你孩子掌握几个?

来源:倍可亲(backchina.com)

  你会害怕ChatGPT吗?害怕你或你的孩子很快就会被AI淘汰?我来降低一下你的焦虑。

  在ChatGPT及其后继者的时代,我们还能够做什么?为了探索这个问题的答案,我建议大家做一个思维实验。如果你有机会让你的孩子“变得”像ChatGPT一样,会怎么样?假如在一个特殊的房间里睡了一晚之后,你的孩子出来的时候看上去和以前一样,但是孩子的脑子已经被“编程”过,ChatGPT知道的所有事实都已经塞到他们脑子里了。这是你想要的吗?

  我的答案是:不,我不要。理由如下:

  学得再像ChatGPT,也没有用

  确实,ChatGPT非常厉害,厉害到许多过去值得学习的东西现在似乎变得没那么有价值了。然而,有些其他的技能和能力将会变得越来越重要,尽管你一时可能想不起它们

  先从功利主义的角度来看看:未来的就业市场会重视哪些技能?

  更容易说出未来就业市场不重视什么——恰恰是ChatGPT所拥有的那种百科全书式的知识。原因很简单,在未来,每个人都会有自己的个人设备——手机或者其他在未来取代它的小工具——装载着相同的知识库。那种感觉就像是,想想曾经非常有价值的射箭技能后来怎样了?在人类不再依靠射箭来打猎或打仗之后,就很少有人去练习并掌握这项技能了。当然,像奥运冠军那样擅长射箭的人还是有的,但总体来说,射箭已经从实用性技能转变为娱乐性技巧。

  像这样曾经必不可少、现在已成为小众爱好的技能,我们还能列出长长的清单:马术、尺规作图、通过观星来导航、手写信件、钻木取火、纺纱织布……

  它们都有一个共同点:高度专业化,其重要程度依赖于很具体的情境。在不久的将来,我们的孩子在学校里学到的许多知识也会变得类似——它们是很有趣的,但不太有实际用处

  不像ChatGPT那样学习,倒是会有用

  那么什么是有用的呢?与人类合作,为人类工作。为此,以人为本的技能将是必不可少的

  在一个充斥着ChatGPT和人工智能的世界里,以人为本的通用技能将变得更加重要。这似乎有违直觉。但这正是过去技术革命中发生的情况。两百年前的人们很难想象、更难以相信一个能有这么多律师、教师、艺术家和网红的世界。这些职业的重点不在生产的技术方面,而在于与其他人的交流和互动这一轮技术革命也将产生同样的效果。

  事实上,技术越复杂,需要的人力管理就越多。下面是一些例子:

  1. 用户体验。只要机器不像末日电影里那样上演毁灭人类的革命(我认为不会),它们的输出就会是为我们人类而创造。我们需要告诉未来版本的ChatGPT,我们想得到什么,我们想要如何得到。

  2. 使用限制。什么时候可以使用机器?现在已经有很多困难的案例: 学生可以用ChatGPT写作业吗?当艺术家用人工智能创作一件艺术作品时,谁是真正的作者?使用ChatGPT进行心理咨询,是可以接受的吗?

  3. 权责分配。机器生成的作品产生收益时,谁有权收钱?机器生成的产品导致了一场事故,在经济上和道德上又该由谁对此负责?以上一段里的例子而言,人工智能生成的艺术作品获奖时,奖项应该颁给谁?如果ChatGPT的咨询对病人造成了伤害,谁应该为此负责?

  4. 使用目标。我们希望通过技术实现什么目标?以设置公路的限速为例,限速越高,车速就越快,越能节省时间,同时事故也会变多。有人可能会认为人工智能将为我们设置最佳限速。但“什么是最佳”并不是早已注定的客观存在,“最佳”取决于我们的价值观和偏好即使拥有最好的人工智能,目标最终还是由我们人类来决定。

  5. 协商谈判。以上所有问题,都需要不断地与其他人类进行协商。我们沟通和说服他人的能力,将变得越来越重要。

  未来的许多工作、或许是大多数工作,都将致力于解决这些问题,还有一些目前难以想象的问题和任务。但它们都拥有共同的人文因素

  重要的是路径,而不是终点

  在最近的一次晚宴上,一位来自普林斯顿的物理学家朋友尼马·阿卡尼-哈米德(Nima Arkani-Hamed)教授说,每一位物理学家(或者想成为物理学家的人)都应该读读爱因斯坦的笔记。不是因为爱因斯坦的笔记会给你更多的事实,而是因为爱因斯坦的笔记充满了错误的想法。阿卡尼-哈米德认为,从爱因斯坦那里看到错误的东西,可以启发一个人如何作为一个物理学家好好思考。

  让我重复一下:从错误的想法中,我们能学会更好地思考!

  在科学界,爱因斯坦的笔记是个反常的异数。大多数科学家不会自豪地记录他们错误的想法,即使他们记录了,错误的想法也不太可能被发表。事实上,科学界里发出来的大多数东西都是优雅的、正确的、成功的

  ChatGPT(以及任何大型语言模型)的工作原理,是通过统计积累已发布的材料。它通常可以访问光鲜亮丽的最终产物,而不是错误百出的潦草过程。但这也使它们失去了“全过程”的好处。当错误的想法和失败的实验不可见时,统计推断就会受到负面影响。

  想象一下,一个公司的管理者通读过所有的 MBA 课程教科书,但从未真正管理过任何项目。你会相信他吗?我不信。遇到困难、尝试解决、遭遇失败,这样的经历是一个成功的CEO的必备特质。

  当你需要面对与过去截然不同的反常事件和问题时,从差错和失误中形成的知识就变得特别有用如果你仅仅依靠统计数据,你的结论就不能预测不寻常的新事件。只有通过一个学习的过程,而不是立即到达“已知”,你才能形成预期意外的洞察力。

  与此相关的一点是,并不总是“多多益善”。我们说某种菜肴是精致的,并不是因为它使用了更多的原料和香料。最好的化妆品也不会在脸上用尽所有颜色。你的书法并不会“大力出奇迹”。事实上,许多好东西之所以好,是因为它们恰到好处地保持了平衡:不太多,也不太少。要发明新的好玩意,你不需要什么都知道。

  同理,了解所有的事实并不保证你能创造出好的东西。我并不是说人工智能无法生产出创造性的作品——它当然可以。但是人类带着自身所有的局限性——有时正因为其局限性——也能够创造出许多令人惊叹的作品。没有理由放弃这种已被证明的能力;相反,我们应该培养它。何时停止?如何选择?如何平衡?这种敏感性来自于学习的过程,而不是学习的结果。

  ChatGPT能“辨别”,但不能“鉴赏”

  你是否曾读一本书读到一半,实在读不懂,最后认为自己一定是太愚蠢了才读不懂这本书?我的学生告诉我,她过去常常这样看待那些她看不完的书。这样的情况持续到她自己需要写论文为止。在这个过程中,她学会了如何成为一个好作者。直到那时,她才意识到,一本书很难读懂,可能仅仅是因为作者写得不好!通过学习如何写作,她学会了鉴赏好的写作。

  我认为很多事情都是如此: 如果你不经历学习的过程,不经历从 “无知”到“知道”的艰难转变,你将很难鉴赏“什么是好的”。像ChatGPT这样无所不知的系统充其量只能做出区分——分辨什么是好的,什么是不好的。它可以通过模仿现有的判断来做到这一点。但是谁首先给ChatGPT输入判断呢?这依然将是(或应该是)由人类完成的。

  但是,“能够区分”远不及“能够鉴赏”:后者拥有对质量的直觉和感受。举个例子: 我喜欢喝茶又住在中国,我试图了解关于中国茶的一切。我收集中国茶,买了很多不同种类的茶,还买了关于不同种类中国茶的书籍。正因如此,我可以根据一些标准来区分不同的茶,茶的名字、形状、颜色,最简单的就是根据价格来区分——贵的茶可能最好

  但我做不到“正确地鉴赏中国茶”,给我一杯茶,我喝下后,并不能正确判断它的价值。有一些我认为好滋味的茶叶其实很便宜;有些茶叶我不喜欢,后来有人告诉我每斤要5000元以上!我能够根据自己知道的事实进行分辨,但我仍然不能“鉴赏”。

  为什么我们要能够鉴赏“上品”?为了快乐。和我不同,这篇文章的读者里,有人能够品尝一杯好茶并从中获得快乐,因为你能够鉴赏它的妙处。我能从阅读一篇好文章中获得乐趣,无论那是小说还是学术论文。一些读者可能从观赏京剧中获得乐趣,另一些则从下一盘好棋中获得乐趣。

  这突出了享受的重要性:就围棋而言,人工智能可以轻易击败最好的人类玩家,但我们仍然会下围棋并享受它。事实上,我可以向你保证,如果你的大脑突然对围棋无所不知,你将失去下围棋的所有乐趣

  需要说明的是,ChatGPT不需要懂得鉴赏,它现在的样子已经足够运作良好。但是对于我们人类来说,如果没有鉴赏能力,我们的生活将变得枯燥无趣——所有的茶尝起来都差不多,所有的文字仅仅是信息的载体。

  无论如何,我的孩子将不会模仿ChatGPT

  如上所述,即使未来的实验室提供给我们的孩子一个类似于ChatGPT的知识库,我也会拒绝。

  我拒绝一夜之间成为ChatGPT的理由,在当下是实际的,从长期来看也是合理的。无论未来的ChatGPT20多么令人惊叹,这些理由依然不会改变。只要你知道如何管理人类,你就会一直有工作。你能获得很好的洞察力,即使你有局限,有时可能正是因为你有局限。而且你永远不会想要放弃鉴赏的快乐。我们有充分的理由让我们的孩子学习,并经历完整的学习过程。

  如果你希望使用ChatGPT来帮助自家孩子学习,该怎么做呢?

  对此,我有两个想法。

  首先,我认为我们需要提出更好的问题,来检验孩子们的学习。如果我们出的问题能被ChatGPT完美回答,那么我认为应该重新评估这些问题,因为学习那些材料是没有意义的。

  说到这个话题,最近有人测试了ChatGPT4在2022年北京高考中的表现,发现在生物科目中,ChatGPT4得到了满分 。这说明对我们的孩子来说,生物高考卷出得不够好。在这方面,我们最近让ChatGPT3做我们在清华大学的课堂作业,它的成绩不太好。

  其次,我们可以用ChatGPT收集已知的事实,这可以提升我们的学习。比如,在我学习中国茶的过程中,我可以让ChatGPT告诉我西南和华南地区生产的所有茶叶的名字和价格。

  一旦掌握了这些资料,我就可以系统地培养自己的鉴赏力,比如连着品尝两杯这些产地的高价佳茗。用这种方式,ChatGPT就像是一个提供有用信息的助理,而我们会决定如何尽可能地使用它,以获得最佳学习效果——无论是为了品茶,还是为了设定道路限速。

  可能要过很长时间,我才能成为中国茶的鉴赏家。但这个过程本身是令人愉快的。我永远不会为了成为一个无所不知的ChatGPT,而拒绝经历这段过程。 “更多”有时候不一定“更好”

相关专题:清华,教授

推荐:美国打折网(21usDeal.com)    >>

        更多学术教育 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-4-24 17:03

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部