下载APP | 繁體版 | 发布广告 |常用工具

哥大教授:ChatGPT的能力在于放大人类的自恋

京港台:2025-9-7 17:15| 来源:澎湃新闻 | 评论( 2 )  | 我来说几句


哥大教授:ChatGPT的能力在于放大人类的自恋

来源:倍可亲(backchina.com)

  刘禾,哈佛大学比较文学博士,先后执教于伯克利加州(专题)大学、密西根大学,现为哥伦比亚大学东亚系暨比较文学与社会研究所终身人文讲席教授,曾任该研究所所长,古根汉奖得主。著有《跨语际实践:文学、民族文化与被译介的现代性(中国,1900-1937)》《帝国的话语政治:从近代中西冲突看现代世界秩序的形成》《弗洛伊德机器人:数字时代的哲学批判》《剑桥的陌生人》,编有《交换的符码:全球流通中的翻译问题》《持灯的使者》《书写与物质性在中国:韩南纪念文集》《中国女性主义的诞生:跨国女性主义核心文本》《世界秩序与文明等级:全球史研究的新路径》《全球语言正义》,注有《天义·衡报》校注本。

  如果依循您的界定,“弗洛伊德机器人”指的是一切无法脱离人机之间互为摹拟的无限循环关系,因而亦难以摆脱控制论无意识的存在,那当下的对话生成式预训练模型(如ChatGPT)便可视为其最新的支配性形态。有一种批评声音认为,此类对话机器人擅长无原则的谄媚,极易将常人的意见建制化,从而加剧社会意识形态的板结,您怎么看?

  刘禾:尽管ChatGPT的正式发布是在2022年底,但当前围绕它的许多讨论,早在半个多世纪前就已初见端倪。1966年,麻省理工学院科学家约瑟夫·维森鲍姆(Joseph Weizenbaum)开发了第一款具有广泛影响力的聊天机器人ELIZA。维森鲍姆本人,作为模仿心理治疗师的“DOCTOR”脚本的设计者(ELIZA—A Computer Program for the Study of Natural Language Communication between Man and Machine),对人们将ELIZA拟人化的狂热提出了尖锐的哲学批评。他指出,人类用户之所以感觉能与机器对话,并非因为机器具备智能,而是源于一种自我投射的心理机制。为了系统批判同事们在这种技术乐观主义下的盲目,他写了《计算机能力与人类理性》(Computer Power and Human Reason: From Judgment to Calculation)一书,并最终选择疏远自己开创的这一领域。

  维森鲍姆的洞察与拉康的理论不谋而合。拉康曾表示,当你在电话中与人交谈时,听见的首先是自己已经知道的东西。同理,用户与ChatGPT的互动,正如与ELIZA的互动一样,是一个将自身愿望、幻想与期待投射到机器上的过程。机器生成的文本因语言固有的模糊性,为用户提供了广阔的诠释空间,如同人们解读算命先生的谶语,最终看到的只是自己内心早已存在的答案。从这个角度看,ChatGPT的强大能力或许在于更高效、更全面地映照和放大了人类的自恋。即便算法本身并未植入刻意讨好之意,用户也总能从模型的回答中,找到迎合自己期待的证据。当我们拨开当前对聊天机器人的过度炒作,重审1966年的ELIZA,便会明白:构成这场人机互动幻觉的所有基本元素,其实半个多世纪以来,未曾改变。

相关专题:教授,恋爱,GPT,ChatGPT

推荐:美国打折网(21usDeal.com)    >>

        更多科技前沿 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2025 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2025-9-7 20:42

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部