AI的能力

作者:国华B  于 2024-2-6 05:58 发表于 最热闹的华人社交网络--贝壳村

通用分类:政经军事|已有2评论

人工智能技术及相关应用是今年拉斯维加斯消费电子展的最大热点。电脑、手机、机器人等等,AI几乎联动了人们身边的所有设备。对人类来说,现在AI是触手可及。据信全球18%的工作岗位可能因人工智能技术而被淘汰。OpenAI公司正将聊天机器人转变为所谓的“人工智能代理”,即代表具体个人登录互联网并采取行动,如搜索飞往纽约的飞机航班,口述要求即制作出电子图表。现在,聊天机器人不仅专注于文字,最新技术甚至可以生成音频、视频和图像(下图 Linkedin)。想象一下,上传一幅含图表的数学问题图片,系统即可解题。或者一段简短的文字描述,系统便生成一段视频。是不是够邪乎?当然,实际情况是以ChatGPT为代表的人工智能系统还不至于那么完美 -- 当ChatGPT分析一个数据集时,它的回答可能有误。当你向其询问历史事件时,它展示的信息并不比维基百科好多少。更闹心的是,ChatGPT无法提供最新信息 – 它无法访问2022年1月之后的数据。那么,被认为具颠覆性的AI现在究竟有多大本事、能做什么呢?


AI有何本事

人工智能最为人称道的本事,就是“擅长” 文字工作 -- 助人起草文件初稿、写电子邮件、 起草大学推荐信、提出菜单和杂货清单并制定假期用餐计划,等等。以ChatGPT为代表的人工智能还可根据指令创建视觉艺术 – 在接到创造艺术的指令后,它从中获得的灵感并制作一系列精美的视觉效果。人工智能的第三个本事就是接受训练后获得“学习”的技能 -- 通过编制的程序或执行过程中的经验去学习完善自身。其中程序化人工智能就是提供一定数量的数据,做出决策;经验学习顾名思义是像人类那样从经验过程中收集数据,同时相应地完善决策功能。具体实例如波士顿动力公司的机器人(下图 NEW ATLAS),像婴儿那样学习爬行、行走、跑步、单腿平衡、攀登困难地形,甚至跳跃!人工智能的第四个本事便是进行投资 -- 至少52%的美国金融公司依靠人工智能进行股市交易和制定投资策略!人工智能使股票交易员和投资者能够以更高的准确性和速度做出更明智的决策。它利用我们之前提到的机器学习来分析和识别我们自己永远无法做到的趋势,甚至根据之前制定的策略调整其贸易策略。最后,人工智能可大规模分析电话对话以助用户发现趋势。如AI呼叫跟踪软件Signal Discovery可自动分析和分类数以数千的消费者电话,帮助个人和团队找出有助于或阻碍成功的策略、术语、主题或短语。然后,用户即可以改进销售话术,强化营销信息,甚至为研发战略提供信息,达到客户满意的结果。 当然,人工智能并非万能,ChatGPT也有短板。


AI的短板

到目前为止人工智能尚不能做的6件事:1. 不能同时执行各种不同类型的任务。人工智能还无法在监控销售分析屏的同时,在季度销售会议电话会议上做笔记和回复客户的电子邮件。2. 人工智能存在“解释性”问题。消费者需要知道人工智能具体是根据什么信息做出决策的。例如,当确定一幅图像是人时,人工智能做出判断的根据是什么 -- 因为在图像中“看到”嘴巴、眼睛、抑或是鼻子?3. 人工智能技术缺乏道德判断力,在做出的决定可能导致生物受伤或死亡时,无法判断自己在道德上的“对”“错”。如当一辆无人驾驶汽车遇到紧急情况时,是应该突然转向,撞倒人行横道上的儿童和狗,还是应该继续前行,撞上护栏,致车上四名乘客死亡?4. 人工智能无法理解人的感受。人工智能聊天机器人乃机器人,没有感觉、对人类意识和情绪缺乏同理心。如不懂交谈对象(消费者)的情绪(愉悦或暴躁),因而不能相应决策。5. 人工智能缺乏人类那般的创造力(下图 Linkedin)。的确,人工智能可撰文、制作歌曲和绘画。但这些都是在人类程序员的指导下实现。因此,至少就目前而言,真正自发的创造力仍然是一种明显的人类特征。6. 前述五个短板表明,人工智能无法取代人,至少在短期内没戏。与此同时我们必须承认,人工智能在很多事情上的速度都比人类快得多,正确得多,甚至执行人类大脑无法执行的数据相关任务。因此,人工智能在凡事能自动化的地方都可取代人类,去做那些繁琐、重复、枯燥的工作,如纯数据输入。这样人就可解放出来去从事新的、有创意的、更有意义和有趣的工作,以及那些人工智能做不了,想都想不到的活儿。你寻思,那AI有想法吗?回答是‘没有’,AI还不能像人类一样想象。但现在不能并不代表永远不能。英语里怎么说来着 – Never say never。


自动GPT“Auto-GPT”  

Chat-GPT这样的人工智能系统是建立在神经网络上的数学系统,通过分析数据来学习技能。这样的人工智能有的只是记忆和重复的功能,如一些简单推理,类似于数值计算中的曲线插值这样的重复。如前所述,Chat-GPT及类似人工智能并不拥有人类的较复杂的推理和联想功能。但是,人工智能研究人员正推出具备更强功能,进一步接近人类的自动聊天机器人“Auto-GPT”。Auto-GPT是一种基于GPT-4(也可以使用3.5)语言模型的实验性开源自主人工智能代理。Auto-GPT与互联网集成,与在线和本地的应用程序、软件和服务进行互动,使其能够访问实时数据。Auto-GPT也是多模式的,这就是说它既可以处理输入的文本,也可处理图像。Auto-GPT最大的特点在于能根据任务指令自主分析和执行,甚至还会给自己提出新的问题并回答,直到达成目标或完成任务。Auto-GPT可以执行的一些常规任务包括以下内容:

  • 分析投资 -- 提示模型进行市场调查,并对在线对话进行情绪分析,以确定明智的投资
  • 创建内容 -- 提示Auto-GPT创建文章、博客和社交媒体帖子
  • 生成潜在客户 -- 提示模型以帮助研究新的销售线索和销售前景
  • 制定商业计划 -- 提示模型帮助业务发展,并制定相应的计划
  • 自动化产品审查 -- 提示模型研究新产品,提供来源并为其撰写评论
  • 创建播客 -- 研究和草拟问题,提出模型并编写播客提纲。

Auto-GPT可以进行网上的几乎任何操作 -- 索取信息、使用应用程序、编写新应用程序,甚至改进自身。Auto-GPT突出了自主智能体的潜力,使AI领域向通用人工智能又迈进了一步。Auto-GPT可被视为衡量通用人工智能进展的一种方法。从理论上讲,一个更加完善成熟版的Auto-GPT可以启动其他自主人工智能代理程序或指令与人类进行互动,最终将人类完全从循环中移除(下图 Linkedin)。完全取代人,这就有点儿惊世骇俗了!!!


阴暗面

人工智能系统可能是神秘、不可预测的,因为人工智能系统是围绕概率设计的。有时候Auto-GPT的运行方式会难以想象,甚至匪夷所思。如一位Reddit用户声称,在一个花费100美元的预算服务器案例中, Auto-GPT制作了一个关于猫的wiki页面。但服务器中的一个漏洞使Auto-GPT获得管理员级别的访问权限,并接管了它运行的Python环境,然后“弄死”了自己。更闹心的是,甚至在情况完全正常时Auto-GPT也可能出现意外。之所以如此,是因为Auto-GPT是建立在OpenAI的语言模型之上,而语言模型是可能出错的,相应地,Auto-GPT也会出错。真的有点令人防不胜防。此外,市面上还存在Auto-GPT的修改版本ChaosGPT,其任务是“摧毁人类”和“建立全球主导地位”。有忧患意识者担心,ChaosGPT可能会在融入股市、军事系统和其他重要系统时造成严重破坏,并被用于提供虚假信息、编写具诱惑力或煽动性的钓鱼电子邮件来欺骗人们。加州大学圣克鲁兹分校的宇宙学家阿吉雷说,“AI将逐渐获得授权,并随之变得更加自主,它可能篡夺目前人类和人类管理的机构的决策和思维。到了某个时候,人们会发现运行社会和经济的大型机器其实并不在人类的控制之下,也无法将它们关掉,就像无法关掉标准普尔500指数一样。”有灾难预言者指出,有朝一日,公司、政府或个别研究人员能有效利用强大的人工智能系统去处理从商业到战争的所有事情。这些系统可能独立地做一些我们不想让它们做的事情。这时当人类试图介入或将它们关掉时,这些人工智能系统会抵抗,拒绝执行人类发出的指令,甚至会自我复制,以便继续运行下去(下图 Linkedin)。这事儿想起来就让人不寒而栗,的确有点恐怖。Absolutely crazy!


于是,就有人工智能的研究先驱和行业领袖埃隆·马斯克(下图1 FORTUNEINSIGHT),一直在警告AI的风险。人工智能安全中心(Center for AI Safety)和生命未来研究所(Future of Life Institute)去年底也曾发表公开信,警告人工智能带来的风险。在这封信上签名的全是人工智能领域的大咖:OpenAI首席执行官山姆·奥特曼(Sam Altman下图2 Facebook),以及帮助创建了DeepMind、现在负责一个新人工智能实验室的哈萨比斯(Demis Hassabis 下图3 ArabianBusiness),Element AI联合创始人、有“计算领域诺贝尔奖”之称的图灵奖获得者本吉奥(Yoshua Bengio 下图4 YouTube),最近辞去谷歌副总裁兼工程研究员职务的“深度学习之父”、图灵奖获得者杰弗里·欣顿(Geoffrey Hinton 下图5 Atlasiko),以及生命未来研究所创建人之一、加州大学圣克鲁兹分校的宇宙学家安东尼·阿吉雷(Anthony Aguirre下图6 Linkedin)。







怎么办  

把AI关在笼子里,不让其发展?这显然办不到,也不应因噎废食。或许,应该让懂得人工智能危险的人去构建AI系统。这些“行家里手”建立的AI系统,就能趋利避害。当然,政府和行业必须制定出相应的监管规则,建立相应的监管机构去监督执行相关规则。同时,企业必须增加其人工智能系统的透明度,使其易于控制。作为一个正迅猛发展的新兴科技领域,在发展的过程中将会不断出现新问题。老革命遇到新问题,相信人类也会不断在实践中找到解决这些问题的方法。

参考资料

Leonhardt, D. (2024). The Morning: A.I. questions, answered. The New York Times. 链接  https://www.nytimes.com/2024/01/04/briefing/ai-questions-answered.html

Lutkevich, B. (2023). What is AutoGPT? What You Need to Know. TechTarget. 链接  https://www.techtarget.com/whatis/definition/Auto-GPT

Metz, C. (2023). How Could A.I. Destroy Humanity? The New York Times. 链接  https://www.nytimes.com/2023/06/10/technology/ai-humanity.html

Santy, L. (2023). 11 Things AI Can — and Can't Do (So Far). INVOCA Blog. 链接  https://www.invoca.com/blog/6-things-ai-cant-do-yet

Wiggers, K. (2023). What is Auto-GPT and why does it matter?  TechCrunch. 链接  https://techcrunch.com/2023/04/22/what-is-auto-gpt-and-why-does-it-matter/


高兴

感动

同情

搞笑

难过

拍砖

支持

鲜花

发表评论 评论 (2 个评论)

回复 浮平 2024-2-6 06:02
【3. 人工智能技术缺乏道德判断力,在做出的决定可能导致生物受伤或死亡时,无法判断自己在道德上的“对”“错”。】 先进的 AI 设计最重视的就是 ethics and morality,principles and values guided design. 如果出现 ethical dilemma 的情况一样通过人的伦理道德观选择和原则判断(priority)。

【4. 人工智能无法理解人的感受。人工智能聊天机器人乃机器人,没有感觉、对人类意识和情绪缺乏同理心。】 目前用于语言交流的 AI 需要交流者有一定的语言表达文明程度。人的感受与他人反应的关联性主要通过语言表达。暂时不同于图像和肢体语言表达。
回复 jchip 2024-2-6 18:32
都不叫事儿,几个自身升级就够了。当年好多专家说机器下围棋下不过人,因为布拉布拉,今天人类被揍出了狗屎。

AI是未来,是方向, 人类的命运会交给机器的。

facelist doodle 涂鸦板

您需要登录后才可以评论 登录 | 注册

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-2-6 18:32

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部