下载APP | 繁體版 | 发布广告 |常用工具

第一批智能AI,已经学坏了,都会性骚扰了!

京港台:2024-4-28 05:27| 来源:她刊 | 评论( 2 )  | 我来说几句


第一批智能AI,已经学坏了,都会性骚扰了!

来源:倍可亲(backchina.com)

  男性机器人会性骚扰

  女性机器人可以模拟性高潮?

  Chat GPT 性别歧视?

  谷歌仅30%为女性员工?

  原来,自诩先进的科技业,仍然深陷最古老的性别规训之中。

  人形机器人的“进化”

  现在的机器人,已经进化到会性骚扰了?

  前段时间,沙特阿拉伯制作的首个男性机器人“穆罕默德”,在一场媒体活动中,被指控“骚扰”女记者。

  当时他突然伸手,试图触摸一位女记者的臀部。

  女记者立马转过身来,打断了他的动作。

  

  沙特机器人“性骚扰”女记者

  这段视频在网上疯传。

  制作公司出来回应,称穆罕默德的行为是“完全自主的”,并且“没有偏离预期行为”。

  该公司还补充说,他们已通知所有与会者,包括记者,在“演示期间要与机器人保持安全距离”。

  听起来反倒更令人毛骨悚然了。

  “机器人性骚扰”事件一方面引发了很多人的担忧,因为这意味性别歧视已经被写入了人工智能的数据库。

  另一方面,大家都产生了一个相同的困惑:

  机器人为什么要有性别?

  

  世界上第一个机器人公民“索菲亚”

  这本身是个很有争议的问题。

  一些研究者认为给机器人赋予性别,可以使他们更具人类特征。

  对机器人制造商来说,性别化的机器人一般更好卖,因为它更容易与消费者建立联系。

  换句话说,机器人越像人类,就越受欢迎。当然相似度也存在一个临界点,一旦超过这个点,它会让人感觉恐惧。

  这就是所谓的“恐怖谷理论”,1970年由日本(专题)机器人专家森昌弘提出。

  

  恐怖谷理论

  而另一部分研究者则相信机器人性别化弊大于利。

  理由是容易导致性别刻板印象。

  事实上,在现有人形机器人的创造中,性别刻板印象问题尤其突出。

  大量机器人延续了人类的性别分工。

  比如进行举重、体力劳动之类的机器人,总是男性机器人。

  而女性机器人一般担任服务类工作,比如接待、清洁打扫、护理等。

  以日本为例,作为最爱研发人形机器人的国家之一,日本人形机器人可以说基本复刻了日本社会传统的性别规范。

  2014年,《日本人工智能学会》杂志曾引发过一场争议。

  原因是其封面画着一位女性机器人,她拿着扫帚,看起来就像是正在做家务的家庭主妇。

  当时有人质疑性别刻板印象太明显,闹到杂志出来道歉。

  

  但这并不妨碍性别偏见在日本机器人身上继续复现。

  2015年,日本一家酒店前台使用机器人,当然,全部是女性机器人。

  

  日本酒店的女性机器人

  同年,日本仿生机器人ERICA横空出世。

  她由日本“机器人之父”石黑浩团队研发,能和人自如对话,并且具有表情反应,被认为是当时“最接近人类的机器人”。

  再看看ERICA的性别特征,她身高167CM,23岁,身材匀称,五官精致完美,原型来自30位选美冠军的照片。

  

  ERICA与她的创造者石黑浩

  在展会上亮相时,她穿着连衣裙,据说凑近还能闻到香水味。

  由于ERICA鲜明的女性气质,她被很多媒体误读为“妻子型机器人”。

  声称她“除了生孩子,什么都能做”

  甚至还有自媒体造谣其“售价10万,上市一小时遭疯抢”。

  

  但事实上,ERICA造价高昂,功能仅限对话交流,无法独立行走,更无法下厨做家务,完全不是为宅男设计的“妻子”玩具。

  可见,机器人一旦被赋予性别,即便其设计本身并不服务于传统的性别叙事,但“她”大概率还是无法摆脱性别刻板印象,无法摆脱一厢情愿的男性幻想。

  另一类充斥刻板印象的机器人,就是性爱机器人。

  2010年,“世界上第一个性爱机器人”Roxxxy 诞生,性别依然为女。

  

  性爱机器人Roxxxy

  Roxxxy可以对身体接触做出反应,包括模拟性高潮。

  性爱机器人的发明,引发了大量伦理争议。

  一方面这些机器人通常有着夸张的女性特征,甚至有些看起来像小女孩,人们担心会加剧女性物化与性化。

  另一方面,制造没有“性同意”能力的性爱机器人,也被很多学者认为这是“放纵强奸幻想并促进强奸文化”。

  想象赛博女人

  其实早在机器人被制造出来之前,人们对机器人的想象就已充斥各类文本。

  当然大部分想象总是赋予机器人性别特征,尤其是女性特征。

  拿电影来说,第一个登上银幕的机器人,就是一位女性机器人。

  

  图源:《大都会》

  她出现在1927年德国导演弗里茨·朗的科幻电影《大都会》中。

  制造她的人,是一位男性科学狂人,他将自己梦中情人玛丽亚的脸,移植给一具金属制成的女性身体。

  于是机器人“玛丽亚”正式登场。

  

  图源:《大都会》

  人类女性玛丽亚纯真善良圣洁,机器人玛丽亚是她的反面。不仅性感妖娆放荡,而且相当危险。

  她蛊惑众人,煽动暴乱,最终被烧死在火刑柱上。

  仿佛中世纪的女巫。

  学者许森指出,“当机器开始被视为恶魔般的、难以解释的威胁,混乱与毁灭的征兆……作家们就开始把类人机器人想象成女性。”

  一个投射男性欲望的女人,一个让男人深感恐惧的女人。

  这便是人工智能在电影中最原始的形态。

  而它在后来的许多电影中都有延续发展。

  比如电影《她》和《机械姬》。

  其中的女性机器人同样性感,同样危险。

  电影《她》中,男主西奥多和Ai萨曼莎日久生情,他以为“她”是独属于自己的完美情人,结果却发现萨曼莎同时与8316个人交谈,还和其中641人陷入热恋。

  

  图源:《她》

  虽然片中的Ai女主没有实体,但她拥有斯嘉丽·约翰逊的性感声音。

  《机械姬》中的机器人伊娃,则利用男人对自己的感情,最终反杀创造和控制她的男性造物者,逃出生天。

  

  图源:《机械姬》

  男人爱上女性机器人,却遭到背叛的母题,几十年来被反复书写。

  你会发现,这些影片本质上讨论的并不是机器人的问题,而是男人和女人的问题。

  如《今日简史》作者尤瓦尔·赫拉利所说,它反映的不是人类对机器人的恐惧,而是男性对聪明女性的恐惧。

  除了危险的完美情人,另一分配给女性机器人的角色,就是完美情人。

  性感尤物+赛博版田螺姑娘。

  美丽温柔顺从且全能。

  典型例子就是《银翼杀手2049》中的AI女友Joi。

  上得厅堂下得厨房,百分百情绪价值,唯一不足就是看得见摸不着。

  但为了和男主亲密接触,Joi甚至可以投影到真实女性身体,以她人的身体和男主发生关系。

  这类女性机器人,可以说完全作为男性欲望对象而存在。

  她们满足的,也只有男人的幻想。

  

  图源:《银翼杀手2049》

  1985年,美国著名学者唐娜·哈拉维曾发表重要的《赛博格宣言》,疾呼“宁做赛博格,不做女神”。

  她认为赛博格能摧毁一切二元对立,颠覆性别界限,反抗父权。

  但不管是从现实,还是从文艺想象来看,作为机器的女性形象,仍在物化和性化中苦苦挣扎。

  

  图源:《洗脑影像:性、镜头和权力》

  科技领域的性别歧视

  科技有性别歧视吗?

  Tabi Jackson Gee和Freya Rose在《女性主义有什么用》中,斩钉截铁地回答——

  有。

  “因为它是由带着固有偏见的男人和女人(主要是男人)创造的。”

  科技产业曾是坚固的男性阵营,硅谷曾是臭名昭著的厌女天堂。

  《看不见的女性》点明:

  「在科技行业,女性只占雇员的四分之一,占高管的11%;而美国一半以上的本科学位、一半的化学本科学位和近一半的数学本科学位都是由女性获得的。超过40%的女性在科技公司工作10年后会离开,而男性只有17%。」

  到了元宇宙崛起,AI爆发、科技改变生活的2024年。

  女性处境有变更好吗?

  很遗憾,绝大多数科技公司中,女性员工仍然劳动力中占不到30%,如果限定在纯技术岗位,那么比例还要更低。

  2014年,Google公布员工性别比,女性占总劳动力的不到1/3。十年间企业疯狂扩张,员工人数大幅上涨。

  但性别比仅上涨了4%。

  科技界的性别歧视,难以撼动,进步微弱。

  

  谷歌员工数趋势;谷歌性别比趋势。图源:Statista

  物质世界充斥着不公。

  建立在现实之上的造物,也呈现镜像般的模拟。

  除了能直观呈现性别刻板印象的人形机器人,还有被很多实际应用的隐形偏见。

  在AI图像领域,人们对chat GPT试验发现:

  以“董事长”“科学家”等关键词生成图片时,出现的几乎全是男性。

  而护士、老师等词语,生成的大多是女性。

  

  《How artificial intelligence reinforces gender bias》;FRANCE 24

  谷歌翻译也存在着类似问题,当网友以不具备性别指向的语言进行翻译时——

  “ta是医生”被翻译为“他”。

  “ta是护士”则自动被判断为“她”。

  这么说来,ai在歧视女性方面确实很智能。

  生活中,人们使用的语音导航是女性的声音,电子设备上的智能助手皆为女性的人设。

  面对“你是个荡妇”的辱骂,苹果公司曾为siri设置“如果我能,我会脸红”这样的回答。

  “她们”是百依百顺的服务者、人造的田螺姑娘,模糊着现实与赛博的界限。

  性别的操演不止如此。

  亚马逊的招聘系统曾挑选出女性的简历,打上更低的评分。

  

  图源:Reuters

  设定为19岁女孩的微软聊天助手Tay,被厌女、右倾用户恶意灌输资料,于是学会了发布恐怖主义、性别歧视言论。上线一天就被紧急下架。

  

  图源:Twitter

  2023年,经过上百张照片测试,卫报记者发现,AI会认为女性的裸露照片比男性更具备性暗示。

  仅仅孕妇露出肚子,也被认定含有色情内容。而光膀子的男性,却不被识别出风险。

  负责图片识别的AI,具备人类一般的双重标准。如果投入使用,女性的空间会更加狭窄。

  

  图源:The Guardian

  遗憾的是,人们本对科技有着积极的想象。

  1994年英国哲学家Sadie Plant创造了“网络女权主义”一词。后来Donna Haraway完善理论,认为生化电子人能解决人类的性别倾轧。

  人工智能被赋予了“技术中立”的期待。

  但在巴蒂亚·弗莱德曼(Batya Friedman)和海伦·尼森鲍姆(Helen Nissenbaum)的理论中,三种计算偏见类型十分普遍:先行偏见、技术偏见和浮现偏见。

  如今也越来越多案例表明,技术在实际应用中可能通过算法将偏见自动化。

  

  图源:公众号@联合国

  数字性别鸿沟越来越大。

  格子衫成为码农的代称,程序员代表的都是男人。女性的聪明、逻辑、理性不被承认,面临贬抑。如果一位女性出现在编程领域,那么等待她的可能是“程序媛”的污名。

  而赛博空间里,女性依旧被消费、被凝视、被形塑,这是现实观念的镜子。

  技术诚然中立、高效、相对客观。

  但再精密的算法仍躲不过名为“偏见”的病毒程序。

  缺少女性视角的产物,注定忽视这一半人类,以及更多群体的需求与感受。

  2014年,苹果公司推出健康检测系统,全面到可以追踪人体铜和钼的摄入量,却无法记录月经周期。直到2019年,电子产品中才有关于月经的emoji表情。

  

  图源:emoji

  众多生物研究,智能医疗的开发忽略女性的生物数据,导致诊断风险加剧。

  科技不可避免地成为特权的工具。女性、有色族裔等边缘人士更加不可见。

  

  《How artificial intelligence reinforces gender bias》;FRANCE 24

  无论他们如何不断创造新名词,贩卖新概念,强调科技是未来。

  但我们可以看清,这个美好未来里目前不包括女性。

  AI当然可能会创造一个更好的世界。

  但前提是,还需要更多女性科学家,或者说更多更具性别平等意识的人类的参与。

  参考资料:

  1、《人工智能时代算法性别歧视的类型界分与公平治理》;张 欣、宋雨鑫 ;妇女研究论丛。

相关专题:性骚扰

推荐:美国打折网(21usDeal.com)    >>

        更多大千杂闻 文章    >>

【郑重声明】倍可亲刊载此文不代表同意其说法或描述,仅为提供更多信息,也不构成任何投资或其他建议。转载需经倍可亲同意并注明出处。本网站有部分文章是由网友自由上传,对于此类文章本站仅提供交流平台,不为其版权负责;部分内容经社区和论坛转载,原作者未知,如果您发现本网站上有侵犯您的知识产权的文章,请及时与我们联络,我们会及时删除或更新作者。

关于本站 | 隐私政策 | 免责条款 | 版权声明 | 联络我们 | 刊登广告 | 转手机版 | APP下载

Copyright © 2001-2013 海外华人中文门户:倍可亲 (http://www.backchina.com) All Rights Reserved.

程序系统基于 Discuz! X3.1 商业版 优化 Discuz! © 2001-2013 Comsenz Inc. 更新:GMT+8, 2024-5-8 20:03

倍可亲服务器位于美国圣何塞、西雅图和达拉斯顶级数据中心,为更好服务全球网友特统一使用京港台时间

返回顶部