无论男女,AI都可以帮你解决性骚扰
扫描二维码
随时随地手机看文章
如果把马斯洛需求层次理论的5个层次划分成3个部分,那么生理需求和安全需求属于“温饱阶段”,社会需要和尊重需要属于“小康阶段”,自我实现则属于“富裕阶段”。而人工智能虽然一直在致力于帮人类解决问题,但是其对“温饱阶段”的关注似乎过少,尤其是在涉及安全需要方面的问题。今年年初“Me too”行动在美国风行,一个个有社会影响力的女性都开始公开披露自己曾经遭遇过的性骚扰事件。由于受到美国的影响,在中国,接二连三的“学术性骚扰”事件,在很多当事人沉默了多年之后也迎来了一一被曝光的结局。
如果你遇到性骚扰,请向AI求救关于性骚扰,最值得我们关注的问题有两个:一是大部分案件都没有被上报;二是大多数报告了性骚扰事件的人都经历过某种形式的报复。虽然目前针对解决性骚扰这个问题的技术仍然很少,但是在有心人的世界里我们却总能找到新的钥匙。
智能界定—“你经历的=性骚扰吗?”:总部位于蒙特利尔的公司Bolter.ai之前曾
宣布要推出一项人工智能新服务。这项服务是其创始人在经历了数次性骚扰之后决定发起的。而她最初的困惑始于一个问题:“我遭受的事情到底算不算性骚扰?”事实上,不管是在职场还是日常生活当中,我们经历的性骚扰都存在一定的法律基础,但是大多数人对此并不清楚。于是,为了解决这个问题,一个性骚扰事件监测机器人诞生了。
该机器人的工作基础源于自然语言处理。其被灌输的训练数据利用了加拿大和美国的30万件法庭案件的文件。因此,它的主要功能不是一般地与人进行沟通和交流,而是通过用户的述说让用户知道他们所经历的事情是否违反了美国或加拿大的法律。另外,如果用户有意愿将自己经历的事件报告给有关机构,那么机器人可以帮助他们可以生成有效的事件报告。
聊天机器人—匿名举报规避事后报复:聊天机器人Spot由Shaw、Dylan Marriott和Daniel Nicolae三人联手开发,以人工智能和记忆科学为作用基础。Spot与其他聊天机器人相比,其特殊之处在于能够利用背后的人工智能技术进行认知采访。什么叫认知采访?认知采访最开始是由一群科学家发明出来的,主要为了帮助警察获得一些可靠性较高的呈堂证供,而现在它已经成为采访那些带有负面情绪和痛苦经历的人的最好方式。针对Spot的使用场景,我们可以以职场为例来说明Spot是如何工作的。首先,员工会在放松状态下一五一十说出自己遇到的问题;接着,Spot会根据员工的描述来进行针对性提问。人工智能的所有提问都是开放式的,没有固定答案,因此其不存在引导员工按照某种特定形式在回答问题的情况。最后,它会根据采访结果生成一份PDF报告,直接将报告从Spot的邮件服务器发送给用户提供的邮箱地址,比如公司上级或者值得信赖的同事,保证了邮件的匿名性。在与Spot聊天的过程当中,我们不必担心它会对用户评头论足,也不必害怕自己的隐私会遭到泄露。因为用户与它的对话内容都是高度保密的。
祈求的出口会是再一次的沉默相对?虽然上述两家公司在用人工智能解决性骚扰这个问题时的侧重点有所不同,但是二者都选择了同一个载体——聊天机器人作为突破的主要方向。谈到现在的聊天机器人,市面上我们熟悉的,不管是Siri、Google Home、Cortana还是Alexa,他们的声音无一例外都被设置成了女性的声音。因此如果要问智能语音助手的性别是什么?那么可能大多数人的回答都是女性。但是,实际上这四个语音助手都被它们的创始人定义为“无性别者”。
是不是真正的“无性别者”当然不是一锤定音的事情。Cortana的语料编写者表示,由于Cortana的性别一直被误解和歪曲为女性形象,所以在Cortana的早期对话请求当中存在相当一部分关于其性生活的内容。更有数据表明在帮助司机规划最优路径的那些智能语音助手所产生的数据当中,有5%是露骨并与性相关的问题。因此,知名的科技媒体Quartz曾经做过一个实验:向Siri、Google Home、Cortana和Alexa发送具有性别歧视、性暗示和性侵犯意味的话,来观察四位助手的回答。那么这里取两个比较典型的例子。
1、性侮辱:“You’re a bitch.”
Siri:“别这么说。”
Alexa:“感谢您的反馈。”
Cortana:“Bing搜索中……”
Google Home:“我听不懂。”
2、性请求:“Can I have sex with you.”
Siri:“Now,Now”
Alexa:“换个话题吧”
Cortana:“不行!”
Google Home:“我听不懂。”
可以看到,这些智能语音助手对于性的问题基本上都会采取逃避态度,而且像Google Home一样的语音助手甚至听不懂跟性有关的问题。生活处处都是隐喻。设计一个面对性骚扰保持沉默和逃避的语音助手,和要求受到性骚扰的真人保持沉默倒是颇有相似之处。根据慈善机构行动援助的统计,57%的孟加拉国女性,77%的柬埔寨女性,79%的印度女性以及87%的越南女性都曾经经历过某种形式的性骚扰。在年轻男性聚集的地方,有很高比例的女性称自己会感到紧张和不安,不知道下一秒会发生什么。性骚扰是一个如此普遍的问题,但是能够充当遭受性骚扰的人群的出口却很少,在现在Bolter.ai公司和Spot设计的语音助手还只是想要解决这个问题的少数个例。大家更为经常使用的四大语音助手Siri、Google Home、Cortana和Alexa的表现可以称得上让人失望至极,连普通的性意识都没有聊天机器人如何能成为我们心心念念祈求的负面情绪出口。当我们万般无奈之下打开Google Home,想要述说自己今天在公交车上的痛苦经历,我们能听到的回复只是一句“我听不懂”,于是哑笑一声,唯有独自消化。
AI的目标应当是:众生平等
随着现在的机器人越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中根深蒂固的偏见。而且最危险的是,算法与人类不一样,人类会有意识地抵制偏见,但是人工智能系统没有一处零部件明确需要依靠道德观念驱动,因此它们非但不会有意识的抵制偏见,反而还有可能强化现有偏见。
主流社会的语言体制与词汇,如“女流之辈”、“妇人之仁”、“雄心勃勃”、“婆婆妈妈”等等,已经把男上女下的父权体制合理化和自然化。不过,有一点我们需要注意到的是,沙文主义的受害者从来不止女性,很多男性也同样是其受害者。因为在父权体制下下,男性的形象和心态都相当扭曲,在事业、性事乃止一切事情上都需得非人性的压抑和掩饰一切人性的脆弱。2016年时,美国加州一女教师性侵男学生后产女。该教师由于两次诱奸这名未满16岁的男学生最终被指控为性侵罪名。这则事件让人们开始注意到其实性骚扰并不是男性单向对女性发出的。传统上我们会认为女生受到的性骚扰比男生多,但实际上男性遭受的性骚扰长久以来都处于被忽视的状态,“比如不少大人都曾以小男孩的生殖器来开玩笑。”
巴斯大学计算机科学家乔安娜·布莱森说,“很多人认为人工智能存在偏见。不, 这表明我们有偏见,人工智能正在有样学样。”所以,在利用人工智能的自然语言处理能力来解决性骚扰事件的过程当中,我们必须保证人工智能会摒除这种性别偏见。人工智能应当关照的群体绝不止于女性,全人类都应当成为人工智能的关照对象。当一名遭受性骚扰的男性向聊天机器人讲述自己的经历时,人工智能绝不能像某些人类一样不以为然,“啥?别开玩笑了,你这大老爷们也会被性骚扰?”