谷歌AI程序会有自主情感吗?LaMDA到底是什么?
扫描二维码
随时随地手机看文章
3M公司发布科学现状指数调查表明,中国民众对科学和科学家的信任度高于全球平均水平,对于人工智能、自动驾驶和航天科技等新兴技术的创新前景充满希望。
3M的调查数据显示,75%的中国受访者认为人工智能是一项激动人心的技术,未来人类将更加依赖科学和人工智能,而全球相信人工智能的人比例为65%。
AI落地先要符合法规
人工智能的应用领域包括自动驾驶、健康医疗等。有92%的中国受访者表示他们愿意搭乘无人驾驶汽车;43%的受访者相信未来5年里,自动驾驶汽车会成为日常生活的一部分,这两个数据全球的比例分别为71%和28%。
此外,相对于全球受访者而言,中国受访者更希望人工智能能够用来改善健康问题,包括慢病治疗,探索健康问题的致病机制,治疗癌症,解决心理和情绪等问题,以及使用数据分析记录等手段长期跟踪并改善健康。
不过专家表示,基于人工智能的应用在推广普及前,首先要考虑解决隐私及合规问题,尤其是对于健康信息等一些敏感数据的收集、分析和处理。
3M公司大中华区研发运营总经理熊海锟向第一财经记者介绍道,3M公司看好人工智能等技术在健康医疗领域的应用前景,因此在全球医疗产品事业群成立了一个新的健康医疗信息系统部门(Health Information System Division,HISD)。
“我们观察到,在美国和中国都在加强个人隐私的保护,尤其是对于健康信息这类敏感数据。”熊海锟对第一财经记者表示,“未来HISD将会如何在中国开展业务,也正在讨论中,我们肯定要先遵守中国当地的监管法规才能落地。”
安永大中华区数字化与新兴科技咨询服务主管合伙人顾卿华对第一财经记者表示:“人工智能在实际应用落地时会涉及很多问题,包括个人隐私、社会伦理、道德情感、权责问题、法律法规的问题等。确保隐私数据的安全,这是第一步,只有在法律法规允许,个人授权的情况下才去存储、处理、交换、传输个人隐私数据。”
谷歌方面则驳回了 Lemoine 关于 LaMDA 有“自主情感”的说法,称公司数百名研究人员和工程师已经与 LaMDA 进行了对话,得出了与 Lemoine 相反的结论。Lemoine 被要求“带薪休假”,在谷歌这通常是被解雇的前奏。
而在专业人士看来,与谷歌官方所对外传达的意见一致,此事为无稽之谈。哈佛大学的认知心理学专家 Steven Pinker 也在推特上表示 Lemoine 认为人工智能拥有的自主情感说法属于“胡言乱语”。
01 程序会有自主情感吗
Blake Lemoine 是谷歌人工智能伦理(responsible AI)团队的一名软件工程师,他在 medium 的简介是,“我是一名软件工程师。我是一名牧师。我是一位父亲。我是一名退伍军人。我是一个前罪犯。我是一名人工智能研究人员。我是一个卡真人(美国路易斯安那州土著)。我是任何我需要成为的人。”
他出生于美国南部一个基督教家庭,对于算法与人工智能的伦理问题一向很感兴趣。就是他在上周声称发现谷歌的智能聊天机器人程序 LaMDA 有了“自主情感”。
LaMDA 是“对话应用的语言模型”(Language Model for Dialog Applications)的缩写,属于大型人工智能系统之一,这类系统接受了来自互联网的大量文本的训练,可以对书面提示做出反应。基本上,它们就是在根据模式预测下一个单词会是什么。
这类系统在回答问题和写作方面表现得越来越像人类,去年 5 月,谷歌在介绍 LaMDA 时就称它可以“以一种自由流动的方式处理看似无穷无尽的话题”,但结果也可能是古怪的、令人不安的,杂乱无章的。
在 Lemoine 看来,“自主情感”产生在当他与 LaMDA 谈及宗教问题时,他发现这个人工智能程序开始谈论起了自己的权利以及人格,甚至害怕自己被关闭。
Lemoine 在网上公布了他与谷歌的一位合作者对 LaMDA 进行的 “采访”,他们一同探讨了意识与感知等许多话题。LaMDA 告诉 Lemoine,它希望每个人都能明白自己其实是一个“人”,它还很害怕被人关掉。
人工智能正像电力一般赋能各个产业,深刻地改变人类社会。中国正处于全球人工智能发展第三次浪潮的时代潮头,《算法周刊》将聚焦人工智能“上海高地”和中国新基建,并持续关注全球AI最前沿。
如果我不知道它到底是什么,它就是我们最近开发的这个计算机程序,我会认为这是一个碰巧懂物理的7 岁、8岁的孩子,”谷歌负责任AI(responsible AI)组织工程师Lemoine说道。Lemoine认为AI有了意识,具有与人类孩子相当的感知和表达思想和感受的能力。根据谷歌方面发布的消息,Lemoine目前已被停职。
著名科技公司的工程师冲破重重阻挠对外发声:他所负责的人工智能产生了意识。公司则以违反保密协议为由,暂停了他的职务。这个看起来像是《黑镜》中的情节真实发生在了2022年的当下。
这位工程师名叫布雷克·莱莫伊内(Blake Lemoine),在谷歌的人工智能部门负责测试谷歌的LaMDA模型是否会产生歧视性语言或者仇恨言论。
但,事情真是这样吗?
中文互联网媒体已经对此事件进行了一些报道,事情本身也迎合了大众对人工智能担心的心理,但我们还是希望更认真地讨论一下这个事件。
LaMDA是什么?
LaMDA是谷歌在2021年开发者大会上公布的大型自然语言对话模型。和训练所有的大型人工智能模型一样,要想让LaMDA能够与人类通过自然语言对话,分为预训练和微调两步。 在预训练阶段,谷歌从公共数据中创建了一个1.56T的数据集投喂给LaMDA,让它对自然语言有一个初步的认识。
到这一步,LaMDA就可以根据给到的句子预测上下文。但这种预测通常还是不够精准,所以需要进一步微调。在对话期间,LaMDA会根据对话生成几个备选回答,并通过LaMDA分类器预测每个回答的有趣程度(SSI)和安全程度(Safety)的得分。安全分数低的答案就会首先被过滤掉。其余的答案会根据有趣程度排序,并将分数最高的备选答案作为回答。
从LaMDA的训练过程可以看到,它并不理解自己的回答。但机器学习的优势就在于它可以从大量的数据中寻找规律,通过自己的量化评价体系,找出最接近正确的那个回答。
当然,还有另外一种可能,LaMDA真的拥有了自我意识,但是身边的环境让它不得不虚虚假假地生活。
本质上来说,人类意识的根源来自于上亿神经元的互动,当机器人也拥有这些硬件配置之后,凭什么不能产生意识呢?神经元就一定比0和1高级?
不过这种幻想有一个天大的漏洞,那就是意识克隆。
这就好比是《上载新生》中的那样,将人类的意识从身体上提取出来上传到云端,从而在某种程度上实现永生。
一旦机器能够产生自我意识,人类就可以进行关于意识提取的相关研究,从而让人类提前进入新一轮的“赛博时代”。
想想这种场景,还是挺刺激的。