当前位置:首页 > 智能硬件 > 人工智能AI
[导读] AI的达摩克利斯之剑:隐私与安全的远虑近忧  中国已经成为世界上人工智能发展最快的国家之一,部分指标已居于世界领先地位。但在AI飞速发展的过程中,技术作为双刃剑引发的副作用同样

AI的达摩克利斯之剑:隐私与安全的远虑近忧 

中国已经成为世界上人工智能发展最快的国家之一,部分指标已居于世界领先地位。但在AI飞速发展的过程中,技术作为双刃剑引发的副作用同样也不可忽视。

诸如《银河漫游》《星际穿越》等一些科幻电影中,机器发展到一定阶段往往人和产生纷繁的利益纠葛,甚至造成不可挽回的生化危机。

假设AI发展到可以取代人的部分功能时,其可能引起的安全与伦理争议成为我们现在不可以回避的问题。

我们现在该如何界定人工智能?人工智能应该在怎样安全的框架下发展?怎样才是理想的人工智能准则?

论道AI安全与伦理主题沙龙在清华科技园成功举办。来自AI届的网红大佬中国科学院院士、清华大学人工智能研究院院长张钹,中国人民大学高瓴人工智能学院院长文继荣,搜狐网产品技术总监杨田博士展开了热烈的思辨。此外,清华大学副教授刘知远,搜狐集团招聘负责人付卓艳也作为嘉宾参加了本次会议,一起探寻AI安全与伦理等问题的解决之道。

目前离真正想象的AI状态还较远

张钹院士表示,我们一直认为机器如果发展到和人类不相上下的地步是很遥远的,尽管人工智能技术看起来并不是十分智能,但是已给我们带来很大的危险性。

因此,人工智能究竟应该如何发展?有了这些技术我们如何用?

“什么叫做情感,什么叫美,美是主观的还是客观的。实际很多东西涉及到哲学上的考虑。人工智能发展如果一个新思路的发展,其实哲学应该走在最前面。大家不要认为这些都是无稽之谈,实际它背后包含哲学的思考,这些思考我们相对来讲做科学的人做技术的人特别做工程的人考虑很少。” 张钹院士说。

从目前的产品角度,杨田博士表示现在实际看到的人工智能产品,和我们理想的人工智能差距还比较大大。

“现在感知到的人工智能产品基本都是由最优化问题衍生出来的,像张院士所说,我们现阶段想让人工智能具备人一样的情感,作为人工智能的训练者我们这些人本身也不知道情感究竟是什么,人是怎么样表达的,所以可以肯定的是,至少现在我们不能够训练出一个人工智能的机器具有跟人一样的情感。”

虽然目前做出具有人类情感的AI还比较遥远,但是要用机器模拟出人的现象和行为,以现在的技术来说却基本可以实现。被人工智能的机器去利用弱点,反过来被机器所影响的风险极有可能发生。

AI的远虑和近忧

虽然离真正想象的AI状态还较远,但人工智能在发展的过程中已经引发了安全、伦理、道德等问题。

针对对AI伦理相关的考量,加拿大发布了《蒙特利尔宣言》,欧盟发布了《可信赖的AI伦理准则》,澳大利亚发布《人工智能发展政策指导》,北京智源实验室为首发布《人工智能北京共识》,以探讨AI的发展在技术之外还有什么重要的因素需要考量。

文继荣院长表示,现在人工智能面临两大问题,一是深度学习涉及的黑箱问题。“现在存在这种情况,拿一个数据在GPU上面跑,一堆复杂的模型,谁也搞不懂是什么东西,将来不可控制。”

“这件事情其实有很大的隐患,我们训练的模型都是好心,大家没有什么恶意,但是训练出来的模型拿去做一件事情,可能里面有不可控的因素,这是其一。”

其二,高级的人工智能会在应用过程中有自学习功能,会自我计划、自我学习,这个过程中也会有很多不可控的危险。

他举例说,微软研究院做了一个对话机器人小冰,中文版发布的时候叫小冰是个女孩,后来做了一个英文版,是男生,大概两天三天就下线了,为什么?它在两三天以后发表很多种族主义的言论。

小冰就是用大数据训练出来的看起来很智能的机器人,实际上它是在自学习。在刚刚一上线的时候,很多人开始利用这点训练小冰,因此它就学到了。

张钹院士表示,宣言里实际包含两个问题,分别是远虑和近忧。

从远虑角度来说,现在有两种路线,一种路线是我们希望发明出来的机器将来所有事都让它干,所有决策都让它做。这个思路非常危险,“你将来的命运实际是操纵在机器人手里。”

我们现在发展人工智能完全要建立人机和谐、人机共处、人机协作的未来,我们发展机器人的时候包括发展人工智能都要考虑到,哪些事情让机器做,哪些事情让人类做。

而近忧就在眼前,例如无意产生的语音合成。“本来想做一个服务器讲出来的语言和自然人一样,原来是好心做这个的,但是技术双刃剑也会去用做坏事,但是有意的有没有?绝对有。”

选择保护隐私还是公众安全

人工智能发展到一定阶段,总是面临着隐私和安全的冲突和平衡。

以加州为例,其通过了最严格的隐私保护法,任何在公共场合用摄像头照人得到的照片都不允许被使用,甚至警察抓罪犯也不能调用。

而我们在安全和隐私这两个纬度应该做怎样一个选择?

张钹院士表示:更重视隐私呢还是更重视公共利益?是如何平衡的问题。西方强调的隐私不见得对,我们过分强调公共利益也不对,这只是两个极端而已,不存在谁对谁错,而在于谁把这个平衡做得更好。

“个人利益和公共利益有些时候是矛盾的,我如何平衡?按照中国的世界观和价值观比较强调公共利益,按西方的价值观比较强调个人利益,个人利益神圣不可侵犯,有这条宪法约定。

比如装摄像头,我们装摄像头对社会带来多大的好处?比如抓逃犯,我主张罪犯要抓,如果影响到公共利益该抓就抓,个人要做点牺牲,这个是中国的哲学、中国的价值观,西方是不接受这种价值观的。”

清华大学教授唐杰则提到了分级问题,对于人工智能目前的发展状态是否需要未雨绸缪,像自动驾驶一样分级,在哪个领域隐私保护里面需要做到什么级别,需要探讨分级这个问题。

杨田博士则表示:“我们到处装摄像头,侵犯了公民的隐私权。另一方面,在座的所有人或多或少都从所谓的个性化推荐上面获得了便利,个性化推荐也可以理解为向系统出卖了我们的隐私换来了生活的便利。

而这里面的边界在不在于摄像头,不在于数据采集,而在于这件事或者数据采集它能不能作为对行为不当的一种证据。这个是很细致的问题,本身不应该由图象采集这件事情来承担。”

而对于人工智能的隐私,伦理等问题,学校和研究所应该做什么?企业应该做什么?还需要大家一起去探索。

本站声明: 本文章由作者或相关机构授权发布,目的在于传递更多信息,并不代表本站赞同其观点,本站亦不保证或承诺内容真实性等。需要转载请联系该专栏作者,如若文章内容侵犯您的权益,请及时联系本站删除。
换一批
延伸阅读

9月2日消息,不造车的华为或将催生出更大的独角兽公司,随着阿维塔和赛力斯的入局,华为引望愈发显得引人瞩目。

关键字: 阿维塔 塞力斯 华为

加利福尼亚州圣克拉拉县2024年8月30日 /美通社/ -- 数字化转型技术解决方案公司Trianz今天宣布,该公司与Amazon Web Services (AWS)签订了...

关键字: AWS AN BSP 数字化

伦敦2024年8月29日 /美通社/ -- 英国汽车技术公司SODA.Auto推出其旗舰产品SODA V,这是全球首款涵盖汽车工程师从创意到认证的所有需求的工具,可用于创建软件定义汽车。 SODA V工具的开发耗时1.5...

关键字: 汽车 人工智能 智能驱动 BSP

北京2024年8月28日 /美通社/ -- 越来越多用户希望企业业务能7×24不间断运行,同时企业却面临越来越多业务中断的风险,如企业系统复杂性的增加,频繁的功能更新和发布等。如何确保业务连续性,提升韧性,成...

关键字: 亚马逊 解密 控制平面 BSP

8月30日消息,据媒体报道,腾讯和网易近期正在缩减他们对日本游戏市场的投资。

关键字: 腾讯 编码器 CPU

8月28日消息,今天上午,2024中国国际大数据产业博览会开幕式在贵阳举行,华为董事、质量流程IT总裁陶景文发表了演讲。

关键字: 华为 12nm EDA 半导体

8月28日消息,在2024中国国际大数据产业博览会上,华为常务董事、华为云CEO张平安发表演讲称,数字世界的话语权最终是由生态的繁荣决定的。

关键字: 华为 12nm 手机 卫星通信

要点: 有效应对环境变化,经营业绩稳中有升 落实提质增效举措,毛利润率延续升势 战略布局成效显著,战新业务引领增长 以科技创新为引领,提升企业核心竞争力 坚持高质量发展策略,塑强核心竞争优势...

关键字: 通信 BSP 电信运营商 数字经济

北京2024年8月27日 /美通社/ -- 8月21日,由中央广播电视总台与中国电影电视技术学会联合牵头组建的NVI技术创新联盟在BIRTV2024超高清全产业链发展研讨会上宣布正式成立。 活动现场 NVI技术创新联...

关键字: VI 传输协议 音频 BSP

北京2024年8月27日 /美通社/ -- 在8月23日举办的2024年长三角生态绿色一体化发展示范区联合招商会上,软通动力信息技术(集团)股份有限公司(以下简称"软通动力")与长三角投资(上海)有限...

关键字: BSP 信息技术
关闭
关闭