人工智能白皮书:深度解读AI技术、产业和战略
扫描二维码
随时随地手机看文章
2011年,奥巴马在卡内基·梅隆大学位于匹兹堡的国家机器人工程中心宣布了美国国家机器人计划(NaTIonal RoboTIcs IniTIaTIve),计划内容包括包括制造业、可持续农业、太空和海底勘探、医疗卫生、交通、个人和国土安全,以及灾难恢复能力和可持续的基础设施建设。
今年5月,联邦机构也参与组成了美国国家科学和技术委员会(NSTC)下属白宫科技政策办公室(OSTP)机器学习和人工智能小组委员会。本期的智能内参,我们推荐来自美国总统行政办公室及国家科学和技术理事会的人工智能战略白皮书。
以下为智能内参整理呈现的干货:
人工智能和机器学习是一个充满潜能的领域,能够提高人的生活质量,帮助解决一些世界上最大的难题和效率低下的工作。而人工智能的基础研究和应用研发方面的投入,也已经逐渐开始回报。
AI有着显然的战略重要性,同时,它也能帮助联邦政府监察世界各地的重要变化,预警全球事态发展,以便及时按需的改变美国的政策。AI在联邦科学、技术、工程、日益强调知识和教育和数学 (STEM) 教育项目等领域都有显著的推进作用。AI 教育也是计算机科学的一个组成部分,总统倡议所有的美国学生,从幼儿园到高中到学习计算机科学和配备的计算思维技能,他们需要更早的进入技术驱动的世界。
| AI应用化进程加速 面临诸多挑战
目前,AI的主流应用为策略游戏、语言翻译、自动驾驶、图像识别等。也有部分AI系统用于商业服务、医疗诊断、教育、科研等领域,公共领域诸应用包括医疗、交通、环境、刑事司法和经济等。政府本身的工作效率也正在随着AI的进步获得更快地响应,更有效地完成他们的任务。
AI在政策方面的主要问题是,其许多产品,如自动驾驶汽车、无人机,需要遵守一定的管理和规范,减少驱动程序错误,增加个人移动性,并保护公众免受伤害,且确保经济竞争更公平。同时,政府也应考虑如何降低管理成本,调动AI的经济效益。
AI主流的社会担忧则在于超智能AI将超越人类的理解和控制,它在关键领域的应用或将造成不可估量的严重破坏。AI专家和从业人员更多的担忧则在于AI衍生的佣工、 助理、 培训师问题,以及系统操作安全和道德问题。
| AI或引发贫富差扩大危机AI最主要的经济影响将体现的自动化技术领域:之前不能自动化的工艺将能够实现自动化。这将有可能提高生产力和创造财富,但它也可能以不同的方式影响特定类型的工作,减少对于某些技能的工作岗位需求,但也可以增加其他技能的工作需求,从而弥补就业率。
白宫局的经济分析顾问 (CEA) 认为,自动化的负面影响将主要体现在较低工资的工作,还有一种最大的风险是,AI 驱动的自动化将增加教育水平低的人和受过良好教育的人之间的工资差距,有可能增加贫富差距。这就需要公共政策来解决这些风险,确保工人的再培训和就业。公共政策也需要推动AI在更广的领域推动经济效益。
| AI管控要求公正、安全随着人工智能技术迈向更广泛部署,技术专家、政策分析家和伦理学家开始担忧的其意想不到的后果。基于AI的人力管理,引发了对如何确保公正、公平和问责制的担忧。同样的问题在2014的大数据白皮书中也提到过。而AI可能的挑战和风险,已然引发了业界专家的关注和预警。
安全方面,最为主要的担忧在于将AI对物理世界的控制从”封闭的世界”(实验室)安全地过渡到外面的”开放的世界”,或许有不可预知的事情会发生。而飞机、发电厂 、车辆、桥梁等问题的安全经验,并不能给AI从业人员足够的启示。
技术层面来讲,安全和公平是同一个的挑战。对于两种情况,AI业者要做的是力争避免无意识的行为,并说服相关利益者AI不会发生意外。
此外,AI从业人员和学生的道德培训是非常重要的一部分。理想情况下,每个学生学习人工智能、 计算机科学或数据科学会面临相关的探讨伦理与安全主题。然而,道德观念是不够的。伦理培训还应注重教育人员在操作时注重必要的细节,避免不能承担的意外。
| AI涉及的国际关系和安全领域
AI是最近国际讨论的热点,作为国家、多边机构感兴趣的话题,利益相关者已经开始引进AI并准备面对挑战。对话与合作可以帮助推动人工智能研发和发挥AI优势,帮助共同攻克难关。、
首先要面对的是AI的网络安全问题,包括防守与进攻性网络措施。目前,设计和操作安全的系统要求大量的时间和人力。部分或完全自动化的AI可能会增加跨系统安全应用范围,并大大降低成本,增加国家的网络防御的敏捷性。AI或可用于及时检测和快速响应,应对不断变换的潜在威胁。
武器系统方面,AI或将创造更高精度、更安全、更人性化的军事环境。然而,直接远离人类控制的武器系统,已然存在诸多伦理及法律问题。目前,美国活跃于致命的自主式武器系统的国际对话,协调国际人道主义法、政府政策以及自主或半自主武器。