人工智能发展的道德风险有多大
扫描二维码
随时随地手机看文章
近年来,随着人工智能技术在各行各业中得到广泛应用,AI对人类社会的影响可谓是渗透到了方方面面。在这种背景下,国内也诞生了众多AI科技公司,比如专注于AI+视频的极链科技、又比如说近日推出了城市级全栈式AI解决方案,还介绍了集全局管理能力为一体的城市物联网操作系统的旷视科技等等。可以说,人工智能技术正在这颗星球上如火如荼的进行展开。
但与此同时,人工智能的推进其实也产生了不少问题。例如最近较为火爆的换脸技术产生的数据安全问题、大数据产生的“杀熟”问题、自动驾驶的安全责任问题、人脸识别产生的隐私问题等。路易斯维尔大学网络安全实验室的罗曼教授发表的《人工智能和网络安全:人工智能的失败》便列举过十项重大的人工智能失败案例。比如说特斯拉自动驾驶汽车造成人员伤亡、机器人伤人事件、保险公司利用脸书数据预测事故发生率涉嫌存在偏见等等。这些失败案例可以归结为人工智能系统在学习阶段的错误,也可以归结为人工智能技术的不确定性所带来的道德风险。
人工智能产品除了符合自然规律这个物理性之外,还具有意向性,即人工智能产品也会体现人类的意志和愿望。随着技术的发展,技术改变社会的作用增强,技术的发展可能会远离人类的最初目的和控制。因此,正确而全面的认识人工智能的潜在道德风险,并对其进行规避显得十分必要。
一、人工智能发展引发智能机器的道德主体地位的思考
人工智能离不开算法,而算法是由人类输入的数据,出了问题究竟由谁来负责呢?机器以及算法是否具备成为主题的资格和条件呢?人工智能是否具有道德主体地位呢?这些问题涉及对于道德主体地位的溯源,还涉及人类的道德推理能力是先天赋予还是后天学习的讨论。根据人工智能的现有发展速度和规模,人工智能或许在未来能够发展出具有自我意识的智能产品,这些人类制造出来的智能机器是否也该被赋予与人类同等的权利和地位呢?上述问题都涉及对人工智能产品的主体地位的思考,是我们所必须考虑的。
二、人工智能发展引发新理论问题
人工智能正在以更快的发展速度和水平融入人类社会的方方面面,甚至可以说半个多世纪的人工智能发展远远超过了过去几百年的科技发展水平。而人工智能一旦获得同人类相近的思维能力和推理能力,如何界定人工智能与人类的道德地位将面临道德伦理挑战:人工智能的高效率和低失误率在司法领域的使用,会给传统司法审判带来巨大的法律伦理挑战;人工智能手术机器人将给医疗卫生领域带来医疗伦理挑战。面对如此多的伦理挑战,我们将如何发展或者改进现有的伦理理论体系,使之更好地适应人工智能的发展。既要人工智能更好地服务于人类,又要限制其负面效应,这是人工智能发展面临的巨大挑战。
三、人工智能引发新的社会安全和公平正义问题
人工智能的发展带来信息安全风险。人工智能产品在很多领域已经与人类形成了服务和被服务的关系,如手机语音助手、机动车的轨道偏离纠正等。当这些人工智能产品和人类进行交互时,如何保证使用者的信息安全,或者说使用者的信息一旦被上传到远程终端之后,又将如何保证信息安全,这是一个问题。而且人工智能机器人工作效率高、出错率低、维护成本好、能保证工作的连续性,其在各领域的运用可能会造成对人类就业的冲击。许多人的工作安全和稳定会直接收到人工智能发展的影响,特别是那些不需要专业技术与专业能力的工作。这将导致劳动者失业率和未就业人口总量的提高,这些都不利于社会的稳定和安全。
目前社会已经逐步认识到了问题的严重性,也尝试提出了解决方案:
首先,人工智能的道德风险是预置的,是人类在涉及人工智能之初就预先设置好的。人工智能涉及具有意向性,嵌入了人类的目的,也即道德。在具体的人工智能产品设计上就应该进行道德风险评估,对人工智能可能引起的道德风险有个准确的把握,这样才能防范人工智能可能带来的道德风险。
其次,人工智能需要以不伤害人类为前提。人工智能的设计不应仅仅局限于某一种状态,从设计者的设计理念到人工智能产品都应该规范与约束,才能保障人工智能发展不损害人类利益,不伤害人类。
最后,正义是一个社会健康发展的重要基石,是人类社会发展的价值追求。人工智能在设计、开发之初就应该关注社会的公平和正义。人工智能的设计不应扩大主体间权利与地位的差距,导致实质上的不公平。例如,无人机的技术需要大量的成本,并非所有人都能享受该项技术成果,这就会导致一些落后国家和地区的公平性丧失;使用无人机送快递会造成现有快递人员的失业,导致技术结果的不公平。简而言之,人工智能的设计中要确保其设计目的是为了人类的整体利益而非个人。
综上所述,人工智能技术使技术安全性及隐私保护等各方面的问题变得更加重要且紧迫,因此需要内化技术设计、决策主体的责任意识;并且完善技术设计制度,并促成各类技术主体之间的合作。只有这样,才能有效地规避人工智能道德风险,更好地促进人工智能的健康发展。