facebook泄密门主角Cambridge Analytica面临破产 成立团队完善人工智能软件
扫描二维码
随时随地手机看文章
facebook泄密门被曝光之后,Facebook已经聘请了外部专业公司,对数据泄露事件展开调查,并禁止了Cambridge AnalyTIca以及母公司使用Facebook的任何数据。
虽然Facebook一直坚称在尽力保护用户数据,但该数据泄露事件还是引起了对于科技企业监管的大讨论。而Facebook泄密主角Cambridge AnalyTIca则面临破产。
Facebook泄密主角Cambridge AnalyTIca面临破产根据多家外媒报道,Facebook泄密门的主角剑桥分析(Cambridge AnalyTIca)现已关闭所有业务,并称正面临破产。Cambridge Analytica是一家数据研究公司,因为深陷滥用用户数据的丑闻漩涡,最近几个月饱受有关隐私和违规收集数据的指控。
据报道,该公司现已在英国申请执行破产程序,并将在纽约联邦法院寻求破产保护。C在一份声明中表示,媒体报道的围攻几乎已经赶走了公司的所有客户和供应商,“确定经营业务已经无法持续。”
而Facebook方面则表示,仍将继续关注剑桥分析公司滥用数据的情况,即便该公司面临倒闭。一位来自华盛顿的数字宣传组织人士称,就算Cambridge Analytica已经不在,对于Facebook隐私政策的批评不会随之消失。
Cambridge Analytica的数据泄露丑闻曝光后,Facebook收紧了对通过应用收集信息的控制。据此前的报道,该公司通过一个个性测试APP秘密收集用户数据,并用于一些特别的目的。3月份,Facebook暂停了应用评论功能。这一系列事件也促使欧洲收紧了对隐私方面的立法。
现在Facebook对该公司的审计已经暂停,英国监管机构已经对此介入调查。Cambridge Analytica方面也表示,将协助有关部门调查。
Facebook成立专门团队确保人工智能系统符合道德标准
周三,在F8开发者大会上,该公司透露,它成立了一个专门团队并开发了独立的软件,以确保其人工智能系统在做出决策时尽可能符合道德标准,减少偏见。
譬如翻译系统必须首先接受数据培训,道德强调有助于确保Facebook的智能系统提供公平翻译。
业界认为人工智能研究人员必须努力使他们的系统具有包容性。去年,Alphabet的深度学习人工智能团队组建了一个道德和社会小组。此前,微软的研究机构成立了一个公平责任、透明和道德小组。人工智能领域也有自己的尴尬之处,就像三年前谷歌照片(GooglePhotos)将黑人归类为大猩猩一样。
之前克鲁曼团队开发了一款名为“公平流”(Fairness Flow)的软件,该软件后来被整合到Facebook广泛使用的内部软件中,以便更容易地培训和运行人工智能系统。
克鲁曼说,自从她于2016加入facebook以来,她就一直致力于公平问题。科技行业的人们开始更公开地谈论它,社会也对人工智能力量感到担忧。
与此同时,Facebook知道它可以做更多的工作,聘用有多种想法和背景的人工智能研究人员,以尽量减少其软件中的偏见。该公司的人工智能研究小组一直在Facebook硅谷总部以外的地方开设实验室——最近一次是在蒙特利尔。