你就是个loser
首页
美剧
历史
伦理
偶像
日剧

伦理

当前位置:北京pk10赛车 > 伦理 >

Google再与军方合作 AI伦理的边界在哪里?

编辑:卢本伟2019/01/10 04:54

  在最近大火的一段关于AI伦理的中,艺术家Alexander Reben没有任何动作,但是通过语音助手下达命令:“OK Google,。”

  而法律上的民事主体资格依然是AI伦理的分界线。在过去的一段时期,美英等国的哲学家、科学家包括法律家都为此开展过激烈的争论。2016年,欧盟委员会法律事务委员会向欧盟委员会提交,要求将最先进的自动化机器人的身份定位为“电子人”(electronic persons),除赋予其“特定的和义务”外,还为智能自动化机器人进行登记,以便为其进行纳税、缴费、领取养老金的资金账号。该项法律如获通过,无疑使得传统的民事主体制度产生。

  网络空间是一个真实的虚拟存在,是一个没有物理空间的世界。在这里,人类实现了与分离的“数字化”,拥有了“数字化人格”。所谓数字化人格就是“通过个人信息的收集和处理勾画一个在网络空间的个人形象”——即凭借数字化信息而建立起来的人格。

  这无疑是一件大事。“胜利的消息”在谷歌内部疯传。随着一篇篇报道的蜂拥而出,这件事情似乎暂时以谷歌“向员工、停止与续约”的方式得以落幕。

  

伦理

  而在AI中,基于互联网和大数据的支持,其拥有着用户大量的使用习惯和数据信息。如果说“过往数据”的积累是机器的基础的话,那么资本力量的驱动则是更深层次的原因。

  而这种并不仅仅是“另眼相看”本身——毕竟将一张黑人的照片打上“猩猩”的标签,只是有点罢了。而人工智能的决策正走入更多与个人命运切实相关的领域,切实影响着就业、福利以及个人信用,我们很难对这些领域的“不公平”视而不见。

  还有一部分人质疑Google如此使用机器学习技术是否符合标准,他们认为五角大楼会将这一技术用于杀伤性武器,进而带来技术乐观派们从未想要造成的。

  上周五,在每周一次的“天气预报”例会上, Google Cloud首席执行官黛安·格林(Diane Greene)宣布,Google 将在这次合约到期后结束与美国的合作的Project Maven。

  这着实让人细思极恐。智能(aixdlun)分析师柯鸣认为,随着AI弊病的凸显,AI伦理问题也将日益得到重视。AI伦理的边界到底在哪里?首先应该明确几个问题。

  

伦理

  从严格意义上说,机器人不是具有生命的自然人,也区别于具有自己意志并作为自然人集合体的法人。若以机器人的行为于AI本身,确实行之过早。

  在这个视频中,Reben告诉AI。Engadget在报道中说,如果AI足够智能以预测我们的需求,或许有一天AI会主动除掉那些让我们不开心的人。Reben说,讨论这样一个装置,比是否存在这样一个装置更重要。

  然而,不到一秒的转瞬之间,Google Assistant扣动了一部的扳机,击倒了一颗红苹果。随即,蜂鸣器发出刺耳的嗡嗡声。

  随着人工智能技术的快速发展,机器人拥有越来越强大的智能。机器与人类之间的差距也逐渐缩小,未来出现的机器人将拥有生物大脑,甚至可以与人类大脑的神经元数量相媲美。美国未来美国未来学家甚至预测:在中叶,非生物智能将会10亿倍于今天所有人的智慧。

  Facebook信息泄露事件中,一家名为剑桥分析(Cambridge Analytica)的公司使用人工智能技术,针对任意一个潜在选民的“心理特征”投放付费广告;而投什么样的广告,取决于一个人的倾向、情绪特征、以及易受影响的程度。很多虚假的消息在特定人群中能够迅速、增加,并潜移默化地影响人们的价值判断。技术克里斯托弗·威利最近向了这个人工智能技术的“食粮”来源——以学术研究为名,有意攫取的5000多万用户数据。

  退而言之,即使不存在数据泄露问题,对用户数据的所谓“智能挖掘”也很容易游走在“合规”但“有违公平”的边缘。至于AI伦理的边界,信息安全成为每一个互联网时代下“信息人”的最基本底线。

  随后,谷歌超过3100名员工,CEO桑达尔·皮查伊(Sundar Pichai),表达。

  

伦理

  亚马逊的Echo设备被未经许可将私人对话录音,并将音频发送给用户联系人列表中的随机一位人士。这距离上次Alexa被爆出“嘲笑人类”事件的吓人事件,还没过过去多久。

  身份似乎已经不再成为机器人的难题。去年十月,世界首个获得身份的机器人索菲亚诞生,这也意味着人类的创造物拥有了和人类等同的身份,以及其身份背后所拥有的、义务、和社会地位。

  人工智能在判断上失误的一个,是它经常会 “歧视”。使用最先进图像识别技术的谷歌曾经陷入“种族歧视”的,只因它的搜索引擎会将黑人打上“猩猩”的标签;而搜索“不职业的发型”,里面绝大多数是黑人的大辫子。哈佛大学数据隐私实验室教授拉谭雅·斯维 尼发现,在谷歌上搜索有“黑人特征”的名字,很可能弹出与犯罪记录相关的广告——来自谷歌智能广告工具 Adsense 给出的结果。

  同样,随着AI入侵招聘领域、金融领域、智能搜索领域等等,我们所训练出来的“算法机器”是否能够真正的万无一失。在求贤若渴的当代社会,算法是否能够帮助公司选出千里挑一的那个人,这都有待考究。

  这可远远不是个例。早在2016年,一个人设为19岁少女、名为Tay的聊器人在推特上线。这个微软的人工智能采用了自然语言学习技术,能够通过抓取和用户互动的数据,处理并模仿人类的对话,像人一样用笑话、段子和表情包聊天。但是上线不到一天,Tay 就被“调教”成了一个满口着种族清洗、粗野不堪的极端,微软只好以“系统升级”为由将其下架。

  那么,歧视的来源是哪里?是打标签者的,是数据拟合的偏差,还是程序设计哪里出了bug?机器所计算出的结果,能为歧视、不公、提供理由吗?这些都是值得商榷的问题。

  故事要从今年三月初说起。今年三月,Google被爆料已经与美国(五角大楼)达成合作,帮助后者开发应用于无人机的人工智能系统,项目代号Project Maven。消息一出,瞬间风起云涌,谷歌员工表达了对此项目的强烈不满。有员工认为Google在为五角大楼资源,般地帮助后者打造无人机技术;

  事情到四月底进一步发酵。有发现,Google 删掉了其沿用十八年的座右铭“Dont be evil”在公司行为守则开头中的三处强调。仅在准则的结尾,还留有未被删掉的一句:“记住,dont be evil,如果你看到了一些你认为不正确的事情,大声说出来!”

  人工智能不是一个可预测的、完美的机器,他的伦理缺陷由算法、人们使用的目标和评估。但是,至少从目前来看,机器依然是人类实然世界的反应,而不是“应然世界”的指导和。

  但就在昨天,谷歌CEO Sundar Pichai发表了署名题为《AI at Google: our principles》的文章,列出7大指导原则,并指出谷歌并不会终止与美军的合作。谷歌的反转让人唏嘘,虽然其明确了“不会追求的AI应用”,但技术还是人的问题,AI伦理再次引人深思。