您所在的位置: 新闻频道 > 嘉兴新闻 > 图说嘉兴 > 正文
天津白癜风能治愈吗
嘉兴在线新闻网     2017-11-19 14:32:21     手机看新闻    我要投稿     飞信报料有奖
天津白癜风能治愈吗,济南根治白癜风的论坛,云南治白癜风的药物,马尔康白癜风医院,商河治疗白癜风的医院,河南能治白癜风的设备,凯里白癜风医院

  科幻电影《机器人瓦力》中,瓦力开始具有自我意识,会好奇、会孤独、有梦想,最后还产生了爱情。

  科幻电影《机械姬》中,机器人“艾娃”不择手段杀死了创造自己的人。

  今年1月,在美国加州阿西洛马召开的“阿西洛马会议”上,包括844名人工智能和机器人领域的专家基于对人工智能和机器人迅猛发展的深切关注,联合签署了《阿西洛马人工智能原则》,呼吁全世界的人工智能领域的工作者遵守这些原则,共同保障人类未来的利益和安全。

  在这总共23条关于人工智能和机器人的“军规”当中,关于必须让它们更有道德的条款格外引人注意。越来越多的科学家开始认为,无论是听话的还是不听话的人工智能,对于人类来说都有危险性,只有和人类具有一样价值观,甚至成为“道德楷模”,人工智能才能真正成为人类的好朋友。  

  文、图:广州日报全媒体记者金叶

  听话的机器人VS不听话的机器人 哪个更安全?

  在关于人工智能会给人类带来的潜在危险的各种想象中,人工智能通常被认为是冷血的。比如在2015年的一部科幻电影《机械姬》(Ex Machina)中,机器人“艾娃”(Ava)诱骗了一个倒霉的年轻男子,让他帮助自己杀死了创造自己的纳森(Nathan)。“艾娃”的行为在人类看来是邪恶的,但这种不择手段也要向往自由的行为,换个角度来审视,或许也是某种正义:正如被杀死的纳森一开始就想到的那样:“有一天,人工智能机器看向我们时,就像现在的我们看着非洲平原上的化石残骸。它们眼中只会看到一种说着粗鲁语言,用着低级工具的直立行走着的猿类——一个注定要被淘汰的物种。”

  出于这种担忧,很多研究机构已经在未雨绸缪,比如,谷歌的人工智能机构正在研究一个能够让人工智能软件停止运作的“红色大按钮”。这是一个关闭人工智能的开关,但它并不像我们的家用电器的开关键这么简单,因为人工智能本身有深度学习的能力,这就意味着如果它认为逃避人类的打断可以增加预期收益,它就会想办法阻止人类“关机”——而谷歌想要做到的是,探索“一种确保机器人不会试图防止(或寻求)来自环境或人类的打断的方法”。

  但这其中似乎存在一个悖论,因为很多时候,机器人又必须学会对那些无法完成或可能伤害自身或违反道德的命令说“不”。否则,机器人及人工智能技术会放大人为错误,或被一些不法分子利用。所以,又有科学家在致力于发明不听人类命令的机器人。一个最近比较知名的案例是,美国塔夫茨大学人机交互实验室的研究者在机器人前行的路上被布置障碍物,当科学家要求机器人继续向前走时,遭到了机器人的拒绝。换句话说,机器人必须服从人类命令这一法则已然遭受了挑战。进行这个实验的科学家表示,他们研究这个课题当然不是让机器人去挑战人类,而是因为人类往往会给机器下一些非常荒谬的命令,所以整体上来说研究者们希望人能与机器更好地交互。

  老问题又出现了:当聪明的机器人被赋予深度学习能力,甚至能够轻而易举地发现人类犯下的错误时,他们是不是会走上反抗人类的道路?

  讲道德的机器人最安全!

  在这种种担忧之下的出台的《阿西洛马人工智能原则》,被视作是对人工智能和机器人的发展而产生的对人类难以估量的影响的长期观察、思考的一次集中性表达,在更深远的意义上,又可以被看作是科学家顶替缺位的哲学家、人类学家、伦理学家对人类自身的性质、地位和价值的一次严肃思考。

  在这23条关于人工智能的“军规”当中,有一条规定特别引人注目:人工智能系统应该被设计和操作为与人类尊严、权力、自由和文化多样性的理想相一致。换句话说,人工智能具有正确的“三观”是非常有必要的。

  北京大学心理与认知科学学院教授朱滢表示,实际上,人工智能已经足够聪明威胁到我们,哪怕这个过程是无意识的。就好像病毒没有意识,也没有智力,但它对人类十分危险是一个道理。举个例子,如果人工智能的主要野心是制造愈来愈多的曲别针,或者它就是想要计算圆周率的无穷位数,那它就会不惮使用地球上的所有物质来实现自己的目的,人类就会无处跻身。这个过程无疑是危险的,它危险不是因为人工智能有意识,只是因为它具有超高的智力,同时又不具备恰当的伦理观念,或者说——没有道德造成的。

  上海交通大学科学史和科学文化研究院副教授杜严勇表示,对人工智能产品进行伦理设计是解决其安全问题的基本进路之一。近十多年来,机器人伦理问题得到越来越多西方学者的关注。机器人伦理研究的主要目标,就是让机器人在与人类互动的过程中,具有一定的道德判断与行为能力,从而使机器人的所作所为符合人们预设的道德准则。从理论上看,根据人类预设的道德原则进行道德决策的机器人可以成为只做好事的“道德楷模”,而且在一定程度上还可以避免人们对其的不当使用、恶意利用或滥用。

  三种模式实现人工智能的道德抉择

  美国学者瓦拉赫(Wendell Wallach )和艾伦(Colin Allen)认为,将来人工智能系统必定会独立于人类的监管,自主做出决定,他们把能够做出道德抉择的人工智能系统称之为人工道德行为体( artificial moral agents,简称AMAs )。瓦拉赫和艾伦相信,在机器人身上实现人工道德,使机器学会和正能量的人类一样讲道德。他们为人工智能的道德抉择设计了三种实现模式:“自上而下的进路”、“自下而上的进路”以及“混合进路”。

  自上而下的进路是指选择一套可以转化为算法的道德准则作为机器行为的指导原则;自下而上的进路类似于人类的道德发展模式,通过试错法培养道德判断能力。不过,这两种方式均有一定的局限性。比如,第一种进路把一套明确的规则赋予机器可能是不合理的,同一种原理在不同的情况下可能会导致不同的相互矛盾的决定。后一种进路要求机器能够自我发展进化,而人工智能系统的学习与进化能力的提高将会是一个比较缓慢的过程。混合进路在一定程度上,可追溯到亚里士多德的美德伦理学,它把两种进路统一了起来:一方面,美德本身可以清楚地表述出来;另一方面,它们的习得又是典型的自下而上的过程。

  “瓦拉赫和艾伦为我们描述了使机器人成为‘道德楷模’的可能性。如果他们以及其他类似的方案能够得以实现,人工智能系统就可以做出人类认为正确的道德决策。在人类的道德活动中,非理性因素(比如情感)也会起到关键性作用,瓦拉赫和艾伦也讨论了把理性和非理性整合到人工智能系统中的可能性。不过,我认为,为了保证人工智能系统的安全性,我们可能希望人工智能系统的道德判断更为理性和客观,并不需要增加过多的非理性因素。”杜严勇认为。

  虽然要真正实现对人工智能的伦理设计还有许多具体的工作要做,但是从机器人伦理研究的勃兴及取得的初步成果来看,在人工智能产品中实现人工道德完全是可能的。人们也更容易相信,一个能够根据我们的预设做出合理的道德判断和行为的人工智能系统,对我们来说才是真正安全可靠的。


来源:嘉兴在线—嘉兴日报    作者:摄影 记者 冯玉坤    编辑:李源    责任编辑:胡金波
 
 
玉环白癜风医院