[h1]AI在既定规则下以结果为导向,效率为优先,算法选取最优路径以求最快到达结果,而底线根本不存在于它们的字典中。[/h1]
[h1]美国前国务聊基辛格最近在《大西洋月刊》上发表了一篇文章,表达了对人工智能的担忧和悲观态度。[/h1]他认为:从各个角度来说,无论是哲学思辨还是智商水平,我们人类还远远没有为人工智能时代的到来做好准备。Philosophically, intellectually- in every way- human society is unprepared for the rise of artificial intelligence. 人工智能时代的到来,终结了自十五世纪印刷机发明以来,人类以科学、实践、理性分析为主的认知方式,让人类失去了思考的能力;现有的世界秩序被打破,人类被机器控制,处在“失控”的边缘,整个世界只依赖数据和算法,不再受人类道德伦理和哲学规范的约束。
向前一步看,人工智能有可能误解人类的指令,导致偏离原本的目标,甚至有可能反过来影响和改变人类的思考方式和价值观。
那如果人工智能即使能帮助我们达到预期目标,却无法给出理性的解释,那他们会不会有一天拒绝服从人类,而且也不向人类做出解释呢?
[h1]总之,基辛格就是要提醒人类,尤其是政府,必须要控制AI的发展。[/h1]
联合国从2016年起,就开始发布《人工智能政策报告》 这篇报告,旨在为各国提供政策建议,帮助各国政府,应对人工智能和技术发展带来的问题;而欧盟、德国、韩国等在人工智能研究方面领先的国家,也设立了伦理委员会,制定了人工智能的伦理规范,确保研究机构和制造商提供的是安全可靠的人工智能产品和服务。
现在人工智能的核心技术,还都掌握在科技巨头的手里,这就给监管带来了很大的难度。
比如说,怎样建立一个合理的监管体制,能够既不妨碍创新,又不偏袒大公司?监管的范围又如何界定,是按本地来算,还是按国家算,还是按照全球范围来算?这些都是现实问题。
在这些问题上,从政府到人工智能行业的领军者们,都做出了积极的尝试,比如联合国从2016年起,就开始发布《人工智能政策报告》,为各国提供政策建议,帮助各国政府,应对人工智能和技术发展带来的问题;而欧盟、德国、韩国等在人工智能研究方面领先的国家,也设立了伦理委员会,制定了人工智能的伦理规范,确保研究机构和制造商提供的是安全可靠的人工智能产品和服务。
在不久将来,这些在人工智能伦理监管方面的努力,也会带来更令人乐观的成果。
要做到拥有类似人类思维能力的人工智能是可能的,我们可以制造不断自我更新自我进化的人工智能,随着人工智能的不断的自我进化,其可以产生基于机器自身的逻辑体系 和思维方式。
这种思维方式零星的偏移就可能产生蝴蝶效应式的巨量偏移,其对人类社会的存在造成的影响是不可预知的。梅辛革提出过一个极端假设:如果3辆谷歌无人驾驶汽车与两辆普通车辆交错行驶,突然路面冲出一只狗。“无人驾驶汽车必须立即做出反应,让谁拥有更大的生存机会?是狗,还是自己车上的乘客,或是普通车辆里的乘客?”这对人类而言尚是一个难解的道德问题。人工智能只被要求尽快做出“正确”反应。 [h1]但更重要的问题是:人类是只想让人工智能的行为自主,还是道德思考能力也能自主?一旦人工智能独立进行伦理思考,是否会产生与人类不同的价值观?人类是否该承担这一风险?[/h1]因此,人工智能需要一套“价值论”规则,在这套规则下让它们拥有一定程度的思想自主和自由的权利。然而,这样一套“价值论”规则很难实现,因为人类社会尚不能形成统一的价值标准。
[h1]今天的问题,监督肯定是由亚马逊公司来负责,对于人工智能伦理,但我更想说的是[/h1]“那就是我们都要尽可能最小化给有意识生物可能造成的痛苦,即为所有生命体造福的准则。” |