「亚马逊语音助手劝主人自杀」事件出现,人工智能的伦理应该由谁监督?

论坛 期权论坛 工作     
爱的用户   2020-2-9 14:51   15058   5
分享到 :
0 人收藏

5 个回复

倒序浏览
2#
热心小回应  16级独孤 | 2020-2-9 14:51:45 发帖IP地址来自
看了亚马逊的回应,判断应该是一场由于算法机制问题而导致的乌龙,但仍旧引发起不算小的讨论,看起来,当代人还是对于人工智能应用落地的潜在隐患存在一定的担忧,毕竟 AI 与科技发展如此迅猛,谁都不能保证在漫长的未来会出现什么问题。
无数赛格朋克电影已经以影像化的方式预示了这种人类与机器「共生」的多样未来,这也是科技主义和哲学学者一直在探讨的议题。
在这里,主要讨论以下三个方面:
  • 我们应以何种方式面对「担忧与恐惧」?
  • 这种「担忧与恐惧」的本质是什么?
  • 「技术与人」的关系是否被夸大?
我们应以何种方式面对「担忧与恐惧」?
基于问题「人工智能的伦理应该由谁监督」,其实一种更为开阔的思路应该是,比起讨论「人类需要如何监督人工智能」这种主客观清晰的预设(人为主,AI 为客),讨论「两者如何和谐共生共处」的流变关系本身更为重要。

当代哲学家与女性主义理论家 Braidotti 在 2013 年出版的 The Posthuman 书中指出,后人类主义不应停留在人文主义仅关于的危机的批判之中,而是更应放眼于持续流变的「关系」中,将其当做主体,从这样的角度反思认识自身,人才可能看待自己的有限性(不仅不具备「绝对理性」,甚至并不「独立自主」)以及与其他物、物种之间的互相依存性。
这样说来,这种「其他物、物种」已经不再局限于 AI,而是一切技术与除人之外的物体总和。
而「后人类」问题也并非简单的技术达尔文主义对人性的侵蚀问题,而更关乎人类与外部世界、人与物、人与他人、人与社会之间的关系变迁。

这里就需要提到一个「后人类」的概念,1985 年,美国科技与社会研究学者(同时也是女性主义学者)Donna Haraway 提出「赛博格宣言」,开放了对于「传统自由人文主义主体」(即大写的人)的挑战。与「赛博格宣言」类似,「后人类」思考的是一种「界限模糊感」,不在于人与机器之间是否真的能够接合,而是在人与非人界限的崩溃与模糊中,持续探索另一种生存的可能。
所以,「后人类」实际讨论的就是:「我们如何可能不再是人?」这里的「人」指的自启蒙运动起被定义的「理性自主的主体」。
那么,这样的「另类后人类主体」到底会是什么呢?社会学家们从「双重去中心化」的角度尝试去勾勒出这个赛格朋克时代下人类的形象,简单来说,「双重去中心化」一是去除「人类中心主义」,二是跳出以「身体与意识」为中心的个体化主体观。
(是不是觉得非常拗口!)
实际上非常简单,第一就是人类不要以居高临下的姿态看待众生,第二是组成主体的应该是人与那些「人的延伸」,就比如你在写作业,完成作业的不仅只有你,还有笔和本,这是你们共同协作的成果。
从这个角度来说,所谓的「自我」是各类「工具」持续变动的结合体,是一个「混杂主体」,在其中并没有一个「自我所在」的核心,因为在不同的「工具使用」脉络中,它自身的样态也不断地改变,它既推动中介的转换,也一次又一次地被卷入其中。
(是不是又觉得非常拗口!)
拿技术发展翻译一下,就是人类升级技术,技术又反过来作用于人,而人并不是其中的主体,「人与技术」的流变关系才是主体。
回到 Braidotti 所说的,对于后人类主题的探索(例如对 AI 伦理的思考)也就是在探究「另类主体」的可能性,我们其实是在问:该如何在现代的掌控欲望(例如标题中提出的应该如何监督)、科学客观主义,以及对于自然的「绝对支配」之外,寻求另一种生存与全球化的可能。
只有认识到自身总是处于这样的关系之中,人类才会更加谦卑的谨慎的考量各种行动后果与责任。
人类「担忧与恐惧」的本质是什么?
孙凝翔老师在去年谈到基因编辑婴儿事件的时候,写了一段话,大概能很好的解释这个问题:
每個現代人都經歷著《城堡》中 K 的命運,「不喜歡」現存的世界,「可是只能這樣做」。於是每當我們談起「後人類」時,我們所說的絕非未來,而恰恰是過去,是一種懷念,是一齣悲劇,是一個無法返回的溫柔世界,是一片可以踩踏的青綠草地,是那些愛與被愛的可能。對於我們來說,未來正是過去的倒影,那個過往的世界中不僅存在著「真實的綿羊」,還存在著已經逐漸逝去的人性之光。
归根结底,我们恐惧的并不是那些技术本身,而是失去一个替代性的世界的可能。

「技术与人」的关系是否被夸大?
「后人类」问题的确更多将关注点着眼于「技术与人」:基因编辑、人工智能、赛博身体......然而从历史发展的角度来看,今日的技术虽然突飞猛进,但依然远不及工业时代与二十世纪之初的世界;今日的电子领域虽然蓬勃发展,但基础学科,如数学、物理、生物已遇到了无可忽视的瓶颈;今日的创新虽然无所不在,但是否大多都是依附于商业,而非真正改变人来的重大创造呢?因此,科幻作品中常见的「超级人类」,当代人恐惧忧虑的「超级 AI」设定,在技术意义上,怕是离我们还有相当一段距离(如同这次亚马逊音箱劝人「自杀」只是算法乌龙而已)
那么,除去那些「无谓而过度的杞人忧天」之外,我们到底要以什么心态面对未来的流变?
作为收尾,新京报书评周刊这段写的非常好:
不妨這麼說,在「後人類」問題中,最為重要的或許並不是那個長遠的未來,也並非利益權衡後對整個技術進程的控制,而是對當下切實存在的狀況之關注。這意味著,愈是在討論那些看似宏大的關乎人類命運的問題時,我們愈應將目光不斷下放,直到看到那些歷史地層中的雨露塵埃,那些世間萬物的參差多態,那些平凡人的喜怒哀樂,那些邊緣人的日常生活──流吧,他的眼淚,無論接受還是拒絕,這是時代留給我們的紀念品。
(其实还有一个有意思的点:为什么「后人类」学者也都是女性主义理论家呢?)

3#
热心小回应  16级独孤 | 2020-2-9 14:51:46 发帖IP地址来自
现在的人工智能,还是不会创造的死物而已。
亚马逊的Alexa我家也有一台,不过是日语版的,发音也很奇怪:阿哩库萨

技术渣渣认为,现在的人工智能,所谓的人机交互,无非是用算法从大量既存数据中筛选出最优内容反馈给人类。所以这个什么劝人自杀的内容也基于算法筛选了一些既存内容应对用户问出的问题,算法的bug。
以后这种智能设备对敏感词应该加些内容,某乎这方面还不错,如果输入相关词查找,弹出这种画面。


4#
热心小回应  16级独孤 | 2020-2-9 14:51:47 发帖IP地址来自


小概率事件,有点小题大做了,语音助手劝主人自杀,恰恰说明它还不智能,只是从数据库里挑选出一个回答应付过去。
等到哪天语音助手能把想自杀的主人劝回来时,才需要警惕,说明它具备了控制人类情绪的能力。
人工智能是根本不存在伦理一说的,只有发明和使用人工智能的人才涉及伦理,这和原子弹的伦理应该由谁监督差不多,真到那天还是人与人之间的博弈。
这个世界上最危险的,永远是人类自己,有创造就有毁灭,人工智能掌握在谁的手里,比人工智能发展到什么程度要重要。举个例子,我们现在人的一大困扰,是被算法包围了,正是因为被包围,我们的隐私全部数字化,我们接收信息的能力反而在算法推荐下退步,人人都形成一个信息孤岛,只接收到对自己有益或有兴趣的信息,想去搜集更多信息对人的搜索能力提出了更高要求。
所以我们变成了算法时代的AI畜,为算法服务,而算法还是为了少数人类服务,人工智能的存在有可能让少数人榨取大多数人的利益,变得更加现实可行。
所以,将来围绕人工智能的博弈,除了国与国技术的博弈,还是利益集团之间的博弈,顶尖的技术到底掌握在少数人手里,还是掌握在大多数人手里,将有可能决定人类未来的命运。
不过从目前情况看,人工智能还远远达不到影响人类的地步,即便有一天影响到了人类,有良知的工程师也会开发反制人工智能的。
这个亚马逊助手,就把它当做一个脑洞大的聊天机器就可以了,它说啥没脑子人听啥还没脑子吗?


5#
热心小回应  16级独孤 | 2020-2-9 14:51:48 发帖IP地址来自
语音助手还远远没发展到要到伦理角度的阶段,只不过是语料库还需要进一步优化,也就是要研究一个「怎样对网上数据进行过滤和筛选」的问题。
想起来个有意思的事儿,百度CTO王海峰曾经说当初做百度翻译的时候,「how old are you」总是被翻译成「怎么老是你」,也是语料库的锅
现在的语音助手大多数还处于一个人云亦云、拾人牙慧的阶段。它识别出了你提供的关键词,就会根据关键词播放出数据库里对应的资料。
一开始百度翻译用导入网络上大量的双语句的方式,对翻译系统进行训练。但因为网上出现了大量恶搞的「how old are you,怎么老是你」的段子,所以百度翻译就默认为这是对的了。。

原采访:
「早期,我们用互联网上大量双语句对对系统进行训练,发现结果不尽如人意。 比如一句简单的英文‘how old are you’,最后被翻译成了’怎么老是你’,原来互联网上错误的翻译的信息规模比我们想象的要大,于是我们就开始研究怎样对网上数据进行过滤和筛选。」
6#
热心小回应  16级独孤 | 2020-2-9 14:51:49 发帖IP地址来自
[h1]AI在既定规则下以结果为导向,效率为优先,算法选取最优路径以求最快到达结果,而底线根本不存在于它们的字典中。[/h1]
[h1]美国前国务聊基辛格最近在《大西洋月刊》上发表了一篇文章,表达了对人工智能的担忧和悲观态度。[/h1]他认为:从各个角度来说,无论是哲学思辨还是智商水平,我们人类还远远没有为人工智能时代的到来做好准备。
Philosophically, intellectually- in every way- human society is unprepared for the rise of artificial intelligence.
人工智能时代的到来,终结了自十五世纪印刷机发明以来,人类以科学、实践、理性分析为主的认知方式,让人类失去了思考的能力;现有的世界秩序被打破,人类被机器控制,处在“失控”的边缘,整个世界只依赖数据和算法,不再受人类道德伦理和哲学规范的约束。
向前一步看,人工智能有可能误解人类的指令,导致偏离原本的目标,甚至有可能反过来影响和改变人类的思考方式和价值观。
那如果人工智能即使能帮助我们达到预期目标,却无法给出理性的解释,那他们会不会有一天拒绝服从人类,而且也不向人类做出解释呢?
[h1]总之,基辛格就是要提醒人类,尤其是政府,必须要控制AI的发展。[/h1]

联合国从2016年起,就开始发布《人工智能政策报告》
这篇报告,旨在为各国提供政策建议,帮助各国政府,应对人工智能和技术发展带来的问题;而欧盟、德国、韩国等在人工智能研究方面领先的国家,也设立了伦理委员会,制定了人工智能的伦理规范,确保研究机构和制造商提供的是安全可靠的人工智能产品和服务。
现在人工智能的核心技术,还都掌握在科技巨头的手里,这就给监管带来了很大的难度。
比如说,怎样建立一个合理的监管体制,能够既不妨碍创新,又不偏袒大公司?监管的范围又如何界定,是按本地来算,还是按国家算,还是按照全球范围来算?这些都是现实问题。
在这些问题上,从政府到人工智能行业的领军者们,都做出了积极的尝试,比如联合国从2016年起,就开始发布《人工智能政策报告》,为各国提供政策建议,帮助各国政府,应对人工智能和技术发展带来的问题;而欧盟、德国、韩国等在人工智能研究方面领先的国家,也设立了伦理委员会,制定了人工智能的伦理规范,确保研究机构和制造商提供的是安全可靠的人工智能产品和服务。
在不久将来,这些在人工智能伦理监管方面的努力,也会带来更令人乐观的成果。

要做到拥有类似人类思维能力的人工智能是可能的,我们可以制造不断自我更新自我进化的人工智能,随着人工智能的不断的自我进化,其可以产生基于机器自身的逻辑体系 和思维方式。
这种思维方式零星的偏移就可能产生蝴蝶效应式的巨量偏移,其对人类社会的存在造成的影响是不可预知的。
梅辛革提出过一个极端假设:如果3辆谷歌无人驾驶汽车与两辆普通车辆交错行驶,突然路面冲出一只狗。“无人驾驶汽车必须立即做出反应,让谁拥有更大的生存机会?是狗,还是自己车上的乘客,或是普通车辆里的乘客?”这对人类而言尚是一个难解的道德问题。人工智能只被要求尽快做出“正确”反应。
[h1]但更重要的问题是:人类是只想让人工智能的行为自主,还是道德思考能力也能自主?一旦人工智能独立进行伦理思考,是否会产生与人类不同的价值观?人类是否该承担这一风险?[/h1]因此,人工智能需要一套“价值论”规则,在这套规则下让它们拥有一定程度的思想自主和自由的权利。然而,这样一套“价值论”规则很难实现,因为人类社会尚不能形成统一的价值标准。
[h1]今天的问题,监督肯定是由亚马逊公司来负责,对于人工智能伦理,但我更想说的是[/h1]
“那就是我们都要尽可能最小化给有意识生物可能造成的痛苦,即为所有生命体造福的准则。”
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:342608
帖子:68643
精华:1
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP