AI专家建议向AI灌输人类价值观,以防背叛_沐鸣
已有人阅读此文 - -
,据国外媒体报道,随着人工智能的发展,越来越多的科学家开始担忧人工智能会给人类带来各种难以预计的影响,甚至可能是灾难。,在近日开幕的“TED2017”大会上,
计算机专家斯图尔特-拉塞尔再次发出警告称,人类制造出的事物(人工智能)将可能进化得比人类更聪明。拉塞尔建议,人类必须要在机器人内部预置不确定性,以防备它们的背叛。,美国加州大学伯克利分校计算机教授斯图尔特-拉塞尔解释说,虽然他本人也支持人工智能的研究,但总感觉制造出一种比自身物种更为聪明的事物并不一定是好事情。,拉塞尔建议,
为了防止机器人接管我们人类,我们必须制造出无私心的机器人,即在它们的目标任务中存在一定程序的不确定性,应该教会它们人类价值观方面的知识。通过向人工智能系统中灌输“人类常识”,科学家必须重新定义人工智能,这样我们才能制造出有益的机器。,拉塞尔表示,机器人应该按照某种法则或定律去编程,就比如科幻作家艾萨克-阿西莫夫提出的机器人三定律,以防止它们在执行任务时造成无意识的伤害。艾萨克-阿西莫夫所提出的机器人三定律主要内容包括:,1)机器人不得伤害人类,或因袖手旁观使人类受到伤害;,2)在不违背第一定律的前提下,机器人必须服从人类的命令;,3)在不违背第一及第二定律的前提下,机器人必须保护自己。,因此,在为机器人编程时,就必须将利他主义、谦虚谨慎的态度以及其它一些人类价值观方面的优越性编写进去。拉塞尔认为,“这是人类与人工智能互相适应、和谐相处的第一步。”,不过,苹果Siri高级研发主管汤姆-格鲁伯对人类和人工智能的未来抱有较为乐观的态度。他认为,人工智能将可用于增强人类的忘记力,让人类不再会忘记任何事情。,格鲁伯表示:“人工智能所带来的超人能力是不可避免的,这能够让我们记住每个人的名字,记住听过的每一首歌或者看过的任何事物。人工智能能够与人类协作,而不是许多人所担心的对抗,它们能够帮助我们人类战胜极限。如何利用这一强大的科学技术,我们有自己的选择。我们既可以让它们与我们竞争,也可以让它们与我们协作。它们只会让我们克服局限,做得更好。机器人变得越来越聪明,我们人类也会更加聪明。”,