不必担心人工智能,因为他们也读更多的书

人工智能,因为他们也读更多的书/7228bed9dfa8ef70f8c7391b902258ce-0.jpg”/>

乔治亚理工大学的人工智能研究员马克Riedl说,不要担心AI对人类本身。图片:美国乔治亚理工学院(Georgia institute of technology)。

许多技术和人工智能技术有一个可怕的,钢铁侠,麝香是一个硅谷的2014年,他公开表示说:“人工智能技术被称为魔鬼,人工智能技术将像哈尔在2001年“2001:太空漫游”计算机人工智能杀死所有“船员”。同样,一个著名的物理学家史蒂芬·霍金已经表达了自己的担忧,他认为人类不断探索人工智能领域的“一个巨大的错误,错误甚至可能是人类有史以来的最愚蠢的错误。”

但有些不相信这个,乔治亚理工学院的交互式计算系统的人工智能研究人员马克Riedl就是其中之一。

“我认为人们可以放心,人工智能人类本身情况不太可能发生,“Riedl说。“我认为科幻小说的天网不太可能是天生的,和AI不会把人类看成是威胁。”除了技术层面,现在想成为麝香和霍金的眼睛将摧毁人类文明觉醒后的人工智能是不可能的。

然而,未雨绸缪并不总是一件坏事,在路上的人工智能的发展,许多专家已经开始行动。例如,自动驾驶汽车携带,在未来,当我们旅行时,只需要对男人做出许多选择。所以如何设置AI,让它符合人类价值的标准,以确保我们的安全防范侵权已成为一个应该考虑的问题。

AI现在还需要阅读

Riedl理解人类的思想让AI,最好的办法是让它与人类价值的阅读这些书,。简而言之,如果AI可以阅读《圣经》和其他作品,你可以通过学习,树立正确的区分善与恶。

Riedl说,即使人工智能会伤害人类,也不是因为他们的性恶,而是因为它不理解什么是伤害。此外,我们很难给AI清单列表,告诉它该做什么和不该做什么。因此,我们想让AI适应人类文化。

“问题是我们的手没有完成数据库关于道德和不道德的行为,”他说。“虽然几千年的人类文明生了太多的善与恶的故事,即使我们人类,也建立自己的学习通过。在人类文化方面,我们可以没有用户手册,但前辈的智慧把精华在许多故事。”

Riedl布伦特哈里森和他的同事最近在一篇名为“用故事AI灌输价值观”中提到的。他们的研究是基于一个人工智能的程序,称为谢赫拉莎德,AI可以写互动小说(即。通过连续选择决定故事的发展方向),当然,之前写AI需要学习从其他的故事。在研究的过程中,Riedl和哈里森的很多见解AI故事学习写作技巧的方法,他们将使系统叫做堂吉诃德,系统可以教AI以正确的方式完成任务。

区分“医学”和“抢药”

例如,Riedl和哈里森将从药房下令AI吃药。“如果唯一AI效率第一,冲进药店它肯定会取你所需,跑掉了。”Riedl说。

AI会犯这种错误不是邪恶的,因为它的身体性,但它不知道药店药品需要排队和支付。这些传统习惯没来学校,但是人们暴露在生活中慢慢学习。但是人工智能没有父母,没有人愿意花大量的时间来培养它,因为他们出生来完成这个任务。

“但如果我们能通过一系列真实的故事让AI学习社会规范,那么他们将有很大的进步,和去药房抢药的事情永远不会再发生。”Riedl说。

尽管需要许多限制性因素,Riedl和哈里森通过对比实验,验证了他的理论。在实验中,当然,去药店买药没有得到AI机器外壳,他们都是指直接和密切相关的故事到药店去买药(可能这个故事很无聊,因为是专门为实验编写)。

在实验中,如果AI做得好,将会得到奖励,但如果违反社会规范,将受到惩罚。

“这将是一个非常明智的,”生物伦理学家和美国进步中心,研究员Jonathan Moreno说。“通过这部小说,我们可以联系他人的实际生活。同时,这部小说是社会价值的体现和期望,作者眼睛Riedl值得伸出大拇指。”

谁来弥补材料?

如果我们真的可以让天网的AI,恐怕Riedl和哈里森AI文化将成为救世主,但是我们不得不考虑什么样的故事来教育他们。

当然,不是所有的小说都能成为人工智能的一个老师,人类世界的故事,善与恶并不是特别清楚,有时一个人可能是一个罪犯,但他有自己的人性的亮点。此外,还有很多世界上的英雄形象,和许多圣经的规则不符合当前值。

这些问题,给我们提出了另一个道德上模棱两可的问题,那就是:谁有权选择想要学习艾城的故事吗?

“这是一个政治问题,”Moreno说。“在我看来,这个问题没有正确答案。如果你想走这条路,我们需要从各个方面进行分析和决心。”

“如果你想成为人工智能的一个老师,你必须有知识,像圣”Riedl说。“但是如果你把英雄形象在教学材料,当你不是圣人是不合格的,因为你没有深入了解的社会,这是我的一个担忧。我们已经进入了大数据的时代,经验告诉我们,过度的数据总是比足够的安全,所以只要是合规,你可以加入人工智能学习数据库,只有用这种方法我们才能判断什么是好什么是坏。”

让AI仁慈比人类绝对是一件好事,但是只有通过代码无法完成的伟大。阿西莫夫,甚至是由直觉不朽的机器人三定律。现在,因此,可以通过人类让AI par是一项复杂的任务。学习这个故事我们只能寄希望于AI质量,减少学习人类的贪污。

Through the mainboard

发表评论

电子邮件地址不会被公开。 必填项已用*标注