世界人工智能专家:现在我们的机器智商(IQ)小于老鼠

人工智能专家现在我们的机器智商(IQ)小于老鼠/ecf6e86d96d564af721d45f3af783328-0.jpg”/>

图片:丹尼尔Hertzberg

你怎么教?

Facebook的人工智能研究主管:雅安·勒存机器如何制定教学计划。

人工智能,机器的传统定义的方式我们认为属于人类,经常执行的任务和解决问题。还有一些我们认为的任务很简单——识别照片中的物体,开车,但AI的任务尤其艰巨。机可以在董事会超越人类,但机器的程序,从本质上讲,体力劳动,机器由一个程序是有限的。30美元的设备可以超越我们的棋盘游戏,但它不能做——我不能学会做所有其他的事情。

这就是为什么我们需要机器学习。显示机器数以百计的猫的照片,机器就会训练你的算法,并学会更好地识别猫的图片。机器学习的基础是所有的大型网络公司,该公司可以进行排名的搜索结果,为特定用户选择最相关的内容和建议。

深度学习是基于人类的大脑,要复杂得多。机器和机器学习,深入学习教忽略所有不重要信息的声音或图像,提出了一种方法来反映世界的无限多样性的层次结构视图。深度学习带给我们的无人驾驶车辆,语音识别,有时更擅长识别肿瘤放射学专家医疗分析系统。

尽管这些值得赞美的的进步,我们要距离人类一样聪明的机器,我们的机器,甚至更糟而聪明老鼠非常远,我们只看到了AI强度约为5%。

是时候重新思考工作吗?

百度的首席科学家吴En:AI将如何改变未来的工作。

现在在美国,驾驶一辆卡车是最常见的一种职业。数以百万计的人在东部和西部海岸之间的货物运输,为了谋生。然而,所有的这些就业机会会很快消失。无人机将取代人类司机开车在路上,和更快、更安全、更有效率。有这样的好事,公司将选择更昂贵,更容易犯错误的人类司机吗?

类似劳动改变历史上也有先例。在工业革命之前,90%的美国人在农场工作。蒸汽技术和制造业的崛起,让许多人失去了工作,而且还创造了许多新的就业机会,还创建了一个新的领域的许多人无法想象。雪崩的变化在两个世纪的过程中,慢慢地,美国有足够的时间来适应变化。农民在耕作,直到退休,他们的孩子去上学,成为一名电工,工厂工头,房地产开发商和食品化学家。

和卡车司机就没有这么幸运了。他们的职业,还有数以百万计的其他职业的人,很快就会过时。在智能机器的时代,大量的人将没有工作能力,或被淘汰。我们可能见证了经济危机在1930年代最大的失业。

1933年,富兰克林·罗斯福的新政帮助大量的失业者,并帮助美国经济重新启动。更重要的是,它能帮助我们从农业社会向工业社会的转变。罗斯福的“公共工程部”雇用失业者新建桥梁和高速公路,改善交通基础设施在美国。这些改进的非常先进的新技术应用,奠定了坚实的基础:一辆汽车。

我们需要一个新的21世纪,针对人工智能可以带来新的就业机会建立培训计划。我们需要火车卡车司机和办公室助理,构建未来的数据分析师,旅游规划者,我们仍然不知道如果我有其他职业的要求。在美国内战之前(直到1860年代)的农民,绝对无法想象他的儿子是一个电工,但现在,我们几乎没有人工智能将在未来创造什么样的工作机会。但我们清楚,革命必须采取措施,来完成从工业社会过渡到智能机器时代。

人工智能:像人类一样吗?

智能机器如何模仿自己的“创造者”。

达到人类水平的人工智能,我们所要做的下一步是创建智能自动-但不是机器。人工智能可以让您平安回到家里,在你的车,但是不能自动选择下一个目的地后回家。在此基础上,我们将加入基本的动机以及情感和道德价值。如果我们创建一个强大的学习能力,就像人类的大脑,应该是“继承”不难想象机器的特点,以及一些类似人类的弱点。但在我看来,“终结者”的预言非常不可能的。这需要精心策划的,不规则的个人意图,设计了一个恶意尝试编写智能机器,没有代理,公司或个人——更不用说可以单枪匹马达到人类水平的人工智能。构建智能机器是我们这个时代最大的一个科学的挑战,需要各国,公司、实验室之间共享的智慧和学术团体。人工智能的发展是最有可能是渐进的,是开放的。——。雅安·勒存

如何成为机器的主人

牛津大学,成立研究所所长人类未来尼克·博斯特罗姆:AI的生存危机。丹妮拉·埃尔南德斯。

我:告诉我你在做什么工作?

我们必须“控制”很感兴趣相关的技术挑战。你能确保人工智能,必须符合原文的程序员?我们必须强人工智能AI对经济感兴趣,政治和社会问题。什么样的政治体制是最能够帮助我们过渡到智能机器的时代吗?我们如何确保不同利益相关者一起从事能带来积极的结果吗?

你做了很多研究,生存危机。如果用最简单的语言解释一个5岁的孩子,你会怎么描述它?

我想说这是未来科技可以毁掉一生。观众有点老,我认为人类灭绝的可能性,或可能永远不会摧毁我们的价值在未来的可能性。

你认为什么样的策略将有助于减少潜在的人工智能生存危机?

研究将有助于控制问题。当我们理解如何让机器变得真正的智慧,我们应该能够有一些概念,知道如何控制机,如何进行工程设计,从而让机器和人类站在同一阵营,符合人类的价值观,而不是破坏性的。这涉及到一系列的技术难题,其中一些我们现在已经开始研究。

你能给一个例子吗?

控制问题,不同的人想到不同的方法。一种方法是学习研究的价值。我们想让AI终于可以分享我们的价值观,所以AI可以作为我们人类意志的延伸。我们不能把所有注意力集中在一长串,然后人工智能。最好是使用人工智能学习我们的价值观和喜好他们的智力。

每个人的价值观是不同的。我们如何确定哪些机器学习价值观?

这是一个非常大、非常复杂的问题:巨大的巨大冲突之间的价值观和利益之间的冲突。在某种意义上,这是最大的一个尚未解决的问题。如果你对技术进步更乐观,最终你会觉得我们会知道如何可以做越来越多的事情。

我们将征服自然以前所未有的程度。但有一个科学和技术不能自动解决问题,是冲突和战争。最黑暗的宏观状况是,人们可能会使用技术,这种超越自然的力量,知识,致力于他人的伤害和破坏。这个问题不能自动解决。

我们如何处理压力?

我这个问题没有简单的答案。我不认为有一个简单的技术解决方案。

自动控制系统的编程可以代理从我们组的自由?人类已经完成,从某种意义上说,当我们的自私行为。

保守的假设是强人工智能可以自己编程,可以改变自己的价值观,但也打破任何美国的束缚。在这种情况下,我们的目标是设计,让机器选择不使用伤害人类的力量。如果AI希望为人类服务,它会杀死人类行为分布效果较低的期望。我们有理由这样认为,如果你设定目标系统以适当的方式,最后的决策标准能保持下来。

让我们把大脑更好

贝宝和筹集基金,卢克Nosek创始人之一:在人类的大脑,我们需要训练你的大脑。

今年早些时候,韩国冠军李se-dol AlphaGo ai(人工智能)计划与谷歌在一个历史性的战争。李se-dol 18世界头衔,但在今年3月19日,他们输给了软件。

今天的高性能计算前所未有的强烈。强人工智能系统的出现,但距离远,这台机器还远未达到人类的大脑的容量。我们没能理解强人工智能(有时称为AGI)将如何工作,将带来什么影响我们的生活和我们的经济。人们常常会影响的广度相比,核能技术的出现从斯蒂芬·霍金,elon musk,AlphaGo创造者有建议,我们应该小心。

这个比喻是将核武器的感觉,但也很合适。核武器是强人工智能最坏的打算。相反,乐观和光明预计视而不见(常见的经济繁荣,摧毁所有疾病),乐观和恐惧能让我们的偏见。

强人工智能可以帮助数十亿人生活更安全,更健康,更快乐的生活。但设计这样的机器,工程师需要聪明的人类和机器面临复杂的社会经济现实,神经,和有一个更好的了解,比今天的理解。如果我们要升级现有的大脑,我们可以更好的理解,一个强大的人工智能,并与它们共存。

我们可以改善人类的智慧可以分为三个阶段。第一阶段,使用类似谷歌搜索技术来增强和完善人类的大脑,它一直在进步。我们可以比较:1996年,一个五岁的孩子拿着借书证,并在2016年打开谷歌搜索页面下五个孩子——只要几个键盘,可以得到很多人的知识。

如果需要使用科技在第一阶段补充大脑,所以第二阶段将直接扩大大脑。自适应学习个性化教育软件,实时调整课程。如果学生做得很好,将加快教学速度。如果学生学习更加困难,软件会慢下来,改变教学风格,或者告诉老师需要指导。自适应学习和在线教育可能意味着一刀切的教育。增强现实技术和虚拟现实技术的融合,也可以扩大我们无法想象情报的方式。

聪明的从根本上改变需要提高大脑的第三阶段。经颅磁刺激(TMS)是美国食品和药物管理局(FDA)批准的非侵入性治疗,治疗一个电磁线圈将使用在他的头上。使用经颅磁刺激治疗创伤后应激障碍(PTSD),自闭症,和抵抗严重的抑郁症。如大脑治疗中心在加州和肯塔基州路易斯维尔大学的这些机构,样本规模不大,但也影响的持续时间未知,但提高个体的比例高,比例最高的测试,200年高功能自闭症患者取得了90%更好。经颅磁刺激的早期迹象可能没有相关看很多神经系统症状有疗效。如果我们能受伤或积极作用的神经正常的大脑,也许很快,我们可以促进健康的大脑连接,实现共同提高智力。

强人工智能出现在地平线上,但是现在,我们只可以使用他们的大脑。升级自己的情报,是创造未来的智能机器和共存的第一步。

你不能让机器学习常识

至少目前还没有。这仍然是真正的人工智能的最大障碍。

预测学习也被称为无监督学习,是第一个动物和人类理解世界的模型。我们可以看一看这句话:“约翰”拿起他的手机,离开了房间。经验告诉你,电话可以移动模式,约翰可以从门出去。而缺乏机器世界的一个很好的描述正常及其极限,也许永远也猜上面的信息。可预见性的机器学习——一个非常重要但还有待开发特性,将人工智能不需要人监督,可以自主学习,就像一个孩子学习。然而,让机器学习常识不仅是一个技术问题,这是一个可以把几十年的科学和数学的挑战。在此之前,我们的机器不能真正的智能机器。——。雅安·勒存

远远超过Siri的“父亲”:AI深度学习和机器智能

作者:三

最近,在旧金山举行的大会上,是世界上最大的人工智能行业专家一起讨论未来的人工智能领域的。SRI国际的信息和计算的部门主管威廉•马克讲话在一系列的干货。

SRI国际信息和计算的部门负责人威廉·马克

我不知道斯里兰卡和威廉·马克吗?SRI国际孵化Siri的母公司,负责相关研究是威廉·卡洛项目主持。他带领技术研究,为以后奠定基础Siri的出生外国媒体PC杂志评价他背后的一个主要智库“Siri”。因此,Siri的威廉·马克,创始人之一Dag Kittlaus,亚当崔氏,汤姆·格鲁伯和Siri的称为“父亲”。

威廉·马克说:我们需要更少的“人工”人工智能。他强调AI不仅仅是深入学习和机器智能。这是非常重要的。因为大多数企业的参与者。他们专注于使用人工智能的人类:超大规模并行计算。许多演讲者提到,IBM Watson在15秒内阅读4000万文档的壮举。他们把这个证明我们正在迅速走向“奇点”(注:奇点,奇点是一个人类的视觉人工智能在人类社会之外,所以革命性变革的时机,参考Ray Kurzweil“奇点”)。

值得注意的是,威廉·马克未来人工智能一些高级的想法,有些复杂的系统设计。

马克说:“语言交际的人工智能的发展,我们已经做了很多工作。系统使用深度学习的一部分。但是人工智能技术包括意图识别、自然语言处理和检测。即时会话管理,人的包含在这个对话中,有时多内容,我们必须教AI理解人们表达了新打算,但是我还没有完成。我们不需要机器学习解决这个问题,但一个明确的规则和一系列的推理机制。”

Siri生于2011年,被苹果收购,威廉·马克的团队优化平台另一个名为凯AI的对话,人工智能应用于金融业。虽然现在是一个独立的公司,马克还担任新公司的主任。凯是一个人工智能基于金融体系,这意味着马克团队必须加入信任机制在凯的设计。

马克说:“如果人们可以信任,人工智能将是决定成功的关键。这就是我说不要那么“人工”人工智能的意义。人工智能是不一样的思维方式。例如,当人们想到因果关系,但大多数AI系统考虑相关,这是由系统设计决定。各地的差距是一个非常重要的事情。同时,这也是我们关注的前沿问题:开发一个可信赖的系统。只有这样,AI能够真正走进家庭和被人接受。

最后,他发现他的领导SRI团队的参与者在一个计划:“超级Siri”。应用于他正在学习如何应对人口老龄化的问题:

“这是一个非常严重的文化和经济问题,它有很多方面。人们思考衰老,总立即想到国内机器人,这是我们正在研究的。我们也在考虑的问题。许多老人是孤独的,这导致认知能力下降。我们正在开发的“超级Siri”将给老人带来“家庭”,激发他们过去生活的记忆。,该系统将结合家庭传感器,监控人民的活动能力和健康问题。它也将被连接到互联网的东西。”

听到这个威廉·马克,结论是:编辑下一波的AI可能是春天的主题“如何使人产生和人工智能之间的信任。“这就要求开发商给人工智能人意图的能力是通过推理机制,预测需求,行为,和想说的。”

启动OptimizingMind让人工智能决策的透明度,提高人机相信条条大路通罗马。不同的地方是,威廉·马克专注于人工智能学习和理解人类的行为,和OptimizingMind通过开发一个“透明访问”算法是人工智能决策过程变得可见(见推荐阅读“AI黑箱问题如何打破?”)。但无论是威廉·马克或OptimizingMind显然都认为人工智能的核心挑战是信任问题,谁能解决这个问题谁站在艾城的下一波的波潮。

13个最强大的人工智能对话AlphaGo的投资者

这是一个最值得期待的头脑风暴AI的行业。

击败李se-dol AlphaGo开始新一轮的人工智能(AI)的投资热潮。

我们邀请DeepMind早期投资者扬tallinn AI集团在中国最强大的大脑对话。tallinn是最早发现DeepMind——最红的AI公司投资者在2016年,他目睹了人工智能技术的发展,致力于研究人工智能的潜在风险。

邀请参与对话的AI领导人包括:

陈Xiaoliang声音智慧科技CEO

丁慧百川信用报告的首席技术官,前贝宝全球消费者数据,科学部门的负责人

高始兴,以为会气的CEO

李Zhifei,去问CEO

孟,资本投资的副总裁

吴淦砂之前,控制潜在的科技公司的首席执行官,英特尔中国研究院

徐Cheng心橙互联首席执行官、前谷歌工程师,

油漆,蚂蚁金方案

印刷、脸+ + CEO

创始人于地平线机器人,之前百度深度的研究学院

张Benyu CloudBrain首席执行官

张,金沙江创业投资合作伙伴

云赵,新媒体的创始人,“机器”的核心

(排名不分先后,按姓氏拼音排序)

这是一个最值得期待的头脑风暴AI的行业。(上)今天启动,领导人讨论了人工智能技术的商业化,低估方向在人工智能领域,人工智能和人类的竞争。下周,我们推出了(底部)文章,Talllinn将为您解读AI投资和创业,和解密DeepMind给你。

如果是一个企业家在人工智能领域,欢迎留言在后台“人工智能”,我们将邀请你加入资本AI通信集团高峰。此外,tallinn对话过程中引用了许多为人工智能领域深刻的面试报告。这次面试如果你想阅读完整的版本,你可以点击“阅读”关注高峰首都乎列。

面试/峰科技团队的资本投资

翻译/峰奇奇周Xiaoran

Yu(百度前深度学习的创始人兼研究所所长地平线机器人)

问:当你在Deepmind投资,考虑其商业模式?什么最吸引你?

我投资DeepMind不是赚钱。所以它的商业模式不是我的首要任务。对我来说,这是一个战略投资:我想加入一个未来人工智能研究有潜力成为一个团队的领袖,成为一个分子,也要确保他们有一个清晰的理解AI的风险。

在2011年,就在我投资AlphaGo非常看好他们的创始人,当他们有很多进展,包括从泰尔由基金投资),我想他们会很长一段路。

问:在深度学习的革命,下一个目标是什么?

也许你比我更有资格回答这个问题。发展的深入学习,我不太关注及时。我现在知道关于人工智能的发展有这些:

更好的无监督学习(无监督学习):如寻找数据结构;或无标签数据(带安全标签的数据时),设置条件下的预测模型;

迁移学习迁移(学习):将研究特定区域建立模型,应用于其他领域。就像人类学习下国际象棋,在提升的运动也可以帮助其他董事会层面;

更好的数据泛化(泛化):与人类相比,机器学习很“饥饿”数据。只接收、处理大量的训练数据(训练数据),形成可用的模型。但几个模型,研究人员并没有足够的数据来训练机(我的一个朋友笑神经网络的深度美化查找表)。这需要改善通过更好的数据泛化。

印度的创始人(脸+ +)

问:人工智能很热,很多分析机构也预测将成为未来的人工智能技术基于水电煤的技术。如果这个过程最后成真,是否会有一个从量变到质变的过程,互联网改变业务也从信息共享、购买商品的量变一步一步,首先改变的定量变化业务的人工智能领域最有可能是哪一个?

答:对我来说,所以天气预报是不准确的。想要人工智能工具类似于水和电的服务,需要满足两个条件:

这项技术已经成为更一般的和有效的。在许多情况下,你可以喜欢租用计算能力,租金10分钟的人工智能服务。

甚至时至今日(一般人工智能,人工智能)扮演重要的角色在经济和其他因素在经济中仍然可以发挥一定的作用。

这两个观点,事实上,是一个直接的矛盾:如果AI变得更加强大和推广,其他因素将会衰弱的经济。最后,想想看:经济是人类的机构,如果AI比人类做的,可能就不需要人类经济,就像人类不需要蚂蚁经济。

以利以谢Yudkowsky(米里,机器智能研究所的创始人之一)的话说,超级智慧的AI,宇宙是免费的任何原子的重组。他们甚至不需要赚钱养活自己。一旦有能力重组的原子结构,他们可以做任何他们想要的东西。

但是有些人,我有不同的观点。有些人认为:即使AI有优越的智力和普遍性,现有的经济系统可以维持。我的朋友罗宾·汉森,约翰·梅森大学的经济学教授,认为超级智慧的AI会出现在现有的经济体系,并受其约束,而不是颠覆和破坏它。

张Benyu(CloudBrain创始人)

问:你觉得有更重要的方向低估,并没有得到足够的投资吗?”

答:我认为这是“价值观和对接研究”(价值——对齐的研究)。概念首次斯图亚特·j。罗素(Stuart j。罗素,世界领先的计算机科学家)在一般人工智能:现代方法(人工智能:一种现代方法)。他认为:我们需要重新定义人工智能研究的目标。不要停留在纯智力发展,但发展可以使最好的超级智慧对接人类价值观。但从世界范围内的人工智能的发展,在当前的研究很大程度上被忽略了。

这是一个非常困难的挑战,正如Givewell慈善机构的一份报告中提到的关于人工智能的风险:知识可以验证,但这不是价值。如果人工智能学习错误的数据,做了错误的预测,人们会很快发现和纠正。但对于错误的价值观,我们很难检测和正确的。

我们没有选择,必须面对的挑战。如果我们想让子孙后代未来,我们必须解决这个问题尽快AI值的对接。当然,我不是说其他人工智能研究的风险并不重要。

问:AI在3 – 5年的研究和发展瓶颈将被你认为是什么?例如:电脑电源吗?或者以前冯·诺依曼(计算机),理论本身的父亲吗?目前,人类知识吗?政府的控制?或者因为越来越多的简单的方法来赚钱,导致研究人员的短缺?

很长一段时间,缺乏洞察力的人,人工智能领域和强大的计算能力(这将极大地提高神经网络技术)。在很短的时间内,两个仍然难以突破的瓶颈。

一个有趣的话题是“快速”影响人们如何。一方面,更高的需求必然会刺激供给。但另一方面,它给行业带来很多噪音,人才难以集中精力学习。

从基本理论、当前人工智能技术更多使用GPU(图像处理单元),而不是CPU(计算处理单元)。所以在很大程度上,这个行业已经放弃了纽曼理论。

吴淦砂(前英特尔中国研究院,控制潜在的首席执行官科技)

问:你是Deepmind早期投资者,促进AI赶上人类智慧,和剑桥“风险研究中心”和“麻省理工学院”生活未来研究所”,后者的创始人致力于探索人工智能在人类存在风险的可能性和解决方案。两者之间有冲突。你如何在道德和社会影响Deepmind反馈和指导?

答:Deepmind,我们举行一些相关的讨论。人工智能的未来发展的安全,Deepmind专业研究人员招募了,并开始与牛津大学人类的未来研究所合作,和谷歌也成立了“道德和安全委员会。当然,作为一个启动资金和人员有限,DeepMind对这个领域的贡献仍然是非常有限的。但我相信他们将继续投入精力做研究对接的“值”。

总的来说,我很高兴我能帮助人工智能研究和对接搭建沟通桥梁“价值观”。Deepmind,此外,现在可以专注于“值”对接研究,我还有一点小信贷(笑)。

云赵(新媒体的创始人“机器”的核心)

问:Elon Musk后,斯蒂芬·霍金最近渡(增加男,日本美国理论物理学家)已经表明,我们应该担心人工智能,很多人工智能行业名人和公众更多的关注这个话题。从业人员在人工智能领域,然而,经常从解决具体的问题,在这个问题上,如果不是特别关心,或者只是提出一些比较宏观的解决方案,如DeepMind伦理委员会,你认为对人工智能,以防止风险,我们应该采取什么具体的,可以立即开始行动计划?

答:有趣的问题。增加男性真的认为我们应该感到焦虑吗?他不相信人工智能风险之前(至少我这么认为)。如果他的态度改变了,这是一个好消息(越来越多的人开始面对存在的问题)。

对开发人员的态度,我认为你是对的。他们没有动力去考虑系统的风险(更准确地说,它是关于价值观和对接问题),但他们有能力改善系统的性能。作为霍尔顿Karnofsky说:“目前从文化和制度层面,开发人员没有动力去关心这些问题。但即便如此,仍有少数官员开始关心这些潜在的问题。所以我相信未来会越来越多的人加入这个想法。”

(有一个很好的文章,列举了许多优秀的AI开发者对风险考虑http://slatestarcodex.com/2015/05/22/ai-researchers-on-ai-risk/)

目前如何预防这种风险吗?当对接“值”字段后缺乏资金问题的缓解,然后人才的瓶颈是缺乏(质量要求不同于其他领域的人工智能研究和开发)。我们需要更多的人和机构,解决各种问题的研究——从操作理论哲学。

如前所述,解决人工智能问题的对接“价值观”不仅是非常重要的,它是有趣的!

陈Xiaoliang(声音情报技术首席执行官)

问:机器学习理论和神经科学,人类行为密切相关。Deepmind,因此,使用“深度”的强化学习算法来训练人工智能需要大量的病例。但我们都知道,我们通常可以通过一个案例推断,从而学习一个概念,算法比机器还可以通过学习的方式。为了解决这个问题,科学家们正试图使用贝叶斯推理方法让AI通过简单的案例研究。你认为贝叶斯推理和深度学习的未来?人工智能以及如何模仿接近人类想象力和推理能力?

嗯……据我所知,通常是基于神经网络函数逼近,和神经生理学只有一些意外接触。

我不知道关于贝叶斯学习方法,尽管我认为这是最优的理论,特别是消耗计算资源。此外,还有一个非常有趣的最近被称为“终极”贝叶斯AIXI人工智能产品。

事实上,从一般的角度来看,目前的方法是不够好。我的朋友Gary Marcus重申了这一观点。他还成立了一个公司探索泛化技术:几何情报(我的投资项目!)。

高开始(认为太极拳的创始人)

问:你认为在未来人们有他们自己的个人的大数据?

答:在某种程度上,可能的。我投资了两个公司,有关“私有云”:(http://sandstorm.io/)和Urbit(http://urbit.org/)。

但让我这么说吧,公共数据(公共数据)的大小和价值会更“大”。随着传感器的广泛应用,数据量将几何倍增长。此外,越来越多的先进的分析技术可以使用一些数据和历史数据来推断出更多的信息。

刘伟(联想之星合作伙伴)

问:非结构化数据的未来发展应该如何?如何充分使用它们?我们有必要学习和深度学习相结合的框架?此外,大量的数据可以解决所有的问题吗?在某些情况下,如果失败的代价很大,很难结束其边界条件(例如:自动驾驶)?”

答:基本上,我认为非结构化数据最终可以满足需要。像孩子一样可以从非结构化的感官信息的研究,我不认为什么是大脑的“魔法”。

最近,我的一个朋友正在听很多自然语言处理(NLP,自然语言处理)演讲后,发现一个有趣的现象:许多研究人员有多少认知语言学的“少”,从而表明他们的系统已经足够聪明没有预设前提的知识学习。

我同意你对非结构化学习的观点。这种学习可能会导致一个“黑盒”系统,最后,在极端情况下产生严重的后果。当系统变得更加自主,更多的资源我们可以控制,我们需要使AI更加可预测的。一种方法是引入更多的结构和系统的限制。

我们当然不希望给这个星球的未来,一个训练有素的一堆非结构化浪漫小说“黑匣子”(黑盒)神经网络,是吗?

问:你认为一般人工智能(街区)是来自于人工智能领域的一系列垂直?从长远来看,依赖机器学习算法将风险在哪些方面?2150你觉得最常见的职业是什么?

答:我不认为智能集成垂直领域的人工智能可以生成丐。Deepmind方法是非常有前途,它开发了一个更通用的算法,然后用于垂直领域的研究中,为了达到超过人类的性能。

对风险:使用AI人工智能领域的发展本身会导致高水平的风险,因为在这个过程中没有人的参与,让AI控制开发过程,结果可能会失控。

关于工作:我认为到2150年职业和经济作为一个整体可能根本不存在!人类社会经济分工的概念。上下文是,世界上有很多人,他们接近的能力,但由于各种优势,因此该事务将拥有它。当我们有一个超级聪明的人工智能,它比人类所有能力,经济分工的基础是存在的,就像我们人类和蚂蚁不交易。

可能,当然,在2150年之前我们有一个超级聪明的人工智能,人类文明是因其他原因不存在吗