主人是AlphaGo“去神仍然是“弱“人工智能”

1月4日,21点44分,神秘的网络象棋大师突然官方账户开口说,自己是AlphaGo。代表主AlphaGo,黄博士的儿子是运输代理AlphaGo团队。

对人类的主人,赢得了59场。1月4日下午3时,超过60“比得上国际象棋圣”wei-ping聂游戏54胜,主在中国传统输入在屏幕上“谢谢聂老师”。

自2016年12月29日,现在去画一些网络平台,主会表现出惊人的力量,克服了包括公园jeong-hwan KeJie,陈为主,甚至微笑,美锦,国内外众多顶尖棋手。1月4日,大师”到“再次击败周、风扇《和黄Yunsong棋手。

在主杀四方,其身份也引发了很多猜测。已经很多人怀疑,主人的最后战胜韩国棋手李se-dol AlphaGo升级,但是在21世纪的经济记者联系到谷歌公司早些时候,不是准确的响应。

“弱人工智能领域的,慢慢的会产生一些突破,比如,下棋,等等,只要这些规则是清晰的,容易量化,计算领域,机器可以慢慢做,和比人做得更好。”指人工智能相关产品,微软的全球执行副总裁,微软沈向洋人工智能和微软研究部门主任21世纪的经济记者说,“但没有机器可以在无监督学习的情况下,自己写一个程序来克服游戏的主人。这是最困难的地方。”

被誉为“上帝”

2016年12月29日,从“在线”,七天时间,大师以其复杂的路径,对写下2017年来不同寻常的开放。

上周,主人超过连续击败世界大师,包括KeJie九段,公园jeong-hwan九,陈为主九段,甚至微笑七段,等“假期”,1月1日一天主人回来后在24小时内取得11连胜,包括p。中国和韩国,金正日jiseok 5次世界锦标赛冠军,日本大满贯传奇和创造美锦和亚洲杯冠军李秦城,等等。

1月4日,“比得上国际象棋圣”主wei-ping聂方剂来源,但最终也以失败告终。“远不是像我们想象的那样简单,有巨大的空间为我们人类采矿。远处的狗,主人,是“go”上帝送给人类的方式。“失败后,wei-ping聂说。

尽管之前主人的身份正式开放,鉴于其令人印象深刻的记录,稳定在8秒内移动后,平均每天10局JuLiang规则等因素,该行业被认为是人工智能。与去年相比,李se-dol AlphaGo战争,然而,今天的“人机大战”第二幕更绝望。大师在网络游戏“20秒三个“超级闪电战,几乎很容易赢得中央磁盘。最专业的球员和玩主,只有一个感觉:战无不胜。

“自去年击败李se-dol AlphaGo,人工智能产品基于深度学习和网络搜索不断迭代更新,现在人工智能连续战胜人类棋手,不是特别意想不到的事情。”赛迪顾问电子信息产业,向阳的高级分析师告诉记者,21世纪经济报道“AlphaGo这样产品布局的基本原则和决策,他们通过大量的学习国际象棋棋手比赛,过去即使自己与他的象棋游戏这样的培训,以实现七里的突破。”

值得注意的是,去年AlphaGo战胜李se-dol引发KeJie不眠之夜,失去了主人后,发微博说:“新风暴即将袭来”。和他所说的“没有人情味的真相”,指的是主秀表演,简化国际象棋。掌握这些回复已经彻底改变了人类总是经验,甚至KeJie说“是用来学习走”是不对的。

“尽管人工智能学习样本包括国际象棋的过去,但下棋的机器是消化和吸收的过程,绝不是一个简单的检查。”太阳说:“人工智能下棋的第一步是最偏好的搜索,第二步是决策,在这个过程中,系统可以选择人类记忆中不存在这些回答。”

仍然是弱人工智能

年底的时候,人类的主人胜率为100%,达到了59-1和0——其中一个“1”或由于竞争对手陈为主。目前,成功的主人是工作进展。

成功的可能性,然而,并不意味着主人将代表最高水平的人工智能。“人工智能为力量。弱的定义有两种人工智能:一种是专注于单一任务本身,所以它也被称为狭义人工智能(AI)狭窄;第二个是只有不理解的结果。弱智能只能越走越远,受限制的轨道。”沈向洋院长说。

人工智能专家金21世纪经济报道》记者表达了同样的人工智能”和弱点的”的观点。“不同于可以模仿人类智能,弱回答特定的问题,人工智能,强人工智能等于人类智能技术和学习能力,可以用于什么样的人(人类创新/认为/保持情绪,等等)机器人。”

如α沈向洋去看“象棋大师”,是人工智能的代表产品。他们是优秀的信息处理,但它不是基于信号和数据的理解意义,不能真正理解接收到的信息,也不能有潜力发展意识。

与弱人工智能相比,强人工智能(AI)强真的能够理解信号和数据的意义,因此全部或大部分人类的能力。弱人工智能,例如,可以在走,象棋和其他规则清晰,易于量化和出生计算突破,甚至超过人类,但不是在无监督学习情况下,编写一个程序来克服围棋大师本人。后者是强人工智能预计将达到。

然而,沈向洋院长显示弱人工智能也有相同的值,对用户有益。“如果可以,大数据和云计算,和传感器网络技术,弱人工智能可以超越人类能力在一些,因为它本身就是一个专家系统,事实上在各个领域,如经济、科技、民生是有前途的。”

“是人类和机器一起工作的未来发展方向,形成更高层次的提高的情报”。沈向洋院长说,“人机合作的最终目的,是人工智能的应用来提高人类生产力和流动性。”

事实上,正如KeJie发布微博失败后所言:“从现在开始,我们的球员将与计算机相结合,对一个新的领域,达到一个新的境界。”也许结束“人机大战”的时代,未来将“统一”人机时代。

(编辑:周开平,电子邮件:zhoukp@21jingji.com)

不必担心人工智能,因为他们也读更多的书

人工智能,因为他们也读更多的书/7228bed9dfa8ef70f8c7391b902258ce-0.jpg”/>

乔治亚理工大学的人工智能研究员马克Riedl说,不要担心AI对人类本身。图片:美国乔治亚理工学院(Georgia institute of technology)。

许多技术和人工智能技术有一个可怕的,钢铁侠,麝香是一个硅谷的2014年,他公开表示说:“人工智能技术被称为魔鬼,人工智能技术将像哈尔在2001年“2001:太空漫游”计算机人工智能杀死所有“船员”。同样,一个著名的物理学家史蒂芬·霍金已经表达了自己的担忧,他认为人类不断探索人工智能领域的“一个巨大的错误,错误甚至可能是人类有史以来的最愚蠢的错误。”

但有些不相信这个,乔治亚理工学院的交互式计算系统的人工智能研究人员马克Riedl就是其中之一。

“我认为人们可以放心,人工智能人类本身情况不太可能发生,“Riedl说。“我认为科幻小说的天网不太可能是天生的,和AI不会把人类看成是威胁。”除了技术层面,现在想成为麝香和霍金的眼睛将摧毁人类文明觉醒后的人工智能是不可能的。

然而,未雨绸缪并不总是一件坏事,在路上的人工智能的发展,许多专家已经开始行动。例如,自动驾驶汽车携带,在未来,当我们旅行时,只需要对男人做出许多选择。所以如何设置AI,让它符合人类价值的标准,以确保我们的安全防范侵权已成为一个应该考虑的问题。

AI现在还需要阅读

Riedl理解人类的思想让AI,最好的办法是让它与人类价值的阅读这些书,。简而言之,如果AI可以阅读《圣经》和其他作品,你可以通过学习,树立正确的区分善与恶。

Riedl说,即使人工智能会伤害人类,也不是因为他们的性恶,而是因为它不理解什么是伤害。此外,我们很难给AI清单列表,告诉它该做什么和不该做什么。因此,我们想让AI适应人类文化。

“问题是我们的手没有完成数据库关于道德和不道德的行为,”他说。“虽然几千年的人类文明生了太多的善与恶的故事,即使我们人类,也建立自己的学习通过。在人类文化方面,我们可以没有用户手册,但前辈的智慧把精华在许多故事。”

Riedl布伦特哈里森和他的同事最近在一篇名为“用故事AI灌输价值观”中提到的。他们的研究是基于一个人工智能的程序,称为谢赫拉莎德,AI可以写互动小说(即。通过连续选择决定故事的发展方向),当然,之前写AI需要学习从其他的故事。在研究的过程中,Riedl和哈里森的很多见解AI故事学习写作技巧的方法,他们将使系统叫做堂吉诃德,系统可以教AI以正确的方式完成任务。

区分“医学”和“抢药”

例如,Riedl和哈里森将从药房下令AI吃药。“如果唯一AI效率第一,冲进药店它肯定会取你所需,跑掉了。”Riedl说。

AI会犯这种错误不是邪恶的,因为它的身体性,但它不知道药店药品需要排队和支付。这些传统习惯没来学校,但是人们暴露在生活中慢慢学习。但是人工智能没有父母,没有人愿意花大量的时间来培养它,因为他们出生来完成这个任务。

“但如果我们能通过一系列真实的故事让AI学习社会规范,那么他们将有很大的进步,和去药房抢药的事情永远不会再发生。”Riedl说。

尽管需要许多限制性因素,Riedl和哈里森通过对比实验,验证了他的理论。在实验中,当然,去药店买药没有得到AI机器外壳,他们都是指直接和密切相关的故事到药店去买药(可能这个故事很无聊,因为是专门为实验编写)。

在实验中,如果AI做得好,将会得到奖励,但如果违反社会规范,将受到惩罚。

“这将是一个非常明智的,”生物伦理学家和美国进步中心,研究员Jonathan Moreno说。“通过这部小说,我们可以联系他人的实际生活。同时,这部小说是社会价值的体现和期望,作者眼睛Riedl值得伸出大拇指。”

谁来弥补材料?

如果我们真的可以让天网的AI,恐怕Riedl和哈里森AI文化将成为救世主,但是我们不得不考虑什么样的故事来教育他们。

当然,不是所有的小说都能成为人工智能的一个老师,人类世界的故事,善与恶并不是特别清楚,有时一个人可能是一个罪犯,但他有自己的人性的亮点。此外,还有很多世界上的英雄形象,和许多圣经的规则不符合当前值。

这些问题,给我们提出了另一个道德上模棱两可的问题,那就是:谁有权选择想要学习艾城的故事吗?

“这是一个政治问题,”Moreno说。“在我看来,这个问题没有正确答案。如果你想走这条路,我们需要从各个方面进行分析和决心。”

“如果你想成为人工智能的一个老师,你必须有知识,像圣”Riedl说。“但是如果你把英雄形象在教学材料,当你不是圣人是不合格的,因为你没有深入了解的社会,这是我的一个担忧。我们已经进入了大数据的时代,经验告诉我们,过度的数据总是比足够的安全,所以只要是合规,你可以加入人工智能学习数据库,只有用这种方法我们才能判断什么是好什么是坏。”

让AI仁慈比人类绝对是一件好事,但是只有通过代码无法完成的伟大。阿西莫夫,甚至是由直觉不朽的机器人三定律。现在,因此,可以通过人类让AI par是一项复杂的任务。学习这个故事我们只能寄希望于AI质量,减少学习人类的贪污。

Through the mainboard

李:我不会上传我的大脑,我将与AI合作

转载:内部:pofeng李

李最近成为人工智能的“传教士”,不仅“要建立的创新工作成为最了解人工智能的风险资本,最近出版的一本新书,“人工智能”。为什么李如此看好人工智能?他的影响发展的人工智能是乐观或者悲观?

如何确定哪些AI投资创业团队?

作为最了解人工智能VC,李开复的创新工场如何决定投资于人工智能的团队?李开复说,在过去,创新工场投资的50%集中在人工智能领域的创业团队,投资一亿美元在大厅的人脸识别,小额贷款公司等。

李不否认有很多人工智能领域的“吹牛”创业并不是理想的投资目标,所以你需要好的眩要求创新工场是使用人工智能选择值得投资团队,人工智能,李明博说,不,因为风险投资工作的不易取代了人工智能,所以在寻找投资机会的过程中,也不能用人工智能,而是依靠人类的智慧更有价值。

那么,如何选择团队吗?

1。创新工场不投资于任何技术验证。

2。即使是验证可行的和商业价值关心如何获取和创新工作场所。

3所示。团队的强大的人才?Vc不要期望团队发明新技术,但至少你知道如何掌握这种技术。

以上是投资团队的三个基本原则,但投资不仅是负责捡起一个良好的团队,特别是在人工智能领域,几乎所有的顶尖科学家,投资会花非常多,经常与团队讨论如何应用,是否有合作的机会,创造更多的商业价值,成为最受信任的顾问团队。

所以一些人工智能的投资团队,如面部识别技术,它可以应用在手机解锁,电力服务,安全应用,等小额信贷队伍,因为很多人没有信用卡在中国,但与熟人借非常尴尬,这仅仅需要确实存在,坏账率非常高。通过人工智能的应用,可以用来判断人可以借他钱吗?找到一个方法来降低违约。这些应用程序变得越来越成熟,与小额贷款,已经可以达到150万单每个月,每一个站在1000元,积累了一年180亿,这比银行的规模。

技术,结合特定的业务需求,可以有爆炸性增长。

人工智能的成熟的技术,但还没有平台

当涉及到技术的发展,人工智能很重视科学家的参与,随着互联网创业的关注更少的发展程度和学术、学位在硅谷,又会回来吗?

李认为,人工智能是在开始阶段,现在是非常重要的,然后用成熟的技术的发展,技术平台,比如当工程师可以打开工具箱来选择合适的工具来使用人工智能技术的使用,不需要如此多的科学家,和人工智能以受欢迎。主流的深度学习技术是非常成熟的现在,但我不能发展成为一个平台,也需要很多的科学家。

特点是人工智能的发展,甚至在某种程度上,人类无法阅读或不能理解。所以如果你想贷款通过人工智能的人,因为审计机制是人工智能研究中,被拒绝也不知道为什么,这不会造成问题吗?李很乐观,说可以,反过来,利用它,只是因为人们不理解,也不能解释也可能是一个更好的解释,通过人工智能的应用,也为了保护商业秘密。只是,被拒绝贷款也不知道为什么,但是电脑还决定,真的没有问题吗?

七个黑洞的关闭将最终取代了更加开放的生态系统

的过程中造成的成熟的技术,人工智能,开源是非常重要的。李,例如,原来封闭的Wintel生态系统,随着行动,开放源代码的趋势已经成为现在的主流,使出现的开放生态系统等人工智能发展奠定了良好的基础,但除了代码,数据,也要开源,但现在有七个黑洞,即谷歌、Facebook、微软和亚马逊,和中国的蝙蝠,这些公司有非常大量的数据,但在再也不来,就像一个黑洞,这不是一种好现象,人工智能的发展,当然这七个黑洞相对更好。

互联网上的7家公司,当然,是非常大的,但是在一些传统的和实体产业,公司的影响非常小,所以我们可以期待在未来将会有一个更加开放的系统信息,代替七的黑洞。实际上对于科学家而言,这七个大洞导致了很多麻烦,因为人工智能技术的发展,需要这些信息,但数据没有被共享的,所以科学家们限制生活的发展,这就是为什么许多科学家后来去了7家公司,或者不学习,但毕竟是一种过度的保护自身利益的行为,科学家们研究“乞讨”数据,关于我的什么?

所以实践不仅是代码开源创新工场,数据也开源的,学生和合作,因为有更多的高级工程师其实也不了解人工智能,但现在许多大学生学到的知识,在过去与斯坦福大学机器学习课程在80人,1000人,今年大学生的人工智能技术,是人工智能发展的未来的人才,他们将会非常饿了平整的平台来发展自己的天赋,我们会提供他们一个机会。

看看台湾的学术界,李的观察,研究者们实际上是在即将放弃,因为没有一个以上的数据,而不像美国或中国七大黑洞,台湾甚至没有一个黑洞。如果有一个台湾教授或学生感兴趣的人工智能的发展,然后可以开发更多的或是参与开源生态系统。

人工智能的发展有三个阶段

人工智能的发展,李提到将在三个阶段:

1。第一个应用程序的现有数据。

2。接下来是收集新数据通过更多的新传感器和硬件开发新的应用程序。

3所示。最后是一个全面的自动化。

三个阶段的时间可能会成为下一个五年,十年,十五年。人工智能的第一个应用程序是科技行业,如谷歌搜索实际上已经使用很长一段时间,现在是一个科技公司不使用人工智能技术,有点落伍了,数据也不用,不奇怪吗?

除了互联网公司,谁的信息?金融行业和金融行业自然是应该使用的人工智能,是完全数据驱动的一个行业,银行、保险、贷款、信贷、投资、处理数据。

李就是这样,如果有一个行业一个标签和大量的数据,数据是一个领域的,是理想的人工智能应用程序数据。

金融行业是非常符合三个标准。金融行业是非常丰富的,企业家会涌入这个行业,充分利用人工智能。

接下来是医学,医学也有大量的数据,如图像是一种数据,如果你有一个朋友在radiology department,现在怀了。看到x射线、mri、ct扫描,需要积累经验在过去,但又如何通过整个数据库经验的人比人工智能学习!人脸识别,传统的也许是最强大的是警察,一看就知道谁是逃犯,但现在在十字路口设立了一个相机,与警察比人工智能可以做得更好吗?24小时没有休息,数据库的完整性和识别速度、低误报。除了形象,也是一种DNA数据,数据处理有突破深度学习的发展成熟后,将是未来发展的一个关键,您可以通过DNA来开发更纯粹的淮河,定制的医疗护理。

甚至医生必须改变我的工作

所以不要看医生现在是一个很好的职业,人工智能在一些东西可以比医生,例如,一只手颤抖,机器没有操作,经验有限,机器的经验只有通过数据库大小限制。接下来,医生与其说是一个医生一样机器和病人之间的一座桥梁或“接口”。事实上这并不是一件坏事,许多医生现在取决于诊断,虽然学习很困难,而不是看到大部分的人工智能在未来工作中,医生可以更加注意做研究,有更多的医学快速突破。

当涉及到卫生保健和人工智能的应用,让人想起IBM华生也参与了肿瘤医学研究在过去,但有趣的是,李谈到很多人工智能的发展,似乎很少谈论IBM ?李说,IBM的人工智能不深学习技术基于目前有重大进展。过去IBM挑选了一些特定的域可以提供他们的服务和创造收入,如果你真的想回到什么是人工智能的主要科学家在IBM服务吗?突破性技术是什么?可怕的数据是什么?像都没有。

上传大脑是虚荣心的表现

李开复愿意上传自己的大脑?李说,人的生命将走到尽头是有意义的,上传大脑是虚荣的表现,感觉很棒,留下来。以世界为物理表示,或精神,有爱,去探索的存在。如果是物理世界,每一个大脑,值得挽救吗?迟早有一天,我们会被人工智能!如果世界只有身体和一侧的表面,这是毫无意义的生活,死去死! ! ! !如果是精神上的,爱的世界里,这些东西可以上传吗?所以,李宁愿保持有点自知之明的人,并不想上传自己的大脑。

不想上传我自己的大脑,它与人工智能、合作也应该可以创建更好的性能比过去吗?李明博说,许多人认为,人工智能的合作是1 + 1 = 3,但实际上应该是1 +一亿=一亿和1.1。在大多数地区,人类非常小,人工智能是非常大的,所以所有的人都想知道如何应用人工智能,为了把事情做好。

人工智能之后

当然,人工智能和许多限制,例如,科学家们试图让人工智能可以不需要大量的数据,或现在也只能处理一个问题在人工智能领域,跨学科是卡住了。所以,有很多的事情要做,值得做的事情。

首先,人工智能来取代人类工作的工作远比创造却忽视了一些工作在过去,逐渐将被重新重视,像所谓的文科生,哲学,社会学,人类学,艺术,等等,人工智能并不是不能做这些事情,是可以改变这些地区。并不是说这些地区将利用人工智能,但ai取代后很多人力,将会有更多的人不得不去这些地区的发展,这不是一件坏事。

第二,职业发生了转变,过去是医生的过程的主要力量,但下面的可能成为人工智能、患者之间的一座桥梁或转换的研究。像老师,可能不再是教学,但学生提供护理。服务和工会是人类的主要工作在未来,李明博说,人类生活在世界上,不应该灵魂产生更多的碰撞和交流吗?现在我们正忙着工作,就释放人类的人工智能,也是一件好事。

人工智能的智商现在只有4岁

最近,一系列旨在测试的一些世界上最好的人工智能(AI)系统和人类智商(IQ)的结果之间的关系,试验表明,人工智能的智慧取得了4岁孩子的水平。研究小组从美国伊利诺伊大学,完成了测试,他们发现,我们有最先进的人工智能系统等于平均4岁儿童的智力水平。然而,当孩子七岁的年龄,智力水平的人工智能系统也将由人类挂。

当然,智商测试是衡量智力。在处理一些计算机的能力仍远远领先于我们,如计算的速度等等。测试将所要做的就是人工智能评估是否能够合理地了解周围环境的能力。在“自我”这个特定领域,智能系统相比,人类还有很长的距离。

,麻省理工大学的研究人员开发的技术,人工智能系统ConceptNet也参与了这项研究,这是一个学术界自1990年代开始开发测试系统。它在相似单词和得到一个高分,性能很一般信息,推理和理解可以用贫穷来描述。

智商测试的范围和形式是不一样的,这取决于对象的年龄。在该测试中,测试是问“你在哪里找到一个企鹅呢?”“房子”是什么。测试可能需要通过一些线索来确定答案,或者是问“我们为什么要握手?”。正如你所看到的,这些问题是电脑会感到棘手的问题类型。

在某些情况下,团队将从几个不同的角度分解问题,和观察ConceptNet将什么样的反应,但是,人工智能系统的回答常常是令人困惑的。当质疑,例如,“动物”的男性有鬃毛,“它生活在非洲”,“这是一个巨大的棕色猫”,电脑会有以下可能的答案:狗,农场和动物,家庭和猫。

研究者欧胜当在一次采访中,说:“人类的常识范围内至少答案将是有限的动物,然后根据猫的线索进行简单的推理,并找到答案在合格的猫。”

即便如此,人工智能的突破速度已经达到了一个非常快的速度。专家认为,人工智能学习和自然语言能力的改善将导致他们在未来几年就像人类的思维,比如苹果Siri,现在谷歌和微软Cortana。