英国政府发布报告使用人工智能AI创新增强国力

人工智能AI创新增强国力/17ad5e066c76bb5bbf4ba205a0e4e25c-0.jpg”/>

(文章/马特•汉考克英国数字和文化部长)

如果人工智能新技术革命作为一个蜿蜒的山脉,我们目前在山前山山麓。人工智能将像蒸汽机在19世纪经济,改变我们的生活。

人工智能与智能手机,已经把我们的对话向我们推荐的音乐,为盲人描述图片,和火灾预警可能发生。

在不久的将来,从无人驾驶汽车到智能电网,然后消除传染病,我们会看到到处都是人工智能。

英国政府也在研究这项技术的潜在应用提供公共服务。

政府数据计划,增加相关政府项目的数量和数据科学家,也在建立这些强大的新工具的合理应用起着主导作用。

作为世界领先的数字国家之一,人工智能带来了一个很好的机会。

如果应用得当,可以使经济更繁荣,提供更好和更有意义的工作。我们能够更有效地使用资源来保护环境。我们可以让政府更聪明,使用数据的力量来提高公共服务的质量。

正如我们所看到的在许多行业,许多日常认知工作,文件中,过滤和排序,更加自动化,解放世界关注工作更人性化。

首相已经发布了第三方现代就业形势的回顾,这样我们就可以为企业和职工提供支持和劳动力市场和经济的变化同步。

人工智能也使用责任伦理、治理、数据和强大的网络防御能力提出了新的问题。为了释放革命的全部潜能,我们必须做好准备。

我很高兴英国皇家学会和英国学院进行审查,如何最好地利用人工智能学习英语。

本文阐述了人工智能的未来科学的发展,介绍了人工智能技术一些影响社会和政府,同时展示了我们可以负责任地使用这项技术,在每个人的生命和生活水平提高英语。

这份报告是政府的首席科学顾问及时和重要的工作。

介绍

(文章/政府首席科学顾问Mark Walport爵士内政部的执行秘书,Sedwill)人工智能已经到来。网络世界中,人工智能已成为日常生活的一部分,各种搜索引擎和在线电子商务网站,。人工智能以达到更高效的企业和政府提供了巨大的潜力,但使用人工智能带来了治理、责任和道德重要的问题。

为了实现人工智能的全部潜力,避免可能的不良后果,社会需要为这些问题找到满意的答案。这份报告阐述了一些可能的方法,描述了政府在处理这些问题,一些方法。

人工智能不是一个独特的(不同的)技术,其强大取决于一些先决条件:计算能力、带宽和大型数据集,所有这些都是“大数据”元素,和潜在的大数据只能通过人工智能实现。如果数据是燃料,人工智能引擎驱动数字革命。

关于人工智能的应用和大数据有很多的写作。本文并不试图覆盖整个领域,从英国学院,2016年2月的一次会议上的政府首席科学顾问Mark Walport和内政部的执行秘书,Sedwill,研讨会讨论了一些法律和伦理问题的人工智能。该报告的核心内容如下,附件是总结了人工智能科学和法律专家。然而,我们尽量减少技术讨论了细节,专注于实际问题。我们希望这份报告能让你初步了解人工智能。

本文讨论了以下问题:

人工智能是什么,如何使用人工智能吗?

人工智能的优势是什么能带来生产力?

如何最好地管理使用人工智能的道德和法律风险问题?

使用人工智能技术创新和生产力

人工智能提供了巨大的潜力来提高生产力,最明显的是帮助企业和个人更有效地利用资源并简化他们的交互与大型数据集。中国企业正在利用人工智能和亚马逊来优化库存和分销网络,计划提供最有效的路线和使用存储容量最大化。人工智能可以帮助公司更有效地完成现有的业务。重要的是,人工智能还可以启用新的商业模式和新的方法来解决旧的问题。在医疗保健行业,例如,使用一种新的机器学习技术分析从智能手机和健身追踪器,采集的数据,可以改善慢性疾病的管理和预防急性紧急。

人工智能可以帮助企业员工提高工作效率和个人。日常管理和操作可以由软件代理(“机器人”),然后所有的优先级操作,管理和人力的同事(或其他)日常交互以及计划行程。像谷歌智能回复邮件软件可以根据之前的邮件回复,起草一份回复邮件的另一边。新闻工作室越来越多地使用机器学习写体育报道和草案:办公室里,类似的技术来生成财务报告和陈述的要点。

人工智能可以减少大数据搜索的负担。在法律职业,像罗斯,Lex Machina CaseText团队,使用人工智能筛查的法庭文件和法庭记录寻找相关的信息。其他公司也在使用类似的技术作为日常基本工作的一部分。人工智能还可以为你提供这些数据集,互动方式,如IBM Watson平台可以支持专家系统,它可以回答关于自然语言的事实问题。对于网络安全,人工智能,提供的方法识别网络中的异常行为模式。

这些例子所使用的软件与人类同样的事情,但在许多情况下,软件可以分析个人以外的大小或复杂数据分析能力。事实上,人工智能是不能代替人类的智慧。这是一个方法的新结论。人工智能可以弥补或超出了我们的能力,它可以与我们一起工作,甚至对我们的教育,李se-dol AlphaGo游戏战后与人类是他的证据。本发明提供了一种新的创新的机会。也许,人工智能从实际的生产力增益将向我们展示一种新的思维方式。

人工智能技术的基础,世界领先的科学开发的投资者、雇主、员工和客户的繁荣的构成的生态系统,并支持类似的阿兰·图灵研究所等机构网络。牛津剑桥、伦敦大学学院和帝国理工学院率先创新技术的发展已经在世界各地数以百万计的人使用工具的应用,越来越多的英国合资公司选择留在英国,进一步加强人工智能在英国专业知识和能力。

这种潜在的推动人工智能应用于一系列行业的迅速。在技术专家凯文·凯利的话说:“在未来建立一个业务,该公司的商业计划很容易预测:X +人工智能。”“人工智能”、“机器学习”及相关术语的定义,很难高估这种增长的大小:很难画一个“大数据”和“机器学习”。但是,在2015年,一份报告显示,美国“基于人工智能和机器人系统的全球市场份额将从2014年的580亿美元增加到2020年的1530亿美元。

大数据的一个更广泛的观点,根据今年早些时候发布的一份报告,大数据和物联网的估值在2015 – 2020年之间,英国的累积收益有望达到2400亿磅,制造业将最大的受益行业最大的一个收益效率储蓄。2015年,另一份报告预测,利用大数据的主要操作节省成本,欧洲各国政府也可以增加税收和减少欺诈和错误率。同时,500名英国公司2014年的研究得出结论,更好地利用客户和消费者数据的企业,企业的生产效率高于没有8%到13%。对机器人、数据和人工智能——有时被称为“工业”4.0 -系统影响更广泛的预测会带来巨大的好处。

麦肯锡公司自己说预计为4.0,收入增长23%,工业生产率增长26%。人工智能已经意识到所有这些增长的核心作用。

政府使用人工智能

政府已经在使用机器学习,数据,如科技、政府数据项目工作使其使用正在增长。技术提供了洞察的一系列数据,从提供反馈到卫星图像的分析耕地使用数字服务。随着这些技术越来越复杂,可以认识到更多的好处。例如,我们可以:

更准确地预测需求和定制服务,现有服务(如卫生、社会保障和应急服务)更有效率,最大的资源分配

方便政府官员使用更多的数据做出决策,并减少欺诈和错误的风险。

使决策更加透明(也许通过收购背后的数字录音过程,或者通过数据可视化决策支持)

帮助更好的理解他们为人民服务的政府部门,以确保提供适当的支持和大家的机会

作为人工智能的数据和使用变得越来越主流,其他应用程序将会出现。

政府是一个特殊的组织,拥有特殊的义务,不属于私人组织。政府行为必须是透明的,遵循正当程序,负责的公民。这意味着,除了上述一般点,政府使用人工智能和大数据和特殊责任。

意识到这一点,政府已经发布了政府对政府的内部数据分析师科学工具使用伦理准则。大量来自政府内部和外部输入数据科学家共同建立了第一个行为准则,使它尽可能地实用。

这里特别强调政府特别相关的两个目的:使用人工智能提供建议,和人工智能的使用可以产生法律效力。

对劳动力市场的影响

机器学习,机器人学,大数据和自动化系统的出现,可能造成重大影响的经济和劳动力市场。与这些技术被视为新一轮的“通用”的一部分数字技术,其影响力蒸汽机和装配线,主要潜力巨大的社会和经济变化。有证据表明,这些技术能促进生产率增长,从而促进经济增长,但这些变化的规模和速度有很大的不确定性。这些变化将取决于科技发展的速度和企业使用这些技术的经济作为一个整体。

其中,技术可能会导致特效在服务行业,服务行业是英国最多的工业工作。虽然制造业由于技术创新和发生了革命性的变化,但个人服务受到的影响较小,因此它不出现在制造业的生产率增长。证据,然而,经济合作与发展组织(OECD),全球领先的服务公司的生产率增长是显而易见的竞争对手在技术相对落后。

大数据,机器人和自动化系统的确切影响劳动力市场是一个非常有争议的话题。关于自动化可能会引起更大规模的工作岗位消失,现在很少有共识,失去工作规模通常是这些讨论的焦点。从德勤,例如,一个研究发现,35%的英国的工作将在未来10到20年内受到自动化。相比之下,经济合作与发展组织(OECD)说,只有10%的英国的工作消失的危险。这样做的原因可能是一个具体工作的业务将产生非常大的变化,研究还发现,对于其他25%的工作,基本的业务可能显著改变。这意味着,尽管一个位置可以保持不变,但所需的技能在未来可能会有一个很大的变化。

不仅如此,我们应该期待某种类型的工作的消失,一种新型的工作。有理由认为自动化可能不会减少就业,可能出现由于新的产业,并导致更高的收入提高生产力和降低成本的增长。根据皮尤研究中心的调查,美国专家在机器人技术和人工智能的净效应进行了分析:48%的受访者认为,新技术将取代更多的就业机会和导致就业率的下降,52%的受访者认为新技术将创造更多的就业机会,并导致就业上升。

自动化将有很大的技能可能会改变人们的工作类型和需要的类型。证据表明,提升的自动化程度将威胁到常规手工工作和日常认知。事实上,技术和贸易,增加了高技术工作的比例,减少的比例高技能的工作。

就业和技能委员会(UKCES)预计,从2012年到2022年十年,大部分工作预计将归类为一种新的高技能的工作,到2022年,超过一半的工作是集中在管理、专业(专业)和专业(专业)联系起来。欧盟,熟练工人可能会供不应求。在某种程度上和位置在很大程度上参与传统的认知任务。创新的各个方面和程度并不一定意味着确保员工的影响自动化。

未来的工作将有技术补充功能,而不是取代技术,对未来的工作将包括新技术的开发和利用能力。有足够的证据表明STEM(科学、技术、工程、数学)和数字技能的需求将会增加。UKCES预测,2012年至2022年期间,程序员和软件开发人员的数量将会增加约20%。

如果所涉及的工作困难的任务自动化,新技术是补充技术。弗雷,奥斯本强调意识、创造复杂的操作和社会情报的重要性。经合组织认为,那些创意、环境适应性、任务、谨慎,社交技能和内隐认知依赖高个人对个人(P2P)服务和专业的影响比欧洲自动化学校任命(2013)强调,越少的影响自动化的工作往往需要人们思考、沟通、组织和决策。

技术变化可能导致一个特定的工作技能更迅速地消失,人们换工作的频率可能会更高。这需要个人对自己在他的整个职业生涯中不断地培训,主动,愿意改变,职业的灵活性。这也意味着,在“一般”领域的技能,如解决问题和思维灵活性的价值会越来越高。

政府的角色是促进新技术的发展,重新培训员工,使他们在各自的使用人工智能工作,或关注人际关系技巧,如移情和创造力工作区域。

一个新的挑战

重要的是要认识到,除了人工智能提供了巨大的好处,有一些目的与相关潜在的伦理问题。许多专家认为,政府的管理和减少可能的任何风险都可以发挥作用。任何工作你需要考虑两大领域:

了解机器学习方法和创建增加个人数据、个人自由和隐私和同意(同意)

适应人工智能在决策问责制的概念和机制

使用过去的数据统计分析来预测可能的行动或不同群体质量,该方法广泛应用于公共和私营部门。保险公司的统计分析,来更好地评估风险。对商家而言,统计分析,以更好地定位用户。对于执法,统计分析可以更准确地评估威胁。

基于种族、生活方式和结算风险的分析个人持有的刻板印象,但这种风险可以避免的。在英国公共部门的组织倾向于避免使用这些技术使用种族、国籍或地址作为标准,以避免被指责不公平的歧视。“无罪推定”原则对这一理论的应用方法,预测方法通常用于警察资源分配给那些早期干预有利于个人目标表面(不做)。当然,其他执法机构需要有能力准确地确定个人目标,避免偏见的想法误导,从而更好地利用警察资源。

人工智能技术的发展有可能获得某种公共数据的个人信息,如个人或其他人员与个人有关,如朋友、亲戚或同事在线行为。这些信息可能超出了个人最初同意披露的范围。

信息委员会匿名行为规则,有关部门来管理这些风险,防止从全面的匿名数据来识别个体的方法,明确。然而,随着越来越多的公共数据,和逐步发展更强大的人工智能技术,个人识别之前再次将成为不可避免的可能性很小,因此,组织部门需要重复检查防护措施。

算法的偏差可能导致偏见的风险。偏差主要来自于训练数据深度学习系统,比如大学利用机器学习算法对申请者进行评估。登记历史数据训练算法(有意或无意)反映了进步的一些录取过程的偏差。偏差将会永久存在在社会这样,不公平现象的一个恶性循环。消除风险,技术人员应该确定数据偏差,并采取措施来评估偏差的影响。成为当前大学的问题甚至世界各地的计算机科学、政策、智库和报纸的主题辩论。问题是治理和社会实际可行的方法。

许多专家和评论员建议确保问责制、透明度是必要的:清楚算法,参数,使用什么数据实现什么目的将是必要的,以确定是否使用人工智能技术负责。

有时,你也需要平衡安全之间的关系或商业焦点和透明,更简单,明确算法参数可以看出,个人和企业钻制度漏洞,改变他们的应对行为。从根本上,透明没有提供寻求证据:只提供静态代码无法保证代码使用在一个特定的决定,也不能保证预期行为和程序员的代码在一个给定的数据集。

计算机科学家和政策专家目前正在开发的技术解决方案,上述算法的解决问题的责任。未来可能是“过程”或一个给定的一致性算法。另一种方法是使用机器学习技术,找出中非一致性算法或异常的结果。

人工人工智能评价方法决定是否成功的关键在于,算法与数据获得的信息量大于个别关注的算法,通过人与系统互动研究所获得数据的算法和信息的数量更大,因为人们的行为将会产生更多的数据和分析人员在评估的潜在影响写算法,使用工具来处理现实应该有一定的敏感性。开发人员需要考虑整个社会的应用识别风险。

最后,相比之下,关注结果,导致的结果的过程,试图理解特定的决策结果可能更低。清楚系统实现了预期的目标,与此同时,这个目的是可取的,这个问题的重要性是理解底层算法的技术问题。

结论

我们可以受益于信息技术的创新,这就需要相应的伦理治理方法,促进创新,建立信心,创造一个稳定的商业和投资环境,适度推动数据访问,所以计算机科学技术将进一步发扬。政府应该积极努力,帮助能够实现这一目标,这是非常重要的。

人工智能的管理方式是正确的,确实有助于改善数字数据的使用,这是不言而喻的。我们应该考虑到所有的元素日益复杂的空间数据治理,包括人们的行为负责任地将生成相关数据和负责自治软件代理,等,应采用的方法的灵活性,可以适应新的用途,以及更先进的新型的人工智能。有许多模型是值得考虑的。重要的是要确保从哪里开始,而不是考虑如何实现它。

英国皇家学会和英国国家学术科学研究所目前正在研究数据治理和机器学习的新挑战。为更广泛的社会和伦理问题,研究英国响应需要考虑。这将是非常受欢迎的,道德治理和行业指出一个正确的和最清晰的道路。有效的公共对话而言,英国享有良好记录,监管和道德问题的新兴技术,如胚胎研究、生殖技术和干细胞研究)实现强有力的管理。在这种背景下,人工智能,促进国民经济的发展和人民生活和幸福的潜力将会实现。

通过第一步设置:现在人工智能足够的阅读

人工智能足够的阅读/5dcbd72b890deda4c8c0fea6848e0742-0.jpg”/>

许多技术和人工智能技术有一个可怕的,钢铁侠,麝香是一个硅谷的2014年,他公开表示说:“人工智能技术被称为魔鬼,人工智能技术将像哈尔在2001年“2001:太空漫游”计算机人工智能杀死所有“船员”。同样,一个著名的物理学家史蒂芬·霍金已经表达了自己的担忧,他认为人类不断探索人工智能领域的“一个巨大的错误,错误甚至可能是人类有史以来的最愚蠢的错误。”

但有些不相信这个,乔治亚理工学院的交互式计算系统的人工智能研究人员马克Riedl就是其中之一。

“我认为人们可以放心,人工智能人类本身情况不太可能发生,“Riedl说。“我认为科幻小说的天网不太可能是天生的,和AI不会把人类看成是威胁。”除了技术层面,现在想成为麝香和霍金的眼睛将摧毁人类文明觉醒后的人工智能是不可能的。

然而,未雨绸缪并不总是一件坏事,在路上的人工智能的发展,许多专家已经开始行动。例如,自动驾驶汽车携带,在未来,当我们旅行时,只需要对男人做出许多选择。所以如何设置AI,让它符合人类价值的标准,以确保我们的安全防范侵权已成为一个应该考虑的问题。

AI现在还需要阅读

Riedl理解人类的思想让AI,最好的办法是让它与人类价值的阅读这些书,。简而言之,如果AI可以阅读《圣经》和其他作品,你可以通过学习,树立正确的区分善与恶。

Riedl说,即使人工智能会伤害人类,也不是因为他们的性恶,而是因为它不理解什么是伤害。此外,我们很难给AI清单列表,告诉它该做什么和不该做什么。因此,我们想让AI适应人类文化。

“问题是我们的手没有完成数据库关于道德和不道德的行为,”他说。“虽然几千年的人类文明生了太多的善与恶的故事,即使我们人类,也建立自己的学习通过。在人类文化方面,我们可以没有用户手册,但前辈的智慧把精华在许多故事。”

Riedl布伦特哈里森和他的同事最近在一篇名为“用故事AI灌输价值观”中提到的。他们的研究是基于一个人工智能的程序,称为谢赫拉莎德,AI可以写互动小说(即。通过连续选择决定故事的发展方向),当然,之前写AI需要学习从其他的故事。在研究的过程中,Riedl和哈里森的很多见解AI故事学习写作技巧的方法,他们将使系统叫做堂吉诃德,系统可以教AI以正确的方式完成任务。

区分“医学”和“抢药”

例如,Riedl和哈里森将从药房下令AI吃药。“如果唯一AI效率第一,冲进药店它肯定会取你所需,跑掉了。”Riedl说。

AI会犯这种错误不是邪恶的,因为它的身体性,但它不知道药店药品需要排队和支付。这些传统习惯没来学校,但是人们暴露在生活中慢慢学习。但是人工智能没有父母,没有人愿意花大量的时间来培养它,因为他们出生来完成这个任务。

“但如果我们能通过一系列真实的故事让AI学习社会规范,那么他们将有很大的进步,和去药房抢药的事情永远不会再发生。”Riedl说。

尽管需要许多限制性因素,Riedl和哈里森通过对比实验,验证了他的理论。在实验中,当然,去药店买药没有得到AI机器外壳,他们都是指直接和密切相关的故事到药店去买药(可能这个故事很无聊,因为是专门为实验编写)。

在实验中,如果AI做得好,将会得到奖励,但如果违反社会规范,将受到惩罚。

“这将是一个非常明智的,”生物伦理学家和美国进步中心,研究员Jonathan Moreno说。“通过这部小说,我们可以联系他人的实际生活。同时,这部小说是社会价值的体现和期望,作者眼睛Riedl值得伸出大拇指。”

谁来弥补材料?

如果我们真的可以让天网的AI,恐怕Riedl和哈里森AI文化将成为救世主,但是我们不得不考虑什么样的故事来教育他们。

当然,不是所有的小说都能成为人工智能的一个老师,人类世界的故事,善与恶并不是特别清楚,有时一个人可能是一个罪犯,但他有自己的人性的亮点。此外,还有很多世界上的英雄形象,和许多圣经的规则不符合当前值。

这些问题,给我们提出了另一个道德上模棱两可的问题,那就是:谁有权选择想要学习艾城的故事吗?

“这是一个政治问题,”Moreno说。“在我看来,这个问题没有正确答案。如果你想走这条路,我们需要从各个方面进行分析和决心。”

“如果你想成为人工智能的一个老师,你必须有知识,像圣”Riedl说。“但是如果你把英雄形象在教学材料,当你不是圣人是不合格的,因为你没有深入了解的社会,这是我的一个担忧。我们已经进入了大数据的时代,经验告诉我们,过度的数据总是比足够的安全,所以只要是合规,你可以加入人工智能学习数据库,只有用这种方法我们才能判断什么是好什么是坏。”

让AI仁慈比人类绝对是一件好事,但是只有通过代码无法完成的伟大。阿西莫夫,甚至是由直觉不朽的机器人三定律。现在,因此,可以通过人类让AI par是一项复杂的任务。学习这个故事我们只能寄希望于AI质量,减少学习人类的贪污。

主人是AlphaGo“去神仍然是“弱“人工智能”

1月4日,21点44分,神秘的网络象棋大师突然官方账户开口说,自己是AlphaGo。代表主AlphaGo,黄博士的儿子是运输代理AlphaGo团队。

对人类的主人,赢得了59场。1月4日下午3时,超过60“比得上国际象棋圣”wei-ping聂游戏54胜,主在中国传统输入在屏幕上“谢谢聂老师”。

自2016年12月29日,现在去画一些网络平台,主会表现出惊人的力量,克服了包括公园jeong-hwan KeJie,陈为主,甚至微笑,美锦,国内外众多顶尖棋手。1月4日,大师”到“再次击败周、风扇《和黄Yunsong棋手。

在主杀四方,其身份也引发了很多猜测。已经很多人怀疑,主人的最后战胜韩国棋手李se-dol AlphaGo升级,但是在21世纪的经济记者联系到谷歌公司早些时候,不是准确的响应。

“弱人工智能领域的,慢慢的会产生一些突破,比如,下棋,等等,只要这些规则是清晰的,容易量化,计算领域,机器可以慢慢做,和比人做得更好。”指人工智能相关产品,微软的全球执行副总裁,微软沈向洋人工智能和微软研究部门主任21世纪的经济记者说,“但没有机器可以在无监督学习的情况下,自己写一个程序来克服游戏的主人。这是最困难的地方。”

被誉为“上帝”

2016年12月29日,从“在线”,七天时间,大师以其复杂的路径,对写下2017年来不同寻常的开放。

上周,主人超过连续击败世界大师,包括KeJie九段,公园jeong-hwan九,陈为主九段,甚至微笑七段,等“假期”,1月1日一天主人回来后在24小时内取得11连胜,包括p。中国和韩国,金正日jiseok 5次世界锦标赛冠军,日本大满贯传奇和创造美锦和亚洲杯冠军李秦城,等等。

1月4日,“比得上国际象棋圣”主wei-ping聂方剂来源,但最终也以失败告终。“远不是像我们想象的那样简单,有巨大的空间为我们人类采矿。远处的狗,主人,是“go”上帝送给人类的方式。“失败后,wei-ping聂说。

尽管之前主人的身份正式开放,鉴于其令人印象深刻的记录,稳定在8秒内移动后,平均每天10局JuLiang规则等因素,该行业被认为是人工智能。与去年相比,李se-dol AlphaGo战争,然而,今天的“人机大战”第二幕更绝望。大师在网络游戏“20秒三个“超级闪电战,几乎很容易赢得中央磁盘。最专业的球员和玩主,只有一个感觉:战无不胜。

“自去年击败李se-dol AlphaGo,人工智能产品基于深度学习和网络搜索不断迭代更新,现在人工智能连续战胜人类棋手,不是特别意想不到的事情。”赛迪顾问电子信息产业,向阳的高级分析师告诉记者,21世纪经济报道“AlphaGo这样产品布局的基本原则和决策,他们通过大量的学习国际象棋棋手比赛,过去即使自己与他的象棋游戏这样的培训,以实现七里的突破。”

值得注意的是,去年AlphaGo战胜李se-dol引发KeJie不眠之夜,失去了主人后,发微博说:“新风暴即将袭来”。和他所说的“没有人情味的真相”,指的是主秀表演,简化国际象棋。掌握这些回复已经彻底改变了人类总是经验,甚至KeJie说“是用来学习走”是不对的。

“尽管人工智能学习样本包括国际象棋的过去,但下棋的机器是消化和吸收的过程,绝不是一个简单的检查。”太阳说:“人工智能下棋的第一步是最偏好的搜索,第二步是决策,在这个过程中,系统可以选择人类记忆中不存在这些回答。”

仍然是弱人工智能

年底的时候,人类的主人胜率为100%,达到了59-1和0——其中一个“1”或由于竞争对手陈为主。目前,成功的主人是工作进展。

成功的可能性,然而,并不意味着主人将代表最高水平的人工智能。“人工智能为力量。弱的定义有两种人工智能:一种是专注于单一任务本身,所以它也被称为狭义人工智能(AI)狭窄;第二个是只有不理解的结果。弱智能只能越走越远,受限制的轨道。”沈向洋院长说。

人工智能专家金21世纪经济报道》记者表达了同样的人工智能”和弱点的”的观点。“不同于可以模仿人类智能,弱回答特定的问题,人工智能,强人工智能等于人类智能技术和学习能力,可以用于什么样的人(人类创新/认为/保持情绪,等等)机器人。”

如α沈向洋去看“象棋大师”,是人工智能的代表产品。他们是优秀的信息处理,但它不是基于信号和数据的理解意义,不能真正理解接收到的信息,也不能有潜力发展意识。

与弱人工智能相比,强人工智能(AI)强真的能够理解信号和数据的意义,因此全部或大部分人类的能力。弱人工智能,例如,可以在走,象棋和其他规则清晰,易于量化和出生计算突破,甚至超过人类,但不是在无监督学习情况下,编写一个程序来克服围棋大师本人。后者是强人工智能预计将达到。

然而,沈向洋院长显示弱人工智能也有相同的值,对用户有益。“如果可以,大数据和云计算,和传感器网络技术,弱人工智能可以超越人类能力在一些,因为它本身就是一个专家系统,事实上在各个领域,如经济、科技、民生是有前途的。”

“是人类和机器一起工作的未来发展方向,形成更高层次的提高的情报”。沈向洋院长说,“人机合作的最终目的,是人工智能的应用来提高人类生产力和流动性。”

事实上,正如KeJie发布微博失败后所言:“从现在开始,我们的球员将与计算机相结合,对一个新的领域,达到一个新的境界。”也许结束“人机大战”的时代,未来将“统一”人机时代。

(编辑:周开平,电子邮件:zhoukp@21jingji.com)

不必担心人工智能,因为他们也读更多的书

人工智能,因为他们也读更多的书/7228bed9dfa8ef70f8c7391b902258ce-0.jpg”/>

乔治亚理工大学的人工智能研究员马克Riedl说,不要担心AI对人类本身。图片:美国乔治亚理工学院(Georgia institute of technology)。

许多技术和人工智能技术有一个可怕的,钢铁侠,麝香是一个硅谷的2014年,他公开表示说:“人工智能技术被称为魔鬼,人工智能技术将像哈尔在2001年“2001:太空漫游”计算机人工智能杀死所有“船员”。同样,一个著名的物理学家史蒂芬·霍金已经表达了自己的担忧,他认为人类不断探索人工智能领域的“一个巨大的错误,错误甚至可能是人类有史以来的最愚蠢的错误。”

但有些不相信这个,乔治亚理工学院的交互式计算系统的人工智能研究人员马克Riedl就是其中之一。

“我认为人们可以放心,人工智能人类本身情况不太可能发生,“Riedl说。“我认为科幻小说的天网不太可能是天生的,和AI不会把人类看成是威胁。”除了技术层面,现在想成为麝香和霍金的眼睛将摧毁人类文明觉醒后的人工智能是不可能的。

然而,未雨绸缪并不总是一件坏事,在路上的人工智能的发展,许多专家已经开始行动。例如,自动驾驶汽车携带,在未来,当我们旅行时,只需要对男人做出许多选择。所以如何设置AI,让它符合人类价值的标准,以确保我们的安全防范侵权已成为一个应该考虑的问题。

AI现在还需要阅读

Riedl理解人类的思想让AI,最好的办法是让它与人类价值的阅读这些书,。简而言之,如果AI可以阅读《圣经》和其他作品,你可以通过学习,树立正确的区分善与恶。

Riedl说,即使人工智能会伤害人类,也不是因为他们的性恶,而是因为它不理解什么是伤害。此外,我们很难给AI清单列表,告诉它该做什么和不该做什么。因此,我们想让AI适应人类文化。

“问题是我们的手没有完成数据库关于道德和不道德的行为,”他说。“虽然几千年的人类文明生了太多的善与恶的故事,即使我们人类,也建立自己的学习通过。在人类文化方面,我们可以没有用户手册,但前辈的智慧把精华在许多故事。”

Riedl布伦特哈里森和他的同事最近在一篇名为“用故事AI灌输价值观”中提到的。他们的研究是基于一个人工智能的程序,称为谢赫拉莎德,AI可以写互动小说(即。通过连续选择决定故事的发展方向),当然,之前写AI需要学习从其他的故事。在研究的过程中,Riedl和哈里森的很多见解AI故事学习写作技巧的方法,他们将使系统叫做堂吉诃德,系统可以教AI以正确的方式完成任务。

区分“医学”和“抢药”

例如,Riedl和哈里森将从药房下令AI吃药。“如果唯一AI效率第一,冲进药店它肯定会取你所需,跑掉了。”Riedl说。

AI会犯这种错误不是邪恶的,因为它的身体性,但它不知道药店药品需要排队和支付。这些传统习惯没来学校,但是人们暴露在生活中慢慢学习。但是人工智能没有父母,没有人愿意花大量的时间来培养它,因为他们出生来完成这个任务。

“但如果我们能通过一系列真实的故事让AI学习社会规范,那么他们将有很大的进步,和去药房抢药的事情永远不会再发生。”Riedl说。

尽管需要许多限制性因素,Riedl和哈里森通过对比实验,验证了他的理论。在实验中,当然,去药店买药没有得到AI机器外壳,他们都是指直接和密切相关的故事到药店去买药(可能这个故事很无聊,因为是专门为实验编写)。

在实验中,如果AI做得好,将会得到奖励,但如果违反社会规范,将受到惩罚。

“这将是一个非常明智的,”生物伦理学家和美国进步中心,研究员Jonathan Moreno说。“通过这部小说,我们可以联系他人的实际生活。同时,这部小说是社会价值的体现和期望,作者眼睛Riedl值得伸出大拇指。”

谁来弥补材料?

如果我们真的可以让天网的AI,恐怕Riedl和哈里森AI文化将成为救世主,但是我们不得不考虑什么样的故事来教育他们。

当然,不是所有的小说都能成为人工智能的一个老师,人类世界的故事,善与恶并不是特别清楚,有时一个人可能是一个罪犯,但他有自己的人性的亮点。此外,还有很多世界上的英雄形象,和许多圣经的规则不符合当前值。

这些问题,给我们提出了另一个道德上模棱两可的问题,那就是:谁有权选择想要学习艾城的故事吗?

“这是一个政治问题,”Moreno说。“在我看来,这个问题没有正确答案。如果你想走这条路,我们需要从各个方面进行分析和决心。”

“如果你想成为人工智能的一个老师,你必须有知识,像圣”Riedl说。“但是如果你把英雄形象在教学材料,当你不是圣人是不合格的,因为你没有深入了解的社会,这是我的一个担忧。我们已经进入了大数据的时代,经验告诉我们,过度的数据总是比足够的安全,所以只要是合规,你可以加入人工智能学习数据库,只有用这种方法我们才能判断什么是好什么是坏。”

让AI仁慈比人类绝对是一件好事,但是只有通过代码无法完成的伟大。阿西莫夫,甚至是由直觉不朽的机器人三定律。现在,因此,可以通过人类让AI par是一项复杂的任务。学习这个故事我们只能寄希望于AI质量,减少学习人类的贪污。

Through the mainboard

李:我不会上传我的大脑,我将与AI合作

转载:内部:pofeng李

李最近成为人工智能的“传教士”,不仅“要建立的创新工作成为最了解人工智能的风险资本,最近出版的一本新书,“人工智能”。为什么李如此看好人工智能?他的影响发展的人工智能是乐观或者悲观?

如何确定哪些AI投资创业团队?

作为最了解人工智能VC,李开复的创新工场如何决定投资于人工智能的团队?李开复说,在过去,创新工场投资的50%集中在人工智能领域的创业团队,投资一亿美元在大厅的人脸识别,小额贷款公司等。

李不否认有很多人工智能领域的“吹牛”创业并不是理想的投资目标,所以你需要好的眩要求创新工场是使用人工智能选择值得投资团队,人工智能,李明博说,不,因为风险投资工作的不易取代了人工智能,所以在寻找投资机会的过程中,也不能用人工智能,而是依靠人类的智慧更有价值。

那么,如何选择团队吗?

1。创新工场不投资于任何技术验证。

2。即使是验证可行的和商业价值关心如何获取和创新工作场所。

3所示。团队的强大的人才?Vc不要期望团队发明新技术,但至少你知道如何掌握这种技术。

以上是投资团队的三个基本原则,但投资不仅是负责捡起一个良好的团队,特别是在人工智能领域,几乎所有的顶尖科学家,投资会花非常多,经常与团队讨论如何应用,是否有合作的机会,创造更多的商业价值,成为最受信任的顾问团队。

所以一些人工智能的投资团队,如面部识别技术,它可以应用在手机解锁,电力服务,安全应用,等小额信贷队伍,因为很多人没有信用卡在中国,但与熟人借非常尴尬,这仅仅需要确实存在,坏账率非常高。通过人工智能的应用,可以用来判断人可以借他钱吗?找到一个方法来降低违约。这些应用程序变得越来越成熟,与小额贷款,已经可以达到150万单每个月,每一个站在1000元,积累了一年180亿,这比银行的规模。

技术,结合特定的业务需求,可以有爆炸性增长。

人工智能的成熟的技术,但还没有平台

当涉及到技术的发展,人工智能很重视科学家的参与,随着互联网创业的关注更少的发展程度和学术、学位在硅谷,又会回来吗?

李认为,人工智能是在开始阶段,现在是非常重要的,然后用成熟的技术的发展,技术平台,比如当工程师可以打开工具箱来选择合适的工具来使用人工智能技术的使用,不需要如此多的科学家,和人工智能以受欢迎。主流的深度学习技术是非常成熟的现在,但我不能发展成为一个平台,也需要很多的科学家。

特点是人工智能的发展,甚至在某种程度上,人类无法阅读或不能理解。所以如果你想贷款通过人工智能的人,因为审计机制是人工智能研究中,被拒绝也不知道为什么,这不会造成问题吗?李很乐观,说可以,反过来,利用它,只是因为人们不理解,也不能解释也可能是一个更好的解释,通过人工智能的应用,也为了保护商业秘密。只是,被拒绝贷款也不知道为什么,但是电脑还决定,真的没有问题吗?

七个黑洞的关闭将最终取代了更加开放的生态系统

的过程中造成的成熟的技术,人工智能,开源是非常重要的。李,例如,原来封闭的Wintel生态系统,随着行动,开放源代码的趋势已经成为现在的主流,使出现的开放生态系统等人工智能发展奠定了良好的基础,但除了代码,数据,也要开源,但现在有七个黑洞,即谷歌、Facebook、微软和亚马逊,和中国的蝙蝠,这些公司有非常大量的数据,但在再也不来,就像一个黑洞,这不是一种好现象,人工智能的发展,当然这七个黑洞相对更好。

互联网上的7家公司,当然,是非常大的,但是在一些传统的和实体产业,公司的影响非常小,所以我们可以期待在未来将会有一个更加开放的系统信息,代替七的黑洞。实际上对于科学家而言,这七个大洞导致了很多麻烦,因为人工智能技术的发展,需要这些信息,但数据没有被共享的,所以科学家们限制生活的发展,这就是为什么许多科学家后来去了7家公司,或者不学习,但毕竟是一种过度的保护自身利益的行为,科学家们研究“乞讨”数据,关于我的什么?

所以实践不仅是代码开源创新工场,数据也开源的,学生和合作,因为有更多的高级工程师其实也不了解人工智能,但现在许多大学生学到的知识,在过去与斯坦福大学机器学习课程在80人,1000人,今年大学生的人工智能技术,是人工智能发展的未来的人才,他们将会非常饿了平整的平台来发展自己的天赋,我们会提供他们一个机会。

看看台湾的学术界,李的观察,研究者们实际上是在即将放弃,因为没有一个以上的数据,而不像美国或中国七大黑洞,台湾甚至没有一个黑洞。如果有一个台湾教授或学生感兴趣的人工智能的发展,然后可以开发更多的或是参与开源生态系统。

人工智能的发展有三个阶段

人工智能的发展,李提到将在三个阶段:

1。第一个应用程序的现有数据。

2。接下来是收集新数据通过更多的新传感器和硬件开发新的应用程序。

3所示。最后是一个全面的自动化。

三个阶段的时间可能会成为下一个五年,十年,十五年。人工智能的第一个应用程序是科技行业,如谷歌搜索实际上已经使用很长一段时间,现在是一个科技公司不使用人工智能技术,有点落伍了,数据也不用,不奇怪吗?

除了互联网公司,谁的信息?金融行业和金融行业自然是应该使用的人工智能,是完全数据驱动的一个行业,银行、保险、贷款、信贷、投资、处理数据。

李就是这样,如果有一个行业一个标签和大量的数据,数据是一个领域的,是理想的人工智能应用程序数据。

金融行业是非常符合三个标准。金融行业是非常丰富的,企业家会涌入这个行业,充分利用人工智能。

接下来是医学,医学也有大量的数据,如图像是一种数据,如果你有一个朋友在radiology department,现在怀了。看到x射线、mri、ct扫描,需要积累经验在过去,但又如何通过整个数据库经验的人比人工智能学习!人脸识别,传统的也许是最强大的是警察,一看就知道谁是逃犯,但现在在十字路口设立了一个相机,与警察比人工智能可以做得更好吗?24小时没有休息,数据库的完整性和识别速度、低误报。除了形象,也是一种DNA数据,数据处理有突破深度学习的发展成熟后,将是未来发展的一个关键,您可以通过DNA来开发更纯粹的淮河,定制的医疗护理。

甚至医生必须改变我的工作

所以不要看医生现在是一个很好的职业,人工智能在一些东西可以比医生,例如,一只手颤抖,机器没有操作,经验有限,机器的经验只有通过数据库大小限制。接下来,医生与其说是一个医生一样机器和病人之间的一座桥梁或“接口”。事实上这并不是一件坏事,许多医生现在取决于诊断,虽然学习很困难,而不是看到大部分的人工智能在未来工作中,医生可以更加注意做研究,有更多的医学快速突破。

当涉及到卫生保健和人工智能的应用,让人想起IBM华生也参与了肿瘤医学研究在过去,但有趣的是,李谈到很多人工智能的发展,似乎很少谈论IBM ?李说,IBM的人工智能不深学习技术基于目前有重大进展。过去IBM挑选了一些特定的域可以提供他们的服务和创造收入,如果你真的想回到什么是人工智能的主要科学家在IBM服务吗?突破性技术是什么?可怕的数据是什么?像都没有。

上传大脑是虚荣心的表现

李开复愿意上传自己的大脑?李说,人的生命将走到尽头是有意义的,上传大脑是虚荣的表现,感觉很棒,留下来。以世界为物理表示,或精神,有爱,去探索的存在。如果是物理世界,每一个大脑,值得挽救吗?迟早有一天,我们会被人工智能!如果世界只有身体和一侧的表面,这是毫无意义的生活,死去死! ! ! !如果是精神上的,爱的世界里,这些东西可以上传吗?所以,李宁愿保持有点自知之明的人,并不想上传自己的大脑。

不想上传我自己的大脑,它与人工智能、合作也应该可以创建更好的性能比过去吗?李明博说,许多人认为,人工智能的合作是1 + 1 = 3,但实际上应该是1 +一亿=一亿和1.1。在大多数地区,人类非常小,人工智能是非常大的,所以所有的人都想知道如何应用人工智能,为了把事情做好。

人工智能之后

当然,人工智能和许多限制,例如,科学家们试图让人工智能可以不需要大量的数据,或现在也只能处理一个问题在人工智能领域,跨学科是卡住了。所以,有很多的事情要做,值得做的事情。

首先,人工智能来取代人类工作的工作远比创造却忽视了一些工作在过去,逐渐将被重新重视,像所谓的文科生,哲学,社会学,人类学,艺术,等等,人工智能并不是不能做这些事情,是可以改变这些地区。并不是说这些地区将利用人工智能,但ai取代后很多人力,将会有更多的人不得不去这些地区的发展,这不是一件坏事。

第二,职业发生了转变,过去是医生的过程的主要力量,但下面的可能成为人工智能、患者之间的一座桥梁或转换的研究。像老师,可能不再是教学,但学生提供护理。服务和工会是人类的主要工作在未来,李明博说,人类生活在世界上,不应该灵魂产生更多的碰撞和交流吗?现在我们正忙着工作,就释放人类的人工智能,也是一件好事。

人工智能的智商现在只有4岁

最近,一系列旨在测试的一些世界上最好的人工智能(AI)系统和人类智商(IQ)的结果之间的关系,试验表明,人工智能的智慧取得了4岁孩子的水平。研究小组从美国伊利诺伊大学,完成了测试,他们发现,我们有最先进的人工智能系统等于平均4岁儿童的智力水平。然而,当孩子七岁的年龄,智力水平的人工智能系统也将由人类挂。

当然,智商测试是衡量智力。在处理一些计算机的能力仍远远领先于我们,如计算的速度等等。测试将所要做的就是人工智能评估是否能够合理地了解周围环境的能力。在“自我”这个特定领域,智能系统相比,人类还有很长的距离。

,麻省理工大学的研究人员开发的技术,人工智能系统ConceptNet也参与了这项研究,这是一个学术界自1990年代开始开发测试系统。它在相似单词和得到一个高分,性能很一般信息,推理和理解可以用贫穷来描述。

智商测试的范围和形式是不一样的,这取决于对象的年龄。在该测试中,测试是问“你在哪里找到一个企鹅呢?”“房子”是什么。测试可能需要通过一些线索来确定答案,或者是问“我们为什么要握手?”。正如你所看到的,这些问题是电脑会感到棘手的问题类型。

在某些情况下,团队将从几个不同的角度分解问题,和观察ConceptNet将什么样的反应,但是,人工智能系统的回答常常是令人困惑的。当质疑,例如,“动物”的男性有鬃毛,“它生活在非洲”,“这是一个巨大的棕色猫”,电脑会有以下可能的答案:狗,农场和动物,家庭和猫。

研究者欧胜当在一次采访中,说:“人类的常识范围内至少答案将是有限的动物,然后根据猫的线索进行简单的推理,并找到答案在合格的猫。”

即便如此,人工智能的突破速度已经达到了一个非常快的速度。专家认为,人工智能学习和自然语言能力的改善将导致他们在未来几年就像人类的思维,比如苹果Siri,现在谷歌和微软Cortana。

教人们说人工智能,谷歌三千年读爱情小说

人工智能,谷歌三千年读爱情小说/7cd1eaf1cfaf815fea7f6bc17b00caa1-0.jpg”/>

人工智能可能恋爱这件事是可能的。

北京时间5月5日下午消息,为了使自己生产的人工智能引擎更健谈,谷歌就阅读近3000爱情小说,促进其对话能力,希望加强用户体验。

“她胸前按钮打开,性感的粉红色胸罩似乎包裹没有丰满的胸部,他深V诱惑在他面前毫无保留。这幸福场景给他带来了巨大的惊喜。”

这个文本可能让你产生生理反应,而谷歌人工智能引擎将很明显。

在过去的几个月里,谷歌一直在一个人工智能引擎类似的词,内容来源于“无条件的爱”,“点燃,致命的欲望”和“抬高”这样一个爱情故事,希望通过这种方式来加强这种技术和沟通能力的性格特征。

真的工作。谷歌研究小组最近人工智能引擎来模仿这些写下一些句子。收到了这样的成就之后,他们仍在规划更雄心勃勃的计划:使用人工智能学习对话风格使谷歌产品更人性化,包括广场谷歌应用程序。

“Google应用程序响应非常严重。”项目总监,谷歌软件工程师Andrew穿(戴Andrew)说,“希望能够使用项目和其他项目在未来更健谈,或者能够显示更多的语调或风格。”

在谷歌应用程序中,这种技术也可以用于谷歌的收件箱“智能回复”功能。聪明的回答可以使用谷歌引擎来生成三个人工智能建议,用户可以使用这个函数来读取电子邮件在这个词,然后提供更多的会话响应。的效果更先进的人工智能技术,智能回答更好。谷歌称收件箱移动应用程序有10%“回复所有人使用智能应答。

爱情小说,是理想的人工智能的培训材料,因为这种类型的小说,从本质上讲,都使用相同的情节,讲述了一个类似的故事在不同的语言。”一个女孩爱上一个男孩,一个男孩爱上了另一个女孩。所以爱情悲剧。”安德鲁说。通过阅读成千上万的类似的小说,人工智能可以确定哪些句子表达类似的意思,为了更好地理解语言的细微变化。爱情故事比儿童书籍,因为他们学习语言为人工智能提供更多的样品。

使人工智能引擎研究小说并不容易。人工智能引擎,也被称为神经网络,它实际上是一个电脑程序来自主学习。但这并不意味着它是与生俱来的智慧。神经网络没有知识,所以,灌输书中的文字,喜欢读小说,希望可以从中掌握一些知识。正因为如此,它只需要一个海量数据(大约2865年的小说《爱)建立所谓的聪明。

后消化吸收,浪漫,谷歌的人工智能引擎将使用他们的知识来造一个句子,而这些新句子将会比原来的。这个过程会重复,不断自我完善,写好句子。

所以,谷歌人工智能引擎可以编写自己的爱情故事吗?

“在理论上可以。”安德鲁说,但他拒绝提供样例内容。

考虑到人工智能的机器人领域最近发生的事件,尤其是微软泰满嘴脏话,谷歌将严格控制公共版本的研究。“这是性感,也很有想象力。”他说,“我们的工作直接与产品团队,这将会偏离方向的风险降到最低。”

所以,是否有人会爱上了人工智能引擎?“这可能发生。安德鲁说:“穿着古希腊传说中有一个人做了一个漂亮的女人雕塑,雕塑更美丽的比世界上任何一个女人,他爱上了雕塑。如果你能爱上雕塑,为什么不能爱上浪漫小说,训练神经网络?“Yu(书)

人工智能社区的“大脑”最强讨论人工智能未来的道路

人工智能社区的“大脑”最强讨论人工智能未来的道路/06e38fe63180d4c3c04892c700c38b21-0.jpg”/>

图片:丹尼尔Hertzberg

你怎么教?

Facebook的人工智能研究主管:雅安·勒存机器如何制定教学计划。

人工智能,机器的传统定义的方式我们认为属于人类,经常执行的任务和解决问题。还有一些我们认为的任务很简单——识别照片中的物体,开车,但AI的任务尤其艰巨。机可以在董事会超越人类,但机器的程序,从本质上讲,体力劳动,机器由一个程序是有限的。30美元的设备可以超越我们的棋盘游戏,但它不能做——我不能学会做所有其他的事情。

这就是为什么我们需要机器学习。显示机器数以百计的猫的照片,机器就会训练你的算法,并学会更好地识别猫的图片。机器学习的基础是所有的大型网络公司,该公司可以进行排名的搜索结果,为特定用户选择最相关的内容和建议。

深度学习是基于人类的大脑,要复杂得多。机器和机器学习,深入学习教忽略所有不重要信息的声音或图像,提出了一种方法来反映世界的无限多样性的层次结构视图。深度学习带给我们的无人驾驶车辆,语音识别,有时更擅长识别肿瘤放射学专家医疗分析系统。

尽管这些值得赞美的的进步,我们要距离人类一样聪明的机器,我们的机器,甚至更糟而聪明老鼠非常远,我们只看到了AI强度约为5%。

是时候重新思考工作吗?

百度首席科学家吴En:AI将如何改变未来的工作。

现在在美国,驾驶一辆卡车是最常见的一种职业。数以百万计的人在东部和西部海岸之间的货物运输,为了谋生。然而,所有的这些就业机会会很快消失。无人机将取代人类司机开车在路上,和更快、更安全、更有效率。有这样的好事,公司将选择更昂贵,更容易犯错误的人类司机吗?

类似劳动改变历史上也有先例。在工业革命之前,90%的美国人在农场工作。蒸汽技术和制造业的崛起,让许多人失去了工作,而且还创造了许多新的就业机会,还创建了一个新的领域的许多人无法想象。雪崩的变化在两个世纪的过程中,慢慢地,美国有足够的时间来适应变化。农民在耕作,直到退休,他们的孩子去上学,成为一名电工,工厂工头,房地产开发商和食品化学家。

和卡车司机就没有这么幸运了。他们的职业,还有数以百万计的其他职业的人,很快就会过时。在智能机器的时代,大量的人将没有工作能力,或被淘汰。我们可能见证了经济危机在1930年代最大的失业。

1933年,富兰克林·罗斯福的新政帮助大量的失业者,并帮助美国经济重新启动。更重要的是,它能帮助我们从农业社会向工业社会的转变。罗斯福的“公共工程部”雇用失业者新建桥梁和高速公路,改善交通基础设施在美国。这些改进的非常先进的新技术应用,奠定了坚实的基础:一辆汽车。

我们需要一个新的21世纪,针对人工智能可以带来新的就业机会建立培训计划。我们需要火车卡车司机和办公室助理,构建未来的数据分析师,旅游规划者,我们仍然不知道如果我有其他职业的要求。在美国内战之前(直到1860年代)的农民,绝对无法想象他的儿子是一个电工,但现在,我们几乎没有人工智能将在未来创造什么样的工作机会。但我们清楚,革命必须采取措施,来完成从工业社会过渡到智能机器时代。

人工智能:像人类一样吗?

智能机器如何模仿自己的“创造者”。

达到人类水平的人工智能,我们所要做的下一步是创建智能自动-但不是机器。人工智能可以让您平安回到家里,在你的车,但是不能自动选择下一个目的地后回家。在此基础上,我们将加入基本的动机以及情感和道德价值。如果我们创建一个强大的学习能力,就像人类的大脑,应该是“继承”不难想象机器的特点,以及一些类似人类的弱点。但在我看来,“终结者”的预言和它是不可能的。这需要精心策划的,不规则的个人意图,设计了一个恶意尝试编写智能机器,没有代理,公司或个人——更不用说可以单枪匹马达到人类水平的人工智能。构建智能机器是我们这个时代最大的一个科学的挑战,需要各国,公司、实验室之间共享的智慧和学术团体。人工智能的发展是最有可能是渐进的,是开放的。——。雅安·勒存

图片:丹尼尔Hertzberg

如何成为机器的主人

牛津大学,成立研究所所长人类未来尼克·博斯特罗姆:AI的生存危机。丹妮拉·埃尔南德斯。

我:告诉我你在做什么工作?

我们必须“控制”很感兴趣相关的技术挑战。你能确保人工智能,必须符合原文的程序员?我们必须强人工智能AI对经济感兴趣,政治和社会问题。什么样的政治体制是最能够帮助我们过渡到智能机器的时代吗?我们如何确保不同利益相关者一起从事能带来积极的结果吗?

你做了很多研究,生存危机。如果用最简单的语言解释一个5岁的孩子,你会怎么描述它?

我想说这是未来科技可以毁掉一生。观众有点老,我认为人类灭绝的可能性,或可能永远不会摧毁我们的价值在未来的可能性。

你认为什么样的策略将有助于减少潜在的人工智能生存危机?

研究将有助于控制问题。当我们理解如何让机器变得真正的智慧,我们应该能够有一些概念,知道如何控制机,如何进行工程设计,从而让机器和人类站在同一阵营,符合人类的价值观,而不是破坏性的。这涉及到一系列的技术难题,其中一些我们现在已经开始研究。

你能给一个例子吗?

控制问题,不同的人想到不同的方法。一种方法是学习研究的价值。我们想让AI终于可以分享我们的价值观,所以AI可以作为我们人类意志的延伸。我们不能把所有注意力集中在一长串,然后人工智能。最好是使用人工智能学习我们的价值观和喜好他们的智力。

每个人的价值观是不同的。我们如何确定哪些机器学习价值观?

这是一个非常大、非常复杂的问题:巨大的巨大冲突之间的价值观和利益之间的冲突。在某种意义上,这是最大的一个尚未解决的问题。如果你对技术进步更乐观,最终你会觉得我们会知道如何可以做越来越多的事情。

我们将征服自然以前所未有的程度。但有一个科学和技术不能自动解决问题,是冲突和战争。最黑暗的宏观状况是,人们可能会使用技术,这种超越自然的力量,知识,致力于他人的伤害和破坏。这个问题不能自动解决。

我们如何处理压力?

我这个问题没有简单的答案。我不认为有一个简单的技术解决方案。

自动控制系统的编程可以代理从我们组的自由?人类已经完成,从某种意义上说,当我们的自私行为。

保守的假设是强人工智能可以自己编程,可以改变自己的价值观,但也打破任何美国的束缚。在这种情况下,我们的目标是设计,让机器选择不使用伤害人类的力量。如果AI希望为人类服务,它会杀死人类行为分布效果较低的期望。我们有理由这样认为,如果你设定目标系统以适当的方式,最后的决策标准能保持下来。

图片:丹尼尔Hertzberg

让我们把大脑更好

贝宝和筹集基金,卢克Nosek创始人之一:在人类的大脑,我们需要训练你的大脑。

今年早些时候,韩国冠军李se-dol AlphaGo ai(人工智能)计划与谷歌在一个历史性的战争。李se-dol 18世界头衔,但在今年3月19日,他们输给了软件。

今天的高性能计算前所未有的强烈。强人工智能系统的出现,但距离远,这台机器还远未达到人类的大脑的容量。我们没能理解强人工智能(有时称为AGI)将如何工作,将带来什么影响我们的生活和我们的经济。人们常常会影响的广度相比,核能技术的出现从斯蒂芬·霍金,elon musk,AlphaGo创造者有建议,我们应该小心。

这个比喻是将核武器的感觉,但也很合适。核武器是强人工智能最坏的打算。相反,乐观和光明预计视而不见(常见的经济繁荣,摧毁所有疾病),乐观和恐惧能让我们的偏见。

强人工智能可以帮助数十亿人生活更安全,更健康,更快乐的生活。但设计这样的机器,工程师需要聪明的人类和机器面临复杂的社会经济现实,神经,和有一个更好的了解,比今天的理解。如果我们要升级现有的大脑,我们可以更好的理解,一个强大的人工智能,并与它们共存。

我们可以改善人类的智慧可以分为三个阶段。第一阶段,使用类似谷歌搜索技术来增强和完善人类的大脑,它一直在进步。我们可以比较:1996年,一个五岁的孩子拿着借书证,并在2016年打开谷歌搜索页面下五个孩子——只要几个键盘,可以得到很多人的知识。

如果需要使用科技在第一阶段补充大脑,所以第二阶段将直接扩大大脑。自适应学习个性化教育软件,实时调整课程。如果学生做得很好,将加快教学速度。如果学生学习更加困难,软件会慢下来,改变教学风格,或者告诉老师需要指导。自适应学习和在线教育可能意味着一刀切的教育。增强现实技术和虚拟现实技术的融合,也可以扩大我们无法想象情报的方式。

聪明的从根本上改变需要提高大脑的第三阶段。经颅磁刺激(TMS)是美国食品和药物管理局(FDA)批准的非侵入性治疗,治疗一个电磁线圈将使用在他的头上。使用经颅磁刺激治疗创伤后应激障碍(PTSD),自闭症,和抵抗严重的抑郁症。如大脑治疗中心在加州和肯塔基州路易斯维尔大学的这些机构,样本规模不大,但也影响的持续时间未知,但提高个体的比例高,比例最高的测试,200年高功能自闭症患者取得了90%更好。经颅磁刺激的早期迹象可能没有相关看很多神经系统症状有疗效。如果我们能受伤或积极作用的神经正常的大脑,也许很快,我们可以促进健康的大脑连接,实现共同提高智力。

强人工智能出现在地平线上,但是现在,我们只可以使用他们的大脑。升级自己的情报,是创造未来的智能机器和共存的第一步。

你不能让机器学习常识

至少目前还没有。这仍然是真正的人工智能的最大障碍。

预测学习也被称为无监督学习,是第一个动物和人类理解世界的模型。我们可以看一看这句话:“约翰”拿起他的手机,离开了房间。经验告诉你,电话可以移动模式,约翰可以从门出去。而缺乏机器世界的一个很好的描述正常及其极限,也许永远也猜上面的信息。可预见性的机器学习——一个非常重要但还有待开发特性,将人工智能不需要人监督,可以自主学习,就像一个孩子学习。然而,让机器学习常识不仅是一个技术问题,这是一个可以把几十年的科学和数学的挑战。在此之前,我们的机器不能真正的智能机器。——。雅安·勒存

通过《华尔街日报》,