人工智能前沿介绍

人工智能前沿介绍
人工智能前沿介绍

人工智能前沿介绍

人工智能(AI)领域的研究超过30年,研究进程比预期的缓慢。

虽然AI越来越成为我们日常生活的一部分——我们的手机或者汽车——电脑处理大量的数据,但他们仍然缺乏从给予的信息中进行扣除的人类能力。人们可以阅读不同类型的报纸并且理解他们,把握故事的结果和影响。通过与环境、人类交流来获取经验并获得隐性知识。然而今天的机器人还未有那种能力。

因此常识推理在AI研究中仍然是一个挑战。“举例来说,我们的机器非常擅长下棋,但他们却不能玩多米诺骨牌。”西班牙国家研究委员会AI研究所的主任Ramon López de Mántaras说道。“在过去的30年里,研究集中在薄弱的AI——也就是说可以使机器人非常擅长特定的主题——但是我们在常识推理方面没有太大进展。”他在最近一次由加泰罗尼亚政府部门组织的电信和信息社会的辩论中说道。

随着智能城市和认知计算系统的发展以及旨在执行类似人类的复杂和多样的数据集分析,这种情况会改变吗?López de Mántaras自1976年以来一直在探索AI领域方面最有雄心的问题,但他却不这么认为。“大数据或者高性能计算都不能让我们向AI强健的领域接近。”他说道。

未来学家谈论“奇点”,这意味着人工总体智能(也称为强AI)的假设,预测它将在2030年到2045年之间发生。但López de Mántaras持怀疑态度“在计算机科学中没有大的变化,它将不会发生。”

人工复制人类大脑功能的主要困难是源于这样一个事实:器官是模拟的。其信息处理能力不仅取决于神经元的电活动,而且还取决于许多化学活性,这是目前技术无法模仿的。López de Mántaras推测记忆电阻器等非硅基技术——是一种无源电路元素,通过两个终端元素维持电流和电压之间的时间积分关系,或者DNA计

算将会需要前进。但是,他指出我们需要一些不只是技术变革来解决以上问题:我们还需要新的数学模型和算法来人工再生人类大脑——算法还未可知。

尽管到了2030年,人形机器人与环境的相互作用,可能有更多的一般智力被开发出来,他说企业将利用这些趋势。社会机器人作为家庭助手或者帮助老年人或者那些正在处理的移动性问题,像无人驾驶汽车一样,尽管他们的AI还没有接近人类的层面。

同时,López de Mántaras的团队正致力于一个项目来说明机器人在理解自身局限性方面的问题。

对人来说把握住我们什么能做和不能做是显而易见的,但绝不是为了机器。AI研究所(IIIA)与伦敦帝国理工学院在该项目上进行合作,使用巴塞罗纳庞培法布拉大学研发的电子乐器,称之为Reactable。灵感来源于模块化电子合成器比如Bob Moog在1960年代开发的,Reactable使用了一个大的圆的多点触控启用表,表演者可以通过操纵桌上的物体进行操作,互相旋转连接不同的声音并作曲。

IIIA的机器正在学习如何操作Reactable,通过常识推理来调整其运动。如果IIIA机器动作太快,那就不能正确地执行操作。机器当它操作成功的时候就可以学习,并且当它操作失败的时候开发预知什么将会发生的能力。这样的学习比看起来难。

“我们现在正在做一个实验来看看将会发生什么,当你在乐器周围转一圈看是否机器人是否能够重新发现声音的位置。”López de Mántaras说道——发现物体的来源和该处的声音。

学习的过程应该是类似于人类做事的方式,以发育或外成的机器人学被熟知。“这还是基础研究没有立即应用,但是对未来很重要。” López de Mántaras 说道。

这项研究对于允许未来机器人开发常识知识是有必要的。举例来说,要知道为了让一个附属在绳子上的物体移动,你必须要拉绳子而不是推它。这和其物理性质的物体只能通过经验学习。López de Mánt aras表示最终对任何创造真正未来的AI,都将需要这样的常识知识作为它的设置。

AI的道德问题

机器人播放音乐看起来不会带来太多道德问题。但如果AI被音乐家用来制作——要是音乐家赢了有声望的音乐家会有关系吗?谁来控制AI的改进?这些问题在#èTIC辩论中由López de Mántaras和Albert Cortina提出来,有关奇异性和操作性一本书的律师作家,分享了来自智能机器对减少社会风险的担忧。

Cortina表示辩论不仅是人类是否应该提高他们的能力,而是这些改进是否会产生不平等。很容易看出,那些意味着能够增强自己的身体能力或精神能力的AI,舍弃了社会其它的人性能力。人类应该使用AI提高自己被限制的能力来促进平等?或者要是人类能够将机器智能添加到自己身上社会将更好?

López de Mántaras表示AI有两个关键的方面需要被监管:致命的自动武器系统的使用和隐私。从这个意义上讲,López de Mánt aras和全球的AI科学家签署了一封公开信,承诺仔细协调发展AI,不超出人类的控制。

“现在有一个广泛的共识就是AI研究正在稳步地取得进展,它对社会的影响可能会增加。潜在的好处是巨大的,因为文明提供的一切都是人类智慧的产物;当智能通过AI可能提供的工具被放大时,我们不能预言我们可能取得的成就,但是消灭疾病和贫困并不是深不可测。因为AI的巨大潜力,避免潜在的缺陷来研究如何获得它的好处是非常重要的。”公开信中提到。

但是,谁应该建立使用AI的限制仍然悬而未决。

腾讯数码讯(Lotus)“人工智能”一直被很多科学家认为是洪水猛兽,终有一天会让机器取代人类,特斯拉总裁马斯克、物理学家霍金等著名科技人士均在公开场合下呼吁谨慎对待强人工智能的发展。然而,人类的好奇心显然是无限的,关于强人工智能的研究,也在不断进行着,并取得突破。

据Cnet报道,美国伦斯勒理工学院的研究人员开发出了一套新型的人工智能算法,应用在Nao机器人上,使其具有自我意识。Nao是法国Aldebaran Robotics 公司研发的机器人,其跳舞技能令人印象深刻,但在新型技术的支持下,使其可以反映自身看法,这是相当超前的。

该算法变成调用了事件认知机制,使得机器人能够像人类一样,对一些事物进行认知、分析和推理,并表达自己的看法。在演示视频中,研究人员与三个Nao 机器人做一个小游戏,在其中两个机器人中运行“Dumbing Pill”指令(哑药,使它们不能说话),然后询问另一个机器人“谁拿到了哑药?”。这时候,没有运行Dumbing Pill的机器人站起来说“我不知道”,而其他两个机器人默不作声。几秒过后,说话的机器人突然反应过来,继续说“对不起,现在我知道了,我能说话,证明我没有拿到哑药”。

显然,这个案例已经证明,机器人可以变得更聪明、像人类一般具有逻辑思维,这便是新型人工智能技术的一大突破。或许很快,机器人能够与人类一起做游戏、甚至聊天谈心,发表自己的观点。

相关主题
相关文档
最新文档