首页 科技 > 正文

人工智能是罗夏测试 也许我们需要猩猩

很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于人工智能是罗夏测试 也许我们需要猩猩的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对人工智能是罗夏测试 也许我们需要猩猩这篇文章感兴趣的小伙伴可以一起来看看

人工智能,或“AGI”,一种可以达到人类认知水平的机器的想法,是一个让人们都努力工作的好主题。因为没有人能够真正定义它,所以它可以作为罗夏测试,在其上可以印上他们关怀的任何想法和感受。

结果是这个星期五晚上在曼哈顿约翰杰伊学院举行的热烈讨论,这是世界科学节的举办地,现在已经进入第12个年头了。晚会的讨论,在一个包装好的礼堂播放,被称为“ 为机器腾出空间:为AGI做好准备 ”,主持人Daniel Sieberg是一家名为iO的创业公司的首席执行官和创始人,他表示,利害攸关的是什么?如果我们成功,或者如果我们不“制造AGI”,那么会发生什么?谁是赢家,谁是输家?“

但是,小组成员在很大程度上并不倾向于认为AGI已经接近存在,并且对它是否是构建人工智能研究目标的有效方式提出了异议。

该小组由人工智能从业者和非从业者但非常感兴趣的人组成:Facebook的人工智能负责人,Yann LeCun; 前世界象棋冠军加里卡斯帕罗夫; AI伦理学家Shannon Vallor,曾在谷歌担任访问研究职位; 和哥伦比亚大学创意机器实验室主任Hod Lipson 。

“我真的讨厌AGI这句话,”LeCun说,轮到他说话的时候。

“我认为它不代表现实。我们今天拥有的技术远不及人类情报,这是一种误称,”他说。他指出,人类实际上并没有自己的“一般情报”; 人类比我们想象自己更专业。

LeCun表示,“我很乐观,我们将在几十年内实现这一目标。”

“这是专门的,”他指出,而不是一般可以导航世界的情报。卡斯帕罗夫说,它唤起了斯宾诺莎和笛卡尔的着名辩论,是否能够在没有身体的情况下存在。据猜测,一个机构会让机器探究比这种封闭系统更大的地形。

Hod认为机器人技术是一种通路,即机器通过导航世界来学习的能力。LeCun同意,参考加州大学伯克利分校教授谢尔盖莱文的工作,他的实验室在机器人系统中可能被称为自我监督或半监督学习方面做了大量工作。LeCun指出,Facebook正在进行同样的工作。“今天最有趣的领域之一是学习世界模型,”他提出。“这将是人类学习的一步,这与监督学习或强化学习不同,”他补充说。

另外: 为什么人工智能报告如此糟糕?

主持人西伯格在屏幕上方的屏幕上放了一个视频,显示一只小猩猩,当显示出一个奇特的伎俩时,它会笑出来。“这只小猩猩有一个世界模型,”LeCun观察到。“婴儿人类也有这个,我们学到了很多关于这个世界的东西;我们如何提出让机器学习世界模型的新范例?”

西伯格询问好莱坞,这促使加斯帕拉夫对“它不可能是邪恶的”(即机器)发表了反思,因为“人类仍然拥有对邪恶的垄断权”。LeCun观察到人们陷入“终结者”的情景中,他认为这是不真实的。“Ex Machina,”他说,“是一部漂亮的电影,但他们绝对错了!” 电影流淌的事情之一就是“这个发明人工智能的一个天才的神话 - 它不会发生这样的事情。”

LeCun表示AGI可能会发生“渐进式”进展。它“不会成为一个奇点”,指的是Ray Kurzweil关于人类蓦地与机器智能整合的一种门槛的想法。“我不相信强硬起飞的奇妙效应,”他说,“因为现实世界中的任何物理过程都有摩擦,这限制了它的进步。”

Vallor似乎同意LeCun认为,世界远不及AGI,他说:“我们不需要在不久的将来担心;没有迹象表明我们正处于这一突破的尖端。” Vallor说,这个词本身“可能会产生误导”,她指出,情报本身就是一种文化建构,“不同的文化以不同的方式定义”。

此外:谷歌DeepMind的Demis Hassabis是人工智能的一个无情好奇的公众面孔

对制造力有点点头,比如当卡斯帕罗夫说需要的是一种失败感,不知道结果可能是什么的想法。卡斯帕罗夫说:“现在的所有东西,它都是摹仿的”,卡斯帕罗夫说,“但是有了制造力,你没有食谱。” Vallor似乎同意这种思路,认为“我们不会很快就会因为需要制造而产生一台机器,”就像人类的驱动器一样。LeCun补充说,在舞台上创作的人类音乐家所引发的观众反应中有一些特殊之处。

“如果一台机器在John Coltrane的水平上运行,那很故意思,但它会产生什么样的情感?” 他反问道。

然而,哥伦比亚机器人学教授霍德并没有这样做。“我不同意。人类的制造力在砧板上,”他说。所谓的生成对抗性网络(GAN)的快速改进可以制造令人印象深刻的图像,这证明了制造性的追求是公平的游戏。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。