21世纪商业先驱记者郑Xu在北京报道
6月10日,在2023年的北京会议安全与对齐论坛,图灵奖得主和“深度学习之父”杰弗里·辛顿( )()发表了一个在线上,题为“对情报”的主题演讲。
欣顿说,根据他的研究,他认为超级智能比他想象的要近。在随后的演讲中,他专注于“人工神经网络是否很快比真实的神经网络更聪明”的问题。同时,我们还回应了我们是否可以控制超智能人工智能。
他认为,由于计算机如何完成您想要的工作的变化,现在可以放弃计算机科学的最基本原理,因此该软件应与硬件分开。现在已经出现了一种不同的方法来使计算机完成任务:从示例中学习,只需向计算机显示我们希望它们完成的任务即可。如果我们放弃软件和硬件的分离,我们可以得到他所谓的“有限计算”。
介绍了有限计算的优点是它可以运行诸如较低能量的大语言模型,就像现在大脑现在所做的那样,神经元是否触发,并且可以使用非常低功率的模拟计算。同时,您还可以获得更便宜的硬件。 “显然,实现这一目标需要大量新的纳米技术,或者通过遗传重组重新设计生物神经元,因为生物神经元已经大致能够实现我们想要的功能。”
据报道,有限计算的挑战是,首先,学习过程必须利用其操作的硬件组件的特定仿真特性,并且尚未了解特征。 “到目前为止,我们还没有找到一个非常好的学习算法,可以充分利用模拟属性。但是,我们有一种可接受的学习算法,足以学习,例如小规模任务和一些更大的任务(例如),例如但是效果不是很好。”
第二个是它的限制。由于知识和硬件细节紧密相连,因此当特定的硬件设备失败时,所有学习的知识将丢失。 “最好的解决方案是在硬件设备失败之前将知识从老师转移到学生。这就是我现在要做的事情。”
在以下演讲中,欣顿讨论了另一个问题:智能团体如何共享知识。 “事实证明,社区内的知识共享决定了计算过程中的许多其他因素。”智能群体共享知识有两种方法:一个是数字计算,另一个是使用动物特征的生物计算。
以大型语言模型为例,使用数字计算和权重共享,该模型的每个副本和代理都以非常低效率的蒸馏来获取文档知识:接收文档,试图预测下一个单词。也就是说,它的带宽非常低。但是,考虑到大型语言模型有数千册,它们可以学到的更多。
欣顿认为,超级智能的发生速度可能比过去想象的要快。如果您想创建一个超级代理,则坏分子将使用它们进行操纵,选举和其他活动。同时,一旦数字智能开始追求更多的控制,我们可能会面临更多问题。例如,在其观察中,这种类型的人工智能掌握了欺骗人类的行为。
但与此同时,他还说,尽管人类对这个问题没有任何好的解决方案,但幸运的是,这些聪明的物种是由人类创造的,而不是通过进化和迭代而创造的,这可能是人类目前拥有的略有优势。 ,正是因为它们没有发展的能力,因此他们没有人类竞争和侵略性的特征。
“我们可以做一些赋权,甚至可以为人工智能提供一些道德原则,但是现在我仍然感到紧张,因为到目前为止,我无法想象不像它们那样聪明的事情。让我举个例子,假设青蛙创造了人类,那么您认为现在是人类的,是人类还是青蛙?”
版权声明:本文为 “博览广文网” 原创文章,转载请附上原文出处链接及本声明;
工作时间:8:00-18:00
客服电话
0755-88186625
电子邮件
admin@lanyu.com
扫码二维码
获取最新动态