5月31日,一封签署名单多达350人的公开信迅速传播开来,信中核心只有一句话: “降低人工智能灭绝的风险”,应该与其它社会规模的风险(如大流行病和核战争)一样,成为全球的优先事项。 签署这封公开信的,包括三大AI巨头的CEO,即ChatGPT老板、OpenAI的山姆·阿尔特曼,DeepMind的戴密斯·哈萨比斯和Anthropic的达里奥·阿莫迪。 而早在5月31号之前的3月29日,“生命未来研究所”(Future of Life Institute,FLI)发布的《暂停人工智能巨模型实验》公开信中就已经出现类似警示: 呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,至少暂停6个月。 这次的签字人有:特斯拉创始人马斯克、2018年度图灵奖得主约书亚·本希奥、苹果联合创始人斯蒂夫·盖瑞·沃兹尼亚克、《人工智能:现代方法》作者斯图尔特·罗素。 斯图尔特·罗素、史蒂芬·霍金和泰格马克联合在赫芬顿邮报上发表的《超越我们对超级智能机器的自满》一文,表达了作者对迅速发展的AI潜在的风险与隐忧。 而这篇文章的发布也引发了媒体对AI安全报道的热潮,伊隆·马斯克、比尔·盖茨等科技领袖纷纷加入讨论。 也许你不难发现,有一个人的名字总是和人工智能的发展史重叠,他到底是何许人也? 斯图尔特·罗素是最早和霍金等人发表了署名文章号召大家警惕人工智能可能给我们带来威胁的人,并共同发起了英国剑桥大学生存风险研究中心(Board of the Centre for the Study of Existential Risk),并成为人工智能领域唯一科学家任职理事会成员。 他也是历史上第二位获得过两项IJCAI主要奖项(卓越研究奖、计算机与思想奖)的科学家(国际人工智能联合会议(简称为IJCAI)是人工智能领域中最主要的学术会议之一)。 作为当今世界上人工智能领域的权威专家,他曾与谷歌研究总监彼得·诺维格合著出版了人工智能领域里的“标准教科书”《人工智能:现代方法》,该书被100多个国家的1500多所大学使用。 这本书几乎是为全世界范围的人工智能教育提供了标准范本,推动了人工智能知识的快速普及,为人工智能教育做出了重大贡献。今年年初,该书的第四版中文版也与中国读者见面。 人们越来越担心 ChatGPT 等人工智能模型的发展可能对社会和就业带来的潜在威胁,唯恐它将对社会造成不可挽回的破坏。 那此时,我们不禁要问:AI觉醒前夜,ChatGPT真的会是那个最优解么? 近日钛媒体集团合伙人、区块链知名媒体数据平台链得得(ChainDD)总裁——李非凡与《人工智能:现代方法》作者——斯图尔特·罗素,一起开启了一场谈AI论未来的尖峰对话,共同探讨关于人工智能技术的现状发展以及未来趋向。 人们期望着人工智能将我们从繁琐的劳动中解放出来,却又恐惧人工智能将我们“取而代之”,未来我们应当如何去驾驭它们呢? 以下为直播实录精编处理版本,内容精编自6月7日「钛空时间|共读时刻」直播栏目,直播完整视频回放可点击进入钛媒体官网观看: 如果 Siri 的宿命是“人工智障”,那 ChatGPT 是不是真正的“人工智能”在中国,很多人对于人工类智能产品的最初记忆,都来自于像微软小娜、亚马逊 Alexa、苹果 Siri 这样的智能语音助手,目前看来,ChatGPT 在“智能”方面已经领先于这些智能助手,并以此向罗素博士提问:如何看待 ChatGPT 在这个领域所带来的颠覆性革命?以及这些“古老”的人工智能交互类产品是否是一种“失败”? 对此,罗素博士表示,他并不认为 Siri 这类的产品是一种“失败”,他认为,技术是会随着时间的推移不断发展的。罗素博士举例道:“比如说,我们买一辆新车,新车往往会比旧车好一点,但是我们并不会说旧车是失败的,因为我们在这个领域使用的技术是具有延续性的。” 在他看来,像 Alexa,还有 Siri 这些智能语音助手,是更早期的技术,它们更多的是基于预先计算好的问题和答案,也就是大家过去称之为“聊天本”,这些技术的本质,是基于一个问题模板的列表,当人们问类似问题时,就会产生标准答案。 罗素博士认为和 Siri 这类的产品相比,ChatGPT 这种新型技术是完全不同的,这个新型技术是大家所说的“语言模型”,它并不是基于一套问题的答案。它只是一个通用工具,会根据前面的单词序列预测下一个单词,可能是一次谈话,也可能是一篇放进去的报纸文章,然后用 ChatGPT 对它进行分析。然而这些功能,是不可能用 Alexa 做到的,因为 Alexa 只是设计用来回答很基本问题的工具。 对于 “ChatGPT 不是真正的人工智能”这个观点,以及未来 5 年内大家能看到的真正的人工智能是什么?这个问题,罗素博士表示,他认为 GPT-2 很明显没有实现太多的内部改善,它能够生成看似可信的文本,但它在回答问题等方面表现得却不是特别好。 罗素博士表示,关于新一代大语言模型的有趣之处就在于,即便在 5 年前,语言模型也已经算是人工智能科学研究的一个小分支,那个时候它们就可以有助于提高语音识别的准确性。 说到这里他举例道:“比如我说 “Happy B******”,你可能会认为我是想说生日快乐,因为 Birthday 是一个常见的单词,以 B 开头,在 Happy 之后。我相信你应该不会认为是 Happy Breakfast(快乐早餐)之类的。 所以那时候的智能语音助手差不多就是这样的功能,你可以用语言模型来完善机器翻译的输出,使得输出的语言更符合语法,但是除此之外,就没有更多人关注语言模型了。 后来人们发现可以选择扩大判断上下文的词汇数量,以前只通过一个单词去判断上下文,所以如果我说 Happy,你可能会说下一个词可能是 Birthday,这是上下文中的单一词汇语境的判断,即只是通过 Happy 一个单词来预测下一个单词是 Birthday。接下来可以开始根据上下文写出 5 到 10 个单词,这就给了人们更多的帮助,然后又把词汇数量扩大到几百个。” 罗素博士认为,现在有了 GPT-4 和 32000 字的上下文语义处理,要基于这么多的上下文词汇进行预测,就需要一个更大的模型,就需要更多的参数。而且人们发现,随着词汇规模的扩大,输出准确性的改善。如果大家问ChatGPT一个问题,那么这个问题的自然延续刚好就是这个问题的答案。
与此同时,罗素博士认同,ChatGPT 在不断给大家带来惊喜,因为它有能力做一些非常了不起的事情,比如写诗,以诗的形式来证明一个数学定理。但大家却不知道它是如何做到这些事情的,这就是令人惊讶的地方。 但这也是同样令人担忧的地方。因为ChatGPT在很多方面事实上不如人类聪明,但它们在很多方面也比人类更有能力。比如,OpenAI 的测试结果表明,GPT-4 能够以高分通过几乎所有的大学入学考试。以及通过律师资格考试,和医生执照考试。 但 ChatGPT 从未上过学,也没有借助人为的代码就已经通过了所有这些考试。所以罗素博士认为,即使 ChatGPT 不能完全达到人类的智力水平,就其影响和作用而言,大家也可以大致认为它与人类的智力不相上下。 它的出现相当于给这个世界增加了几十亿“新人类”,人们正在不断地在生活中加入这些“高智商的人类”,它们会给大家的世界带来巨大的影响,但这个影响到底是什么谁也不知道。 【文章来源】钛媒体;特别声明:以上内容(如有图片或视频亦包括在内)来自网络,已备注来源;本平台仅提供信息和存储服务。 Notice: The content above (including the pictures and videos if any) is uploaded and posted by user of ASKAI, which is a social media platform focused on technology of CHATGPT and only provides information storage services. |
|手机版|小黑屋|博士驿站:连接全球智慧,共创博士人才生态圈
( 浙ICP备2023018861号-3 )平台提供新鲜、免费、开放、共享的科技前沿资讯、博士人才招聘信息和科技成果交流空间。
平台特别声明:线上内容(如有图片或视频亦包括在内)来自网络或会员发布,均已备注来源;本站资讯仅提供信息和存储服务。Notice: The content above (including the pictures and videos if any) is uploaded and posted by user , which is a social media platform and only provides information storage services.
GMT+8, 2025-5-10 04:04
Powered by Discuz! X3.5
© 2001-2024 Discuz! Team.