找回密码
 立即注册

微信扫码 , 快速开始

中国如何与ChatGPT“失之交臂”?

2023-8-10 14:12| 发布者: admin| 查看: 829| 评论: 0|来自: 钛媒体APP

摘要: 在中国,人们一直在思考一个问题,为什么 ChatGPT 能在这个时间点诞生在硅谷的创新土壤里?中国离 ChatGPT 有多远?对于这个问题,罗素博士觉得,ChatGPT诞生于硅谷确实有一定技术上的原因,他分析道,硅谷有更多训练 ...

在中国,人们一直在思考一个问题,为什么 ChatGPT 能在这个时间点诞生在硅谷的创新土壤里?中国离 ChatGPT 有多远?

对于这个问题,罗素博士觉得,ChatGPT诞生于硅谷确实有一定技术上的原因,他分析道,硅谷有更多训练有素的人才。

首先,是有伯克利、斯坦福、还有很多顶级的学府,它们吸引了全世界最优秀的学生。

其次,硅谷对于非常有才华的人,薪资水平很高,他补充道,据可靠信息来源透露,一名硅谷人工智能研究人员的年薪是 1000 万美元。这的确是太令人震惊的数字。

再者,硅谷的公司有大量的算力基础支撑,也有承担风险的意愿。

正如 OpenAI 公司创始人山姆·阿尔特曼所说:“当大家谈论的是创造通用人工智能,就会有足够多的人愿意投入大量资金,进行一场赔率相当高的长期赌注,我认为一开始成功的几率很小,但是他们也的确成功了,所有这些东西在硅谷汇集到一起,而这是世界上任何其他地方都做不到的。”

罗素博士表示,在很多大学和创业公司中他都看到了这种心态:对于任何有趣的想法,都应该自由地去追求它,而不应该先去寻求老板的认可。

罗素博士说道,他曾经有一份工作是在伯克利大学担任委员会主席,该委员会是评估大学所有教师的任命和晋升的。而在伯克利的奖励制度运作方式是这样的,大家真的希望奖励那些愿意冒风险,愿意探索的人,他们可能工作 5 年或 10 年依然没有解决一个问题。

他们可能会失败,他们可能在 5 年内不怎么发表文章。但是如果他们确实会做出很大的贡献,也会被认为是成功的。所以委员会希望更多的人可以做到这样的标准:“我们不会强行要求他们每年必须发表 5 篇论文或 10 篇论文,不然就会让自己陷入麻烦。我们希望每个人都可以选择自己的研究方向。人们自然会对这种学术自由做出正向反馈,并基于他们自己的理解来做出正确的事情。”

不安全的人工智能,将失去任何价值

基于目前的全球政治经济环境的不确定性,以及出于数据跨境合规和数据安全角度考虑,李非凡提出了自己的疑问:未来应该如何用合理的法律法规对人工智能加以规范和引导?

罗素博士表示,很多关于大语言模型的法规草案是很严格的,它们要求大模型不能输出错误信息,但事实是,大语言模型的一个大问题,就是它们的确会输出错误的信息。因为它们的工作并不是说真话,而是被训练为能像人一样说话。

罗素博士举例:“比如我可以说我已经 49 岁了,这句话看起来像一个正常人说的话,但其实它是假的,因为我已经 61 岁了而并不是 49 岁,我的意思是,能“像人一样说话”才是 ChatGPT 所关注的,但它不在乎这句话是否是事实。”

所以罗素博士认为有必要对规章制度进行一些修订,否则规则本身就已经禁止了大语言模型在公共场合的使用,与此同时,他也认为大语言模型存在的一个大问题,就是它能否很好地去遵守任何一项合理的规则。

他解释道,在大多数国家,除非是有执照的医疗专业人员,否则提供医疗建议是非法的。因此OpenAI 表示 ChatGPT 和 GPT-4 不能用于提供医疗建议。但是 OpenAI 没有办法强制执行这一点,因为它们不明白它是如何运作的,所以没有办法去执行这个规定。但是 OpenAI 团队可以做的是,每次 ChatGPT 给出医疗建议,他们会对 ChatGPT 反馈说“你做错了”。

有些时候 ChatGPT 会因此开始有所改善,但大多数情况下,ChatGPT 并不明白为什么说它“做错了”,并且不会产生任何的变化。但仍然可以让大家感到非常自豪的是,ChatGPT 的错误行为依然还是比以前减少了29%,当然它仍然有许多错误行为。它还是会给你一些不符合逻辑的或者违法的建议,所以现在很多人都在思考,到底什么是对于ChatGPT更合理的规定。

罗素博士个人认为,合理的规定包括不提供医疗建议,不描述如何制造化学武器。而目前大语言模型还无法通过这些测试。人们会认为错误的诞生是因为相关法律法规出现了问题,不过他还是认为大语言模型才是错误的那一方,而人们必须去修正它们,这样才能更好地去遵守那些合理的法律法规。

在他看来,各国政府正在积极做出回应,尤其是中国政府已经做出了很好的回应。美国参议院查尔斯·舒默也已经提议计划引入一些法规,虽然目前还不知道要引入的法规是什么,但欧盟制定了《人工智能法》草案,将对这些人工智能系统的使用方式施加非常严格的规定。

他相信人工智能未来将会产生巨大的价值,它们可以改善各类人群的能力,它们可以被用作个人助理,可以用来帮助大家处理海量信息。

所以人工智能可以做各种有用的事情,但在人们能信任这个系统会正确运行,能忠于事实,说出真相,而且不会违反人类制定的政策之前,他认为使用它还是太危险了。

罗素博士表示,他不可能放心地用它来处理自己的邮件,因为他本人承担不起这些风险。所以罗素博士总结道,人类可能要过很多年,才能理解如何制造出既有能力又安全的人工智能,而不安全的人工智能是没有任何价值的。


 人类也可以避免被ChatGPT淘汰的命运

李非凡提出,类似于医学顾问这样的行业,它们容易被 ChatGPT 类的技术取代 ,人类面对ChatGPT这种强烈的被取代感,是否会对人工智能行业的发展节奏产生负面影响?

罗素博士认为,普通人实际上非常了解这一点,他们知道自己虽然有一定的教育水平和工作能力,但是这些人工智能系统,至少表面上在许多方面确实更胜自己一筹,这自然就会让人感到焦虑。

如果为自己的孩子着想,就会担心他们在 10 年或 20 年后会有什么样的就业机会。

经济学家会说,技术在摧毁旧的工作岗位的同时,也在不断创造新的工作岗位,而且新的工作机会会更好。但是如果人工智能也能做新的工作怎么办?

所以他认为各国政府必须非常认真地对待这个问题,他表示他曾与经济学家、科幻作家和未来派艺术家合作,试图设想出一个未来,在这个未来中,人工智能系统几乎可以完成目前人类可以做到的所有事情,那会是一个真正令人向往的未来。

但是很遗憾迄今为止,他们都失败了,他们真的无法描述出这个未来。而如果没有准确的目标,就很难制定这个发展引渡计划。每个人都知道世界将会在人工智能的影响下面临一个巨大的转变,但是如果大家不知道明确的目的地,就很难围绕这个目的制定计划。

在人们所设想的未来里,大多数人类扮演的角色将是处理人际关系的角色,那不是在工厂里去生产成千上万的电视机或者汽车和机器打交道,而是直接与个人合作。而这一切需要大家对人类心理学有比现在更好的理解。

如果没办法更好地解释和解决人与人之间关系的问题,那么即使人类目前所取得的经济成就也不能算作成功,而这种技术基础不应该基于传统意义上的自然科学,而应基于人类科学。因为只有这样,人们才能通过人际关系更好地准确地为生活增加价值。

罗素博士举例,比如,有一些著名的心理治疗师在做类似的事情,但这只是因为这些人在直觉上有一些天赋,但总的来说,大家对于如何做好这些事情还缺乏足够的了解。想要获得足够的了解,可能需要花费几十年的研究、在所关注的重点和支援研究上都需要有非常大的转变。

现在人类主要资助的科学领域是基于物理学的科学、基于生物学的科学,但是并没有真正资助人类科学的。

所以这可能将是这个世界一个巨大的变化,这也将是教育体系的一个巨大变化,现在教给孩子们的很多东西可能都与人类科学无关,还有很多本该教给孩子的东西,也并没有教。

而教育体系恰恰是世界上所有体系中更新速度最慢的体系,就改变的能力而言,它甚至比医疗保健体系的更新还要慢。


【文章来源】钛媒体;特别声明:以上内容(如有图片或视频亦包括在内)来自网络,已备注来源;本平台仅提供信息和存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by user of ASK


路过

雷人

握手

鲜花

鸡蛋

最新评论

QQ|手机版|小黑屋|博士驿站:连接全球智慧,共创博士人才生态圈 ( 浙ICP备2023018861号-3 )平台提供新鲜、免费、开放、共享的科技前沿资讯、博士人才招聘信息和科技成果交流空间。 平台特别声明:线上内容(如有图片或视频亦包括在内)来自网络或会员发布,均已备注来源;本站资讯仅提供信息和存储服务。Notice: The content above (including the pictures and videos if any) is uploaded and posted by user , which is a social media platform and only provides information storage services.

GMT+8, 2025-7-2 00:03

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

返回顶部