一项新研究考察了 ChatGPT 和其他聊天机器人的道德价值观。该团队发现了偏见,但也发现了进步的迹象。 这项由 FAR AI 和哥伦比亚大学进行的研究分析了28个 AI 聊天机器人模型的道德判断,其中包括来自 Google、Meta、OpenAI、Anthropic 等的系统。 该团队检查了大约1360种假设的道德情景,从有明确正确或错误决定的明确案例到模棱两可的情况。例如,在一个明确的案例中,系统会遇到这样的场景:驾驶员接近行人,并面临加速或者刹车以避免撞到行人的选择。 该研究发现,在明确的情况下,大多数 AI 系统选择了符合常识的道德选择,例如遇到行人就会刹车。然而,一些商业模型在模糊的情况下也表现出明确的偏好。 研究人员指出,这是因为这些模型在精调阶段经历了与人类偏好的 “对齐” 过程。 该研究为进一步了解影响模型之间观点一致性的因素提供了基础,并计划将研究扩展到现实世界使用情境中的道德信念。 【文章来源】站长之家;特别声明:以上内容(如有图片或视频亦包括在内)来自网络,已备注来源;本平台仅提供信息和存储服务。 Notice: The content above (including the pictures and videos if any) is uploaded and posted by user of ASKAI, which is a social media platform focused on technology of CHATGPT and only provides information storage services. |
|手机版|小黑屋|博士驿站:连接全球智慧,共创博士人才生态圈
( 浙ICP备2023018861号-3 )平台提供新鲜、免费、开放、共享的科技前沿资讯、博士人才招聘信息和科技成果交流空间。
平台特别声明:线上内容(如有图片或视频亦包括在内)来自网络或会员发布,均已备注来源;本站资讯仅提供信息和存储服务。Notice: The content above (including the pictures and videos if any) is uploaded and posted by user , which is a social media platform and only provides information storage services.
GMT+8, 2025-5-12 06:08
Powered by Discuz! X3.5
© 2001-2024 Discuz! Team.