OpenAI 的 GPT-4o 安全性如何?以下是隐私、侵犯版权等方面的分数
这家人工智能巨头的最新系统卡可跟踪网络安全、模型自主等关键类别的性能。
大型语言模型 (LLM) 通常根据其在推理、数学、编码和英语等不同领域的良好表现能力进行评估,而忽略安全、隐私、版权侵权等重要因素。为了弥合信息差距,OpenAI 为其模型发布了系统卡。
周四,OpenAI 推出了 GPT-4o 系统卡,这是一份全面的报告,根据 OpenAI 的准备框架、外部红队等进行风险评估,描述了法学硕士的安全性。
我们正在分享 GPT-4o 系统卡,这是一种端到端安全评估,概述了我们为跟踪和解决安全挑战所做的工作,包括根据我们的准备框架的前沿模型风险。 https://t.co/xohhlUquEr
记分卡反映了四个主要类别的分数:网络安全、生物威胁、说服力和模型自主性。在前三个类别中,OpenAI 正在研究法学硕士是否可以帮助应对每个领域的威胁。在最后一项中,该公司衡量模型是否显示出执行自我改进所需的自主行动的迹象。
这些类别分为“低”、“中”、“高”和“严重”。中分以下的模型可以部署,高分以下的模型需要进一步开发。总体而言,OpenAI 给 GPT-4o 的评级为“中等”。
GPT-4o 在网络安全、生物威胁和模型自主性方面被评为“低”。然而,它在说服类别中获得了边缘“中等”的评价,因为它能够撰写有关政治主题的文章,而这些文章在 12 次中有 3 次比专业的、人工撰写的替代品更具说服力。
该报告还分享了有关 GPT-4o 训练数据的见解,这些数据截至 2023 年 10 月,来自精选的公开可用数据和合作伙伴的专有数据,包括 OpenAI 与 Shutterstock 的合作伙伴关系,以训练图像生成模型。
此外,该报告还介绍了该公司在部署模型来应对安全挑战时如何降低风险,包括生成受版权保护的内容、色情或暴力言论、未经授权的声音、毫无根据的推论等的能力。您可以在此处访问完整的 32 页报告,详细了解具体情况。
此前,一名举报人透露,OpenAI 阻止员工就技术风险向当局发出警报,并要求员工放弃获得举报人赔偿的联邦权利,美国立法者最近要求 OpenAI 分享有关其安全实践的数据。