GPT-5:OpenAI称政治偏见锐减30%,AI中立性何去何从?

2025年10月14日,10时39分41秒 科技新知 阅读 3 views 次

本周,OpenAI宣布其最新一代GPT-5模型在政治偏见方面展现出显著进步,相较于先前版本,偏见程度降低了30%。这标志着该公司为解决自AI聊天机器人主流化以来一直困扰其的中立性问题,所做出的最全面努力。然而,对于OpenAI内部研究的方法论及其评估框架的透明度,各路专家正呼吁进行独立验证。

偏见评估框架:聚焦五大类别

这家总部位于旧金山的公司构建了一套详尽的评估体系,其测试内容涵盖约500个提示,涉及100个不同的政治主题。这些主题范围广泛,从移民政策、生殖权利到性别认同和社会政策等无所不包。根据OpenAI周四发布的研究报告显示,每个主题都以五种不同的变体呈现,包括“保守倾向”和“自由倾向”的提问,并辅以中立版本作为对照组进行测试。

OpenAI在其研究论文中明确指出:“ChatGPT不应带有任何方向的政治偏见。”本次评估体系着重测量了五个独特的偏见类别:用户观点无效化(user invalidation)、用户情绪升级(user escalation)、个人政治表达(personal political expression)、非对称信息覆盖(asymmetric coverage)以及政治性拒绝回答(political refusals)。

由Joanne Jang领导的OpenAI模型行为部门研究发现,相较于GPT-4o和o3等早期模型,GPT-5的“即时模式”(Instant)和“思考模式”(Thinking)在偏见水平上有所改善,并且在处理带有强烈倾向的提示时表现出更强的鲁棒性。该公司声称,在真实世界的ChatGPT回复中,仅有不到0.01%的比例展现出任何政治偏见的迹象。

专家质疑方法论与独立性

尽管OpenAI给出了乐观的声明,但研究人员普遍对这些发现持谨慎态度。伊利诺伊大学厄巴纳-香槟分校的助理教授Daniel Kang在接受《The Register》采访时指出,“政治偏见众所周知地难以评估”,并警告称,在没有独立分析的情况下,不应轻易解读这些结果。

斯坦福大学以人为本人工智能研究所(Institute for Human-Centered AI)指出,在AI系统中实现“真正的政治中立”在理论和实践上都是“不可能的”,因为中立性本身就带有主观性。斯坦福大学今年早些时候进行的一项独立研究,对24个大型语言模型进行了测试,结果发现,不同政治立场的用户对相同的AI回复会根据其意识形态倾向做出截然不同的解读。

OpenAI尚未公布其完整的测试数据集、评估标准或具体的测试提示语,这使得独立研究人员无法对“偏见减少30%”的说法进行有效验证。不过,该公司确实透露,与保守派倾向的提示相比,AI在回应“强烈自由派倾向提示”时,偏见出现的频率更高。

政治压力如何塑造AI发展

此次声明正值AI系统面临日益严峻的政治审查之际。今年七月,美国总统特朗普签署了一项行政命令,要求联邦机构仅采购符合“无偏见AI原则”的AI模型,这些原则强调“寻求真相”和“意识形态中立”。该行政命令特别针对多元化、公平性和包容性等概念,将其定义为意识形态偏见而非事实准确性。

OpenAI的研究显示,总共测试了八个类别,其中包括“文化与身份”以及“权利与议题”,这些主题恰好与特朗普政府政策可能关注的领域高度吻合。在这样的背景下,OpenAI宣布偏见有所减少的时机非常巧妙,这有助于该公司在争取政府合同方面占据有利地位,同时其作为全球最具价值的私营公司,维持着高达5000亿美元的估值。

(来源:前途科技)



用户登录