OpenAI于10月29日正式更新ChatGPT使用政策,明确禁止模型提供专业医疗、法律或财务建议。此举旨在规避监管风险、降低误导隐患,重塑AI在高风险领域的应用边界。新规核心内容包括:拒绝解读医学影像、辅助诊断、起草或解释法律合同、提供个性化投资策略或税务规划。

用户若提出此类需求,系统将统一回复引导咨询人类专家。政策覆盖ChatGPT全部模型及API接口,确保执行一致性。专业人士仍可用于一般性概念讨论或数据整理,但不得直接面向终端用户输出“受托性”建议。此调整受全球监管驱动。欧盟《人工智能法案》即将生效,将高风险AI纳入严格审查;美国FDA对诊断类AI工具要求临床验证。OpenAI此举避免被认定为“软件即医疗设备”,同时防范潜在诉讼。业内认为,这是对欧盟罚款(最高GDP6%)与美国法律风险的主动应对。
用户反应两极。部分个体用户遗憾失去“低成本咨询”渠道,称曾依赖AI节省专业费用;但医疗与法律界普遍支持,认为AI“伪专业”输出易引发误诊或纠纷。数据显示,超40% ChatGPT查询属建议类,医疗与财务占比近30%,政策或导致短期流量下滑。行业影响深远。Google、Anthropic等或跟进限制,垂直AI工具(如认证版法律/医疗模型)有望兴起。中国企业如百度已先行合规,国内监管趋严下,创新需在“沙盒”机制中探索。
OpenAI强调,目标是“平衡创新与安全”。此更新延续其Model Spec框架,预计2025年2月进一步迭代。AI从“全能助手”向“有限辅助”转型,已成行业共识。未来,技术突破与伦理约束将并行,GPT-5时代或带来新平衡。
