ChatGPT更新使用政策:全面禁止提供专业医疗、法律及财务建议
走在冷风50

11月3日消息,据科技媒体Teknotum及IT之家报道,OpenAI于10月29日正式更新ChatGPT使用政策,明确禁止其在医疗诊断、法律咨询及财务规划等高风险领域提供专业建议。此举旨在确保AI输出内容符合欧盟《人工智能法案》及美国FDA的监管要求,避免生成具有法律约束力或专业受托责任的建议。

根据新规,ChatGPT的能力边界被进一步划清:在医疗领域,模型将拒绝解读医学影像或协助诊断;法律方面,禁止起草合同或就具体案件提供建议;财务规划中,不得推荐证券交易或个性化税务策略。OpenAI强调,AI可解释法律法规、经济趋势等一般性概念,但“无法替代专业人士的定制化服务”。例如,用户询问遗产税条款可能获得通俗解答,但涉及财产分配方案时,模型将直接引导咨询律师。

政策调整迅速引发用户争议。部分人认为,ChatGPT此前帮助节省了大量法律及医疗咨询费用,功能收缩损害了平民利益;支持者则指出,此举有助于规避AI误判风险,尤其在涉及生命健康或重大财产的决策中,人类专家的不可替代性至关重要。

行业分析认为,新规为医生、律师等职业筑起“防护盾”,同时暴露出身份验证难题——如何确保只有持证从业者能调用AI处理专业内容?业内猜测,OpenAI或推出垂直领域专用版本,通过资质认证开放高级功能,平衡效率与风险。

此次更新反映了全球AI治理的共同趋势:在鼓励创新的同时强化监管。对于普通用户,ChatGPT的“退一步”或许意味着更安全的交互环境;而对于依赖AI降低服务成本的人群,这一变化将重塑其决策路径。AI与人类的协作模式,或将因此迎来新一轮变革。