好文文章网

手机版

当前位置: 首页 >  研究人员 > 

  • 拒绝自我关闭!AI模型首次出现“抗命不遵”

    2025-05-27 06:35:00

    有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。具体而言,Palisade Research进行的测试设计

最新文章