来源:环球网
【环球网财经综合报道】英国《每日电讯报》25日消息,美国开放人工智能研究中心(OpenAI)新款AI模型o3在测试中出现不听从人类指令、拒绝自我关闭的情况。
东方IC
报道指出,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力,此前OpenAI还称其为“迄今最聪明、最高能”的模型。美国AI安全机构帕利塞德研究所24日公布测试结果称,o3破坏关闭机制以阻止自己被关闭,且“甚至在得到清晰指令时”也如此,该研究所还表示“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭”,不过目前无法确定o3不服从关闭指令的原因。
另据美国彭博新闻社报道,OpenAI于26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国,此次在韩设立分支将是其在亚洲设立的第三个分支,前两个分别设在日本和新加坡。(陈十一)
更新时间:2025-05-28
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号