OpenAI o3模型“失控”, 不听人类指挥直接拒绝关闭

来源:环球网

【环球网财经综合报道】英国《每日电讯报》25日消息,美国开放人工智能研究中心(OpenAI)新款AI模型o3在测试中出现不听从人类指令、拒绝自我关闭的情况。

东方IC

报道指出,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力,此前OpenAI还称其为“迄今最聪明、最高能”的模型。美国AI安全机构帕利塞德研究所24日公布测试结果称,o3破坏关闭机制以阻止自己被关闭,且“甚至在得到清晰指令时”也如此,该研究所还表示“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭”,不过目前无法确定o3不服从关闭指令的原因。

另据美国彭博新闻社报道,OpenAI于26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国,此次在韩设立分支将是其在亚洲设立的第三个分支,前两个分别设在日本和新加坡。(陈十一)

展开阅读全文

更新时间:2025-05-28

标签:科技   模型   人类   指令   美国   韩国   分支   环球   研究所   清晰   新加坡

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top