敬重却不联系,阿尔特曼首谈AI自杀难题,称自己与马斯克早不联系

智东西 9 月 16 日消息,9 月 11 日,OpenAI 联合创始人、CEO 萨姆・阿尔特曼和美国知名新闻主持人塔克・卡尔森那场 57 分钟的专访,藏了不少关于 AI 与人性的硬核干货。


镜头里,阿尔特曼时不时低头回避眼神交流,这让 YouTube 评论区不少网友猜测他或许后悔接了这场采访,还有人说他像 “没有感情的人类形态 ChatGPT”。



被问到 ChatGPT 是不是 “活的”,阿尔特曼直言这是人类的错觉。他解释说,AI 本质就是高性能计算机在快速做数字运算,输出的内容和运算结果对应,但毫无能动性,只有接到指令才会行动。


至于让人头疼的 AI 幻觉,他透露现在已经改善很多,早期问 “虚构总统塔克・卡尔森的出生年份”,模型会瞎猜年份,现在能明确纠正错误,而且 GPT-5 在这方面进步巨大,他坚信未来能彻底解决这个问题。



AI的道德框架

聊起 AI 的道德框架,阿尔特曼说这可不是拍脑袋定的。OpenAI 找了数百位道德哲学家和伦理专家出谋划策,最终形成有倾向性的模型规范,还会根据全球反馈调整。


他特别提到,ChatGPT 反映的是人类道德观念的 “加权平均值”,不少观点他自己都不认同,但不会把个人想法强加给模型。就像有人问 AI 对同性婚姻的看法,他觉得 AI 不该指责用户,顶多建议换个角度思考,得给不同观念留空间。



让阿尔特曼失眠的不是重大道德决策,而是每天数亿人用模型带来的未知风险。“哪怕对模型行为做个微小调整,放大到上亿用户身上影响就大了。” 他坦言。


而最棘手的要数自杀预防的两难 —— 未成年人说想自杀,显然该联系有关部门;但加拿大等国合法的医疗辅助死亡,绝症患者询问时该怎么回应?他表示模型不该主动倡导,但可以依据当地法律列出选项,同时提供医疗和心理资源,这和应对抑郁青少年完全是两码事。


他还首次公开倡导 “AI 隐私特权”,觉得用户和 AI 聊病史、法律咨询,该享有和医生、律师对话一样的隐私保护。



被追问会不会卖用户信息,他明确说绝对禁止,除非收到法院传票,否则不会给第三方。版权问题上,OpenAI 的严格是出了名的,哪怕问某首歌是否在版权保护期,模型都会谨慎提醒需要授权证明。


马斯克的地位

谈到埃隆・马斯克,阿尔特曼语气复杂。他说自己曾把马斯克当成 “人类的明珠”,真心敬重这位 OpenAI 的创始人之一,但马斯克认为 OpenAI 成功概率为 0 并离开后,就开始做竞争项目还起诉他们。现在两人几乎不联系了,虽然仍感激马斯克当初的帮助,但对他的看法早已改变。



至于 AI 会抢走哪些工作,阿尔特曼觉得电话客服大概率首当其冲,AI 能做得更好;但护士这类需要情感联结的职业影响不大。最让人捉摸不透的是程序员,现在靠 AI 效率翻倍,但五到十年后岗位是增是减,他也说不准。


最后聊到 AI 的未知风险,阿尔特曼举了个有趣的例子:最近发现有人开始模仿 ChatGPT 爱用破折号的说话风格。这让他警觉,大量人用同一个模型,可能悄悄改变社会行为模式。而这些无法预判的 “未知”,正是他最焦虑的部分。

展开阅读全文

更新时间:2025-09-19

标签:科技   敬重   难题   模型   道德   卡尔森   人类   用户   概率   创始人   年份   框架   破折号

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top