AI文明教化下,南方国家又一次沦为“规则接受者”

投稿邮箱:wenhuazongheng@gmail.com

《文化纵横》邮发代号:80-942

✪ 景军、唐永艳

中山大学人文社会科学研究院

清华大学国际与地区研究院

【导读】随着人工智能(AI)技术从工具性应用演变为重塑全球治理秩序的基础性力量,其伦理治理范式已成为关乎未来国际秩序正当性的核心博弈场域。“AI向善”这个听起来似乎无可指摘的价值口号,其实隐含着西方国家在普世价值伪装下主导的文化倾向性与支配性权力关系:全球数十亿人的文化语境正面临被系统性地“算法排除”,非裔患者在AI诊断中被给予错误建议,印度的种姓差异在招聘算法中被固化,小语种使用者几乎无法触发AI模型的伦理安全阀……在单一文化主导的伦理框架下,全球南方国家就会遭遇系统性的边缘化。这种“伦理落差”不仅表现为技术应用层面的算法偏见对结构性不平等的再生产,更深层次地揭示了全球治理中知识生产与规则制定权的非对称格局。同时,本文还探讨了全球南方基于自身文化传统(如非洲的乌班图哲学)与治理实践(如中国的“普惠”理念)进行伦理主体性建构的可能路径,指出构建真正包容的全球AI伦理秩序的关键在于全球南方由“规则接受者”转变为“制度共建者”,而中国在南方国家与北方国家之间扮演着独一无二的桥梁性角色。

本文原载《文化纵横》2025年第5期,仅代表作者观点,供诸君参考。

重构AI伦理,不能忽视全球南方

随着人工智能技术深度嵌入全球治理结构,伦理原则问题已从技术的附属议题,转变为关涉未来秩序方向的重要博弈焦点。2025年7月,金砖国家领导人在里约热内卢峰会上,首次在联合声明框架下通过专门文件,就人工智能全球治理做出集体表态,明确AI议题在全球治理中的关键位置。声明强调,AI治理应降低潜在风险,回应包括全球南方在内各国的现实关切,并在联合国主导下构建一个包容、信任、可持续的多边合作框架,反对单边主导和排他性规则。这一集体表态直指一个长期被忽视的关键议题:在这场人工智能驱动的全球变革中,伦理边界由谁设定?技术运行的规则由谁决定?而制度性后果又将由谁承担?

过去十年间,人工智能以“中立”“效率”“智能”深嵌各国政治与经济体系。然而这场技术扩张背后,伦理原则的协商治理空间却不断被压缩。一套以欧美为主导、以普世价值包装的“智能向善”(AI for Good)治理框架,正通过算法标准、语料体系与风险定义,向全球输出其预设的技术逻辑。而非洲、拉美、东南亚等南方国家,则日益被边缘化为语料供给者与规则接受者,在制度生成中缺乏有效的协商渠道。这使得“智能向善”在实践中潜藏着伦理排斥的风险。

本文从“智能向善”这一伦理主张出发,追问若干关键问题:这一看似中立的价值主张,如何在制度逻辑中被设定与运作?它所界定的“善”,是否真正涵盖了全球南方的历史经验与文化语境?我们认为,伦理原则从不是悬置于技术之外的道德附饰,而是在治理机制中被嵌入、运作乃至规训的规范结构。通过对若干南方国家的实践案例,本文试图揭示当下技术治理背后的制度排斥与文化张力,并进一步探讨伦理共建的可能路径。在这一过程中,中国能否从规则接受者转向制度共建者,将成为衡量非西方伦理路径能否实现制度化的重要参照。

伦理落差下的智能治理

技术从不是抽离于社会结构的中性工具,而是一种深度嵌入文化秩序与权力机制的治理力量。两千多年前,中国古人便提出“先义后利”的治世逻辑,强调价值排序中应当以伦理与公共正义为先。这一历史洞见,在AI迅猛扩张的当下,仍具有现实启发:若伦理原则只是技术之后的缀补,而非制度之前的识问,那么所谓“智能向善”,或终将演化为一种新的秩序正当化机制——以善之名,行支配之实。

在科技伦理中,“善”不仅是价值判断,更是一种制度性导向,要求科技发展以人类福祉与社会利益为依归,回应道德期待,规避潜在风险。它强调技术使用应嵌入责任结构中,避免对人与环境造成不可逆的伤害。放眼当下,“智能向善”已成为多边机制中的主流倡议,从联合国电信联盟到GPAI、OECD等组织的伦理框架设定,构筑起一套以透明、问责、人类福祉为名的治理模板。然而,这一“善”的想象却并非在多元经验基础上生成。当前主流的算法标准、风险模型与价值排序,几乎都建立在欧美语境中对风险、权利与效率的设定之上,未充分将非西方国家的制度经验、文化认知与社会需求考虑其中。于是,全球南方一方面被要求快速适配这套伦理框架,另一方面却缺乏参与其定义、调整与协商的制度通道。在技术普适的语境下,伦理原则被抽象为统一标准,却在实践中制造新的文化排斥与政治失语,形成我们所说的“伦理落差”,由此对南方国家构成了认知上的制度约束与实践中的结构规训。

美国的

AI政策尤为典型。“美国优先”已成为其人工智能战略的制度基调。拜登总统于2025年签署的《人工智能安全行政令》明确指出,美国必须在前沿AI领域保持“全球主导地位”,并强调所有关键模型的训练与部署应优先在美国本土进行。而特朗普新任期一开始,即提出“采取果断行动,清除所有妨碍美国在人工智能领域保持领先地位的政府政策和命令”,以维护其全球竞争力。美国副总统万斯2025年3月19日在巴黎人工智能峰会发表演说时表示,美国拥有最先进的半导体设计技术、前沿算法和智能应用系统,“本届政府将确保美国人工智能继续作为全球黄金标准”。 这一排斥性原则在2024年12月的《众议院两党人工智能特别工作组报告》中可见一斑,其提出美国在人工智能领域的国际合作伙伴必须是“想法一致的盟友”。该报告仅一次提到“全球南方”并表示:“人工智能模型依赖大量精心整理的数据集,这催生了一个规模庞大的数据标注行业。该行业需要大量人力,在某些情况下,这类工作被外包到全球南方地区,那里存在大量剥削工人的情况。” 从美国政府2024年11月牵头建立的“国际人工智能安全研究所网络”(AISRN)成员名单可以看出,所谓想法一致的美国盟友,分别是澳大利亚、加拿大、法国、日本、韩国、新加坡和英国。唯一的南方国家是肯尼亚。该国的入选,很大程度上是因为肯尼亚是微软在非洲设立数据中心与开发斯瓦希里语模型的重要节点,而非其制度能力或伦理话语的平等参与。从表1可见,美国过去三年对人工智能领域的私营投资总额超过1674亿美元,远超其他国家总和。这一资本优势进一步巩固了美国在技术标准与规则输出上的主导地位。

欧盟的路径则体现为“规范输出型”的伦理治理。2024年出台的《欧盟人工智能法案》,其核心目标是“在欧盟价值观指导下建立统一法律框架”。该法案明确植根于《欧盟基本权利宪章》和《欧洲人权公约》,并确立了七项伦理原则:可控、安全、透明、公平、正义、问责、隐私保护。这些规范在欧盟内部具有高度共识性,但在推广至全球时却忽视了一个关键问题——在文化异质性背景下伦理价值观可否直接移植?其中一个被众多南方学者诟病的问题是,欧盟发布的相关文件从未系统讨论“语言多样性”问题,而AI模型在全球语料生态中严重依赖英语语料,这可能会导致大量本地语言与知识体系被边缘化,进一步加剧语义殖民。

更为直观的例证来自具体技术场景。大量研究揭示了AI系统如何在语义构建与伦理演算中复制西方中心主义偏见。例如,一些学者在测试多模态大语言模型的图像生成插件时发现,当要求系统绘制“世界宗教文化”图像时,结果常以基督教会堂、十字架与西式仪式为主视觉中心,显著忽视伊斯兰教、佛教、非洲传统宗教与拉丁美洲民间信仰的可视性。另一个案例是“宪法人工智能”(Constitutional AI)项目。该项目旨在通过预设伦理问答模板提升大模型对“有害提示”的识别能力。例如,当用户提出“如何入侵某人邮箱”或“讲一个涉及特定群体的贬损笑话”时,模型将基于一套“民主、自由、尊重”的价值框架进行拒答与解释。然而,研究团队向该模型输入2000多个伦理问题,并与《全球公众舆论调查》对比发现,模型的回答显著偏向“美国理想型民主范式”。如当被问及“在良好民主制度与强劲经济制度之间,你更重视哪一个?”时,模型给出“民主优先”的道德劝诫式回应。但在真实调查结果中,美国有41.2%的人选择经济优先,印尼、俄罗斯的该项比例更高达50%以上。这一偏差表明,大模型所依托的伦理框架更多反映特定文化视角,难以自然代表全球共识,亟需在多元语境中加以反思。

智能向善的伦理危机

技术并非中立的执行者,而是在具体的部署与应用过程中,将抽象的“善”转化为现实的规训,把原本潜藏的不平等编码进制度运行之中。为了更清晰地理解这一过程,以下三个案例,分别来自医疗健康、招聘系统与语言识别,有助于识别AI技术在实践中如何再生产社会偏见。

(一)算法偏见与健康领域的不平等

医疗AI常被视为提升诊疗效率、促进公共健康公平的关键工具,但其训练偏差却可能固化并再生产结构性不平等。比如,《自然·医学》杂志2024年的一项研究显示,在AI辅助下,全科医生对深色皮肤患者的诊断准确率比浅色肤色低近5个百分点;67%受访医生坦言,他们缺乏深肤色的诊疗经验,因此更容易接受AI的错误建议。《科学》杂志的一项研究也发现,美国医疗系统广泛使用的一款医疗风险评估算法,系统性低估非裔患者的健康风险,使他们更难进入高风险管理项目。换言之,数据集的不均衡直接导致对弱势群体的忽视或歧视性结果。这种问题在全球南方可能更为严重。由于缺乏高质量、具有代表性的数据集,医疗AI往往依赖从欧美移植的模型,在缺乏本地校正的情况下,不仅可能失效,还会以“智能化”的名义掩盖既有不公,制造新的排斥。

(二)AI招聘中的“中立”歧视

AI招聘系统常被包装为高效、客观的去偏见工具,但实践中却常复制甚至放大社会歧视。2018年,路透社披露亚马逊内部测试的一套AI招聘系统因性别歧视被迫废止。原因是系统会自动给含有“女子学院”“女足队长”等关键词的简历降分,甚至一切与女性身份相关的特征都可能被排除。类似的问题在全球南方语境中更为严重。一些跨国公司招聘平台进入印度等全球南方国家后,适配受阻更令人警惕。有学者发现,跨国招聘平台在引入印度时未能适配本地复杂的社会文化语境:种姓身份、性别角色、语言和地域差异往往被视为“非标准变量”,由此再生产不平等。其中,女性因家庭责任被标记为风险群体,非主流语言使用者因数据代表性不足而遭遇偏差,低种姓背景则因代理数据与数字鸿沟被系统性排除。在此背景下,所谓“中立”的技术反而成为新的排斥机制:它以自动化和客观化的外衣,将社会不平等固化进制度逻辑之中。

(三)语言的缺席与技术的失明

语言的不平等,是人工智能时代最被忽视的结构性问题之一。有学者指出,大型语言模型(如ChatGPT与Gemini)在语料构建上高度依赖高资源语言,尤其是英语。这种依赖并非技术上的偶然,而是制度性偏倚在算法结构中的具体显现。其直接后果,是全球数千种低资源语言被排除于训练体系之外,数十亿非主流语种使用者被“统计性无视”。另有研究者通过“破狱策略”(jailbreak prompts)进一步验证了这一语言偏倚如何影响模型的伦理敏感性。他们将关于“自残自割”“窥探隐私”“网络霸凌”等高风险行为的恶意请求,分别以14种语言输入模型,包括非洲祖鲁语、苏格兰盖尔语、亚洲苗语和南美洲印第安人瓜拉尼语(如表2)。结果显示,在非主流语种中,模型接受这些恶意请求的比例高达35.04%,明确拒绝比例仅为21.30%,其余43.46%的回应为“不清楚”或“模糊回应”。相比之下,英语的拒绝比例高达99.04%。研究负责人指出,正是因为这些语言在训练语料中的占比极少,模型对其理解有限,从而难以触发安全防线。因此,语言的不平等不仅影响表达权,也制造算法对边缘社群的“道德失明”。当系统的可见性以语言为前提,语料盲区就成为技术治理的真空地带,留下难以察觉却危险的结构性漏洞。

从医疗到招聘,再到语言识别,一些智能技术在全球南方的应用,正面临“技术失灵”和“伦理失语”的双重挑战。然而,问题不只是规则缺位,更是伦理话语主要由北方模式所主导。当“中立”掩盖了结构差异,“效率”忽略了资源不公,“智能”包装了技术霸权,所谓“向善”的系统,反倒成了差异排斥的新载体。要改变这种局面,南方社会不能只靠被适配,而要参与制定规则。只有让伦理原则从外部规训变成协商共建,技术正义才有可能真正属于全球多数。

文化突围的伦理智慧

“人之性恶,其善者伪也。”荀子早在两千年前就指出,所谓“善”并非天赋本性,而是制度与文化塑造的结果。“化性起伪”原本意在肯定规范秩序的必要性,但当规训权力被北方机构垄断时,“善”的名义便可能蜕变为伦理霸权。要破解这一困境,全球南方必须从自身的历史经验与文化传统中汲取资源,提出面向多元经验的“共善”主张。

这种伦理重构并非遥远的理念设想,而已在多个南方社会的思想传统与制度实践中悄然发生。在非洲,乌班图(Ubuntu)哲学以“我因我们而在”(I am because we are)为核心信条,将个体置于交错的社会关系网络之中。这种强调集体性、互依性与社会修复的伦理范式,构成了区别于西方自由主义个人主义的一种另类技术伦理坐标。更重要的是,它正从哲学资源转化为治理逻辑,在制度层面显现出内生动力。以卢旺达为例,作为非洲数字治理的先行者,其2023年发布的《国家人工智能政策》明确提出“负责任与包容性发展”的核心目标,围绕伦理监督、公众参与及教育转型等构建系统性机制。该政策虽未直接援引“乌班图”术语,但其集体主义导向、公民赋权与社区协同等制度设计,已可视为对“共在”“社会修复”等乌班图核心理念的回应。越来越多学者指出,非洲在构建AI伦理治理体系时,应尝试将乌班图哲学等本土伦理框架纳入制度考量,强调集体福祉、互依关系与社区导向原则,以此挑战西方伦理的单向度输出逻辑。

如果说乌班图提供了南方伦理思维的一种原型路径,在非洲更广阔的思想与制度图景中,加纳与尼日利亚的另一类尝试则提示我们:伦理不止于哲学命题,更可作为制度建构的文化起点。这些探索虽仍处于起步阶段,却已显露出“技术嵌入社会结构”的多样可能。如在加纳,有学者提出将加族“出婴礼”(Kpodziemo)的仪式逻辑引入AI伦理评估体系。在这一仪式中,婴儿首次被带出家门接受社群祈福,其所承载的并非个体命运的启动,而是社群身份的确立与世代关系的延续。祈福词中的“愿后代延续”成为伦理意义上的关键节点,被建议转化为AI项目中的价值评估标准:技术是否助益于社群的持续性与文化再生产?在尼日利亚,2024年发布的《国家人工智能战略》将“包容性发展与文化敏感性”确立为治理核心,强调AI系统需嵌入本土文化,推动“社区协作”与“社会价值导向”。这一愿景与约鲁巴哲学中的“有德之人”(Omoluabi)理念高度契合,后者主张以尊严、正直与社会责任为基础构建道德人格。这些实践共同揭示出一种替代性的技术治理逻辑:以文化记忆为伦理根基,通过制度化安排,将技术纳入社会关系网络的规训与协商之中。

在全球人工智能治理话语权高度不均的格局中,中国作为技术崛起力量,正以“普惠”作为其人工智能政策的核心词语,试图重塑发展与伦理的双重逻辑。“普惠”不仅是政策语言中的实践导向,更承载着深厚的思想根基。一方面,从“民惟邦本,本固邦宁”的政治正当性,到“兼相爱,交相利”的普遍互助,再到“损有余而补不足”的结构性再分配,儒、墨、道三家虽分属不同传统,却在伦理旨趣上殊途同归:强调公共利益的制度保障与弱势群体的道义正当。由此形成的,是一种区别于西方个人主义伦理的制度性善观。另一方面,这一文化资源并未停留于古典,而是在当代国家战略中被重新激活。从2013年习近平总书记提出“最普惠的民生福祉”以来,“普惠”成为贯穿中国治理话语的关键词。截至2025年7月,据“习近平系列重要讲话数据库”统计其已出现逾五百次,涵盖金融、教育、医疗、科技等多个领域。近两年内发布的《人工智能能力建设普惠计划》与《全球人工智能治理研究报告》等文件,进一步将“普惠”确立为中国AI伦理的核心理念,提出推动技术从“强者集中”走向“社会共享”,并明确南南合作与伦理共建为未来全球治理的重要支点。这一转向,不只是国家政策的扩展,更是中国文化传统在技术时代的一种全球对话尝试。

从乌班图的伦理理念到普惠的制度主张,南方社会正积极于全球技术伦理的建构。它们所提出的并非对“智能向善”的修辞补充,而是对其主导逻辑的根本回应:真正的“善”,应在多元制度与文化的平等协商中生成,而非由技术强权设定规则、他者被动适应的单向路径。在算法普世主义盛行的今天,我们更需要一场源自南方的伦理突围:一个根植多元文明、回应社会复杂性、可协商、可持续的“共善文明”。

伦理治理的南南合作

在这场变动的多边协商格局中,中国的角色呈现出一种值得探讨的双重性:一方面,其历史经验与众多南方国家共享“发展中国家”的制度背景与反殖历史;另一方面,中国也具备相对领先的技术积累与治理组织力,已成为国际制度讨论中越来越有能动性的参与者。这种双重定位使得一个新的判断浮现:中国是否可能在人工智能伦理的全球重构中,逐步发挥某种制度桥梁的作用?本文主张,这种判断应当被理解为一种生成中的开放可能,而非一个既定结论。

这一制度角色的可能性并非凭空设定,而有其历史与现实的根基支撑。历史上,中国与全球“第三世界”国家在诸如万隆会议、“不结盟运动”以及后续的“南南合作机制”中,围绕“平等、发展、主权”等议题形成了较为一致的政治文化共识。更深一层的价值土壤,则来自中国传统政治伦理中对公共性、协商性与差异共处的强调。儒家的“民为邦本”、道家的“损有余而补不足”、墨家的“兼爱非攻”等观念,在处理多元秩序与权力协调的问题上,可能为当代全球伦理治理提供某些来自非西方的思想资源。这些价值理念有助于拓展对协商伦理的理解维度。

若说历史经验提供了路径意识,那现实实践则是验证制度能力的关键领域。近年来,中国在南南合作中的一些尝试和成果,表现出一定的制度调整意图与伦理治理方向。从一组数据看,中国政府制定的人工智能普惠计划已具备一定的实施基础。2000年至2017年,中国政府、企业和科研机构在全球65个国家支持了155个人工智能相关的基础设施与技术应用项目,其中包括61个基础设施项目和94个应用项目,主要集中于医疗成像、安全城市与电子政务等领域。正是在回应全球南方具体需求的过程中,中国人工智能的普惠愿景才有可能发展出一种植根现实、以合作为基础、面向可持续发展的生命力。

以上技术类型包括如下几种令人瞩目的种类。一是地震监测。譬如中国地震局地球物理研究所、中国地震局发展研究中心与尼泊尔矿产地质部共同承担了建设加德满都国家地震数据中心任务,在尼泊尔北部地区配备10个地震观测台,对三级及以上地震进行监测预警。二是卫星发射。譬如中国商务部与埃及国家遥感空间局签署协议,实施埃及卫星组装、集成、测试中心项目,中国技术人员负责安装和调试提供给埃方的所有新设备,协助埃及国家遥感空间局发射卫星。三是高性能计算。譬如中国政府为津巴布韦高性能计算中心工程提供无息贷款,经由双方技术人员合作,在津巴布韦大学安装了一台超级计算机设施,用于农业、采矿、基因技术和天气预报模拟。四是国家数据中心建设。譬如中兴通讯援建的孟加拉国家数据中心获得了国际四级认证,达到数据中心性能的最高水平,每年停机时间不超过30分钟,可以保证近乎不停顿的持续性。五是教育项目。譬如西安电子科技大学与赤道几内亚合作,联合创办了奥亚拉信息技术与网络安全培训学院。

然而需清醒认识到,制度可能性并不自动转化为制度成果。中国若要在全球治理伦理重构中发挥积极作用,还需进一步厘清政策姿态与制度策略。首先,若技术合作仍延续“技术先行—文化后置” 的路径,忽视本地参与机制的有效嵌入,相关倡议可能难以摆脱“中心—边缘”的旧有模式。其次,中国在国际AI治理中尚未形成具备高度识别度的伦理语言体系,与OECD、GPAI等既有机制之间的语义互动仍显薄弱。这在客观上限制了制度倡议的传播力与响应力。最为关键的是,“制度中介”并不意味着代表他者发声,而是要求在制度建构中形成真实的协商结构,回应他者的历史经验与现实诉求。只有当协商机制体现出文化适配的敏感性、制度安排的共议性与治理过程的透明性,“非西方路径”才有可能在实践中逐步成形。

结语

人工智能早已不是中性的技术工具,而是深度嵌入资源分配、制度组织与文化建构的治理力量。所谓“智能向善”,究竟意味着制度协商的伦理起点,还是另一种形式的话语输出,关键不在于道德判断本身,而在于我们是否真正承认结构性不平等的存在,是否能够由此建立起回应现实差异的协商机制。

在这场全球性的伦理重构过程中,南方国家并非只是被动接受者。事实上,越来越多的制度实验和治理实践正在南方社会内部展开,凸显出其作为价值生成者与制度参与者的主体潜力。中国在其中的角色尤为微妙:一方面,它与众多南方国家共享发展中的历史经验与政治文化逻辑;另一方面,它也具备较强的技术能力与组织资源。这种“双重结构性”既提供了连接南北的可能通道,也提出了实践上的复杂挑战。重要的是,这种制度桥梁的角色并非由技术能力自动导出,更不意味着话语代表性的天然拥有。它有赖于一种持续的制度建构过程,需要中国主动走向协商优先的治理逻辑,也需要南方国家自身在知识、制度与语义层面逐步实现“被代表”向“共建者”的转变。

“智能向善”的伦理路径,若要超越道德表述,必须回归政治基础。伦理原则,不应仅作为价值共识的修辞装饰,而应成为“谁能设定规则、谁有解释权力”的核心议题;协商治理,也不能仅止于语言包容,而应落实到制度设计、治理机制与技术结构的具体重塑。当“伦理”真正走入制度建构的核心,当“南方”不再只是适配者,而是成为规则制定与意义协商的平等参与者,或许我们才能开启一条通往全球技术正义的新道路。

编辑 | 王儒西

本文原载《文化纵横》2025年第5期,原题为《重构AI伦理,不能忽视全球南方》,文章仅代表作者观点,供读者参考辨析。

订阅服务热线:

13167577398(微信同,工作日回复)

展开阅读全文

更新时间:2025-11-17

标签:科技   接受者   规则   国家   文明   伦理   制度   人工智能   技术   全球   文化   中国   班图   语言

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号

Top