维杰·普拉沙德、熊节:怎么让AI服务人民?“赤脚医生”就是最好的回答

人工智能进入公共生活,照例带来一阵熟悉的喧嚣:人们惊叹于它的技术能力,忧虑于它的社会后果,而最耐人寻味的是,那些从中看到积累新边疆的人,脸上露出了狂喜。描述AI的语言充斥着“不可避免”的腔调,仿佛历史本身早已合谋,要将这项技术交到我们当前经济秩序的手中。

然而,历史从不因“必然”而前行——它是由权力所塑造的。从这个意义上说,AI也并非降生在一片中立之地:它踏入的世界,只能被描述为衰败中的资本主义。因此,说到底,AI既不是我们的朋友,也不是我们的敌人。它有可能服务于人类解放,但前提是,我们必须把它从圈占中夺回来,阻止它沦为私人积累的又一种工具。

进一步看,资本主义到了当前这个阶段,连曾经用来为自身暴力辩护的那一丝微弱的共同繁荣承诺,也已经消失殆尽。我们面对的是一个虽已丧失合法性、却执意要通过日益榨取性的手段来自我再生产的体制。具体来说,金融资本早已脱离生产性投资,转而偏好那些能带来利润却无需社会变革的投机循环;与此同时,公共产品被掏空,劳工保护受到侵蚀,民主机构也屈从于企业利益。正是在这样的土壤上,AI登场了——它并非什么解放的力量,而是一种被这些深层矛盾所塑造出来的技术。

那么,谁拥有AI?它又服务于何种目的?答案既非抽象,也非含混。首先,屈指可数的几家大型企业——大多集中在全球北方——控制着让AI成为可能的基础设施、数据和算力资源。它们的支配地位,是数十年政策决定的结果:知识被私有化,数字公地被圈占,研究被置于企业意志之下。

更重要的是,这种集中绝不仅仅是商业层面的。那些拥有AI基础设施的企业,依法律和惯例,与它们总部所在帝国的国家安全机器紧密相连。2013年斯诺登曝光的“棱镜”计划表明,微软、谷歌、苹果、Meta等企业持有的数据会常规地流入美国情报机构手中;2018年的《云法案》则把这一逻辑延伸到了国界之外,授予美国当局合法访问这些企业在全球任何地方所持数据的权力。正因如此,当代AI的架构,恰恰继承了这一安排。

一个在加利福尼亚训练出来的前沿模型,通过圣保罗或拉各斯的云服务进行部署,在法律实质上仍然属于美国监控与情报体系的工具。换句话说,将自身的经济和公共管理融入这一基础设施,就等于融入这一体系。在我们这个时代,帝国架构的传播方式,就是一个应用程序接口。

另一方面,再来看数据。喂养AI系统的数据,是从数十亿人的集体活动中收割而来的,然而这些数据所产生的价值,却被一个狭小的精英阶层所攫取。这其实并不新鲜——资本主义始终依赖于对土地、劳动和知识的圈占。新鲜的是AI将这一过程推向的规模与速度:人的创造力、交流和社会关系被转化为数据点,被剥离语境,再作为专有资产重新组装起来。然而,对数据的圈占虽然规模巨大,却只是剥夺的一个方面。在它旁边,还有一场几乎无人提及的、发生在此前四十年信息产业中的第二层剥夺:系统地剥夺劳动人民构建信息工具的能力。

具体来说,在UNIX和BASIC的时代,一个使用计算机的人,按照机器的设计逻辑,也同样被期望去编程它;早期计算机的工作环境,天然地邀请用户去制造工具、修改工具、传递工具。而今天,这一状况被彻底逆转了。劳动者和公民所面对的信息工具,是作为成品商品出现的——由经过认证的专家为他们生产,被封装在内部逻辑无法审视和修改的平台之中。于是,构建的能力被稳步地从大众生活中抽离,集中在少数几家公司的工程部门,也就是今天控制着AI的那些公司。更重要的是,这两层剥夺相互叠加:劳动人民的数据被抽取之后,又被用来训练那些系统,而后者反过来进一步收窄了那些数据被抽取者自身想象与生产的视野。

最终,呈现在他们面前的是:他们未曾参与建造的工具,基于他们未曾同意交出的知识所训练出来,再以服务的形态卖回给他们,让他们为此付费。由此可见,失去的不仅是一份价值份额,更是一种位置——制造者的位置、建造者的位置、塑造集体生活组织方式的人的位置。

因此,在资本主义之下讨论AI,如果不提出这第二层剥夺的问题,就等于默认维持那更深层的依附结构。

此外,工人本已与自身劳动产品相异化,如今连他们的认知本身也被抽象化、被货币化。就连AI的基础设施也体现了这一逻辑:由少数几家巨头控制的云计算,已经成为创新的守门人。要构建先进的AI系统,就必须向这些企业租借算力资源。这种安排与历史上的圈占运动如出一辙,只不过如今的地盘变成了数字化的、全球性的。其结果不仅是财富的集中,更是可能性的集中——它不仅决定了谁能造AI,还决定了什么样的AI会被造出来。

在这种条件下,研究的优先顺序自然服从于盈利性而非社会需求。首先,巨额资源被投入广告优化、金融交易算法和消费者预测系统;与此同时,用于应对气候变化、加强公共卫生系统或改善粮食分配的资源配置却少之又少。由此可见,问题不在于AI能不能解决这些难题,而在于:在资本主义下,它为什么很少被允许去解决?

以医疗为例。从一方面来说,AI在诊断和药物发现方面已展现出卓越的能力。然而在实践中,它的部署却完全服从于市场命令。具体而言,在美国,保险算法通常将削减成本置于患者照护之上,对边缘化群体造成不成比例的伤害;另一方面,制药公司利用AI加速药物研发,却同时维持着严格的专利制度,从而限制了药物的可及性。结果就是:技术是尖端的,社会结果却是倒退的。换句话说,AI不是在技术上失败了,而是在政治上失败了。

AI技术用于生物技术和药物研发,能大大减少实验时间,造福于人类

教育领域同样如此。表面上看,AI驱动的平台承诺个性化学习和知识获取的扩展;但在利润驱动的体制下,它们却变成了数据提取和市场细分的工具。学生的行为被追踪、商品化并出售。更富有的机构能够获得先进系统,而资金不足的学校则进一步落后。于是,表面上所谓的创新,变成了不平等的又一层外衣。

更重要的是,支撑AI的全球劳动分工进一步暴露了这些矛盾。具体来说,硅谷的工程师设计先进模型,而全球南方的工人却在不稳定的条件下标注数据、审核内容、维护数字基础设施。这些工人忍受着低工资和心理压力,常常要审核令人不适的材料,来“训练”那些号称智能的系统。这些数字并非抽象概念:总部位于美国的Sama公司作为OpenAI的外包商,雇佣了肯尼亚工人来标注和审核ChatGPT被训练以识别和拒绝的有毒内容——这些工人审核涉及性暴力、自杀和虐童的描述,而他们的实际到手工资据报道仅为每小时1.32到2美元。

类似的安排、同样的工资水平,遍布马达加斯加、菲律宾、委内瑞拉和巴基斯坦;价值数十亿美元的全球数据标注市场,就建立在这种劳动之上。从这一角度看,那些在帝国中心销售的系统的光鲜与表面的智能,字面意义上正是建立在边缘地带劳动人民的神经系统之上的——那些工人的名字从不出现于任何营销材料中,他们的劳动条件经过精心管理,恰好就是为了让他们不为人知。

由此推之,AI根本不是“人工”的:它建立在人类劳动之上——这种劳动分布不均,且被系统性剥削。然而,AI的意识形态力量恰恰在于它的神秘化:它将自己呈现为自主而客观的存在,从而掩盖了内嵌其中的社会关系。

即便是模型表面上的中立性,一经审视也会烟消云散。首先,大语言模型的训练语料绝大多数来自帝国中心的语言、档案和意识形态框架;因此,它们的默认输出往往以惊人的保真度复制了这些框架在财产、主权、国家的合法性、革命的性质等议题上的政治预设。

换句话说,表面上呈现为普适工具的技术,一经检视便显露出带有立场的本质。更重要的是,这种偏见不是可以通过更好的过滤来修正的技术事故,而是塑造该模型的社会关系的沉淀物。结果便是,有害的结果被框定为技术故障,而不是结构性特征,责任也随之消解于抽象之中。归根结底,这种神秘化极大地服务于资本——它收窄了政治的想象力,鼓励人们去适应而非抵抗。

那么,未来会怎样?如果资本主义尚处于有活力的阶段——也就是说,如果它仍在扩展社会权利、投资于公共产品——AI或许还能被整合进一个更宽广的人类发展计划之中。但以它如今衰败的形式,资本主义既缺乏这个能力,也缺乏这个意愿。

于是,AI变成了又一个积累的机制,又一个斗争的场域。因此,问题不在于AI是否会改变社会——它已经在改变——而在于这种改变将由利润主导,还是由人的需求主导。

标签:

美全力以赴 赶在7月4日前改好卡塔尔赠送的特朗普专机
重振德国?“特朗普一搅,默茨雄心破灭”