当我们与 ChatGPT 对话、使用自动驾驶功能、享受算法推荐的短视频时,很少有人会想到:在这些光鲜的AI技术背后,站着一群默默无闻的”数字劳工”。

最近读完了《投喂AI:人工智能产业的全球底层工人纪实》这本书,内心久久不能平静。作者团队深入走访了全球200多名数据标注员、内容审核员和AI产业从业者,揭开了这个隐藏在算法背后的残酷世界。
数据标注员:AI的”隐形老师”
在肯尼亚内罗毕的一栋写字楼里,安妮塔每天早上8点开始工作。她的任务是检查司机驾驶录像,观察司机的表情变化——当司机分心或困倦时,她需要将数据记录下来。这些数据将帮助汽车制造商搭建车内行为监控系统。
“每55秒必须处理一条报告”,这是她的KPI。每天工作10小时,中间只有两次短暂的休息。她的眼睛一刻不停地盯着屏幕,手指在键盘上飞速敲击。如果后台显示她的名字变成红色,意味着她需要无偿加班。
从种植园到数据标注中心
书中提出了一个令人震撼的观点:现代数据标注中心的管理模式,与殖民时期的棉花种植园有着微妙而隐秘的联系。
19世纪的美国南部棉花种植园里,奴隶们被严密监控,监工记录下每个奴隶每天的采摘量。差一磅就打一鞭子,干得最快的则有奖励。这种”群体制度”(gang system)后来演变成了现代科学管理的基础。
1878年,弗雷德里克·温斯洛·泰勒在费城米德维尔钢铁公司建立了科学管理理论。他根据种植园的基本模型,对劳动力进行系统监控。尽管工厂和种植园有根本不同——雇佣劳动取代了奴役劳动,暴力体罚逐步消失——但这两者间的延续关系不可否认。
“标注员工作的方方面面都被数字化监控和记录,其严密程度超过了最严苛的种植园主和工厂主。”
今天的数据标注员:
- 使用生物识别扫描进办公楼
- 无处不在的闭路电视摄像头
- 每分每秒都受到效率监控软件记录
- 员工普遍认为谈论建立工会都会让自己丢掉饭碗
人机闭环系统
全世界有数百万劳动者从事枯燥的数据标注工作,将大量数据转化为AI可以识别的数据集。AI公司寻找数据标注供应商的方式主要有两种:
第一种是数字劳动平台,如亚马逊机械土耳其人、Clickworker、Appen等。这种外包方式被称为”微工作””点击工作”或”众包工作”。
这些平台上的工作者都是自由职业者,每小时赚大约2美元,没有工作福利、带薪病假和养老金。研究显示,多达30%的任务无法正常获得报酬——发包方只要对结果不满意,就可以直接拒绝支付。
“工作者平均每周花费8.5小时从事找工作等无薪劳动。”
第二种是业务外包公司,如安妮塔所在的公司。这种模式兴起于20世纪90年代的全球业务外包潮流,企业希望降低运营成本,将后台工作转移到国外。外包公司一般聚集在印度、肯尼亚和菲律宾等国——这些国家的特点是英语劳动力多且廉价,劳动纪律严格。
值得一提的是,中国也在实践类似模式。支付宝公益基金会和阿里巴巴人工智能实验室联合发起了”AI豆计划”,将数据标注工作分配至贵州铜仁市等农村地区,通过免费职业培训让贫困群众成为”AI培育师”。
合成数据的幻象
OpenAI首席执行官萨姆·奥尔特曼声称”很快所有数据都将变为合成数据”。高德纳咨询公司预测:”到2030年,AI模型使用的合成数据量将完全超越现实数据。”
但合成数据真的能解决问题吗?
在广为流传的论文《递归的诅咒》中,研究人员发现用聊天机器人生成的数据训练过的大语言模型存在”不可逆缺陷”,甚至会导致模型崩溃。由于大语言模型主要使用从互联网抓取的数据训练,未来网络上可能充斥着大量合成数据——这将从根本上威胁AI系统的质量。
开发人员可能会找到技术解决方案,但有一点毫无疑问:在某些情境下,现实数据因其独特性,难以被合成数据所复制,从而显得愈发珍贵。
“许多审核员每天需要处理500~1000条违规内容。许多人坦言自己再也回不到从前,这份工作给他们的生活留下了难以磨灭的烙印。”
内容审核员:数字世界的”清道夫”
如果说数据标注员是AI的老师,那么内容审核员就是数字世界的清道夫。他们的工作是审核社交平台上的帖子,删除违规信息、标记不良内容。
但这份工作远比想象中残酷。审核员们每天都在承受大量暴力和色情影像的冲击,几乎没有时间停下来思考和消化。书中的一个细节令人心碎:那些被恐怖内容吓得逃离岗位的审核员,因为没有在电脑上输入”休息”或”去厕所”的指令,被扣减了生产效率评分。
公司为他们安排的”健康顾问”,其实就是他们的同事,根本不具备正规的心理咨询资质。
全球南方的新殖民主义
这本书最让我震撼的是作者提出的观点:AI产业的生产运作方式和殖民时期的掠夺方式惊人地相似。
最稳定、最高薪的工作岗位分布在美国的各大城市,而最不稳定、最低薪、最危险的工作则被外包给”全球南方”边缘地区的工人。肯尼亚、印度、菲律宾……这些国家的年轻人拿着微薄的薪水,为硅谷的科技巨头训练着世界上最先进的AI系统。
“尽管付出劳动和创造价值的是世界上最贫困的人口,获利的却主要是欧洲和美国的大型科技公司。这不是一个偶然性的错误,而正是AI机制的设计初衷。”
作者将AI称为”剥削机器”——它吸收了资本、电力、自然资源、人力、数据以及集体智能等关键投入,然后将它们转化为统计预测,最终转化为科技公司的利润。
为什么”连接平等”不等于”议价能力平等”
经济学家米尔顿·弗里德曼认为,数字技术让全球劳动力市场更加公平——雇主和雇员可以跨越国界自由连接,实现双赢。
但弗里德曼的观点有致命缺陷:连接平等并不等于议价能力平等。
在肯尼亚等国家,失业率居高不下,劳动者找不到正式工作,赚不到钱,也无法享受就业保障。作为弱势群体的他们,不仅被迫接受低工资,而且由于知道自己很容易被取代,也不太可能向公司提出改善工作条件的要求。
许多大公司把工作外包给”全球南方”,并不是为了提高当地就业率,而是看中了那些地方更严格的劳动纪律、更高的工作效率和更低的用人成本。
如果安妮塔所在的公司大幅提高工资、降低工作强度,那它很快就会因成本过高而被市场淘汰。在这个关系中,最有权力的角色并非外包公司管理者,而是那些雇用外包公司的科技公司——正是它们在合同里设定了各种条款和条件。
其美国管理团队中一位高管的年薪,相当于1000多名非洲员工月薪的总和。
知识的殖民性
AI不仅延续经济上的不平等,还在知识层面延续殖民主义。
作者提出了”知识的殖民性”概念——一种欧洲中心论,认为欧洲的世界观具有普适性,且优于其他地区民族的世界观。AI奉西方世界观为圭臬,训练数据集和常见基准都是基于西方知识体系建立的。
这意味着:
- AI会再现数据中存在的有害刻板印象
- 对数据中被误解或扭曲的少数群体表现出偏见
- 习惯采用特权阶层的视角解答问题
“在网络参与程度、数据集创建、训练数据整理、训练模型决策和AI相关政策制定等领域,霸权主义占据上风。以白人男性为主的科技精英,尤其是美国人,拥有极大发言权。”
平台时代到AI时代的演变
书中将2005年到2022年定义为”平台时代”,而我们现在已经进入了”AI时代”。
平台时代的特点是轻资产——爱彼迎没有房产,优步没有汽车。而AI时代的科技公司则追求”基础设施力量”:全球大型数据中心有一半以上属于三家大公司,只有少数几家公司能够提供训练尖端AI模型所需的硬件。
这种转变导致财富和权力更加集中。AI公司起步就需要数百万美元,后期还需要上亿美元来维持云平台运行。许多初创公司不得不与现有的云服务提供商建立战略合作关系,创始人失去了对业务的控制权。
工程师的故事:光鲜背后的另一面
书中有趣的是,作者并没有把矛头只对准科技巨头,也采访了那些位于AI产业链上游的工程师——那些居住在伦敦肖尔迪奇区、拿着高薪的AI从业者。
ChatGPT并不”聪明”
作者提醒我们:人类想要正确理解大语言模型,就不能把它当成人来看。它没有智力,也没有创造力,自然也没有信念、精神和情绪。
二战期间,数学家艾伦·图灵在布莱切利园密码破译中心工作。他的棋友唐纳德·米基用火柴盒和彩色珠子搭建了一个可以玩井字棋的”机器”——这是最早的机器学习雏形。
今天的ChatGPT本质上与那个火柴盒机器没有本质区别:它们都是通过大量试错来学习模式,然后根据概率生成输出。
机器学习工程师的困境
书中采访了一位在伦敦工作的AI训练师李。她的工作是检索增强生成技术——结合知识检索和生成模型,通过检索外部知识资源检验输出结果,提高大语言模型的准确性和可靠性。
李的团队享受体面的时薪待遇,负责为模型提供答案范本,让模型套用这些范本生成自己的文本。团队成员都擅长写作,能够帮助模型创作出更具文采和格调的内容。
但她始终觉得,在某种程度上,她也只不过是庞大机器中的一个齿轮。
“她怀疑公司现有的模型存在巨大的偏见和局限性,但与安全和伦理道德相比,经济利益永远是王道。”
机器会取代你的工作吗?
有预测称AI将导致大量工作岗位消失:高盛预计可能有多达3亿个岗位被自动化或AI取代,麦肯锡预测的数量是4亿~8亿。
但作者提醒我们:不能完全相信这些数据,因为咨询公司的工作就是炒作客户所在行业的价值。
2013年,牛津大学的研究人员预测未来10-20年美国有47%的岗位将面临被计算机取代的”高风险”。但这么多年过去了,预测没有成真——研究人员对工作的分类方式导致数字被夸大了。
实际上,AI对大多数职业的影响不是取代,而是改变工作岗位所需技能、工作时间和劳动强度。
通过对大语言模型的分析,研究发现它更擅长处理有明确目标和有较多文本数据支撑的标准化任务——比如跟代码打交道的软件开发员和计算机程序员将受到极大影响。
“使用大语言模型的最大风险,就是夸大其功能和生产力,导致人们未经深思熟虑,就将它们应用于众多行业。模型不具备人类的理解能力、社会意识和同理心,因此试图简单地用它替代人类是不现实的。”
模型就像私立学校培养出的政治精英阶层:”他们的话听起来似乎很有道理,细想下来却充满了该阶层对社会的偏见,体现了社会权力分配不均的事实。”
设计上的偏见
AI被包装为超级智能,能够跨越人类局限和偏见。但事实恰恰相反。
事物是无法与其设计、制造背景分开的。 从根本上说,大语言模型的开发很大程度上依赖训练数据集。许多数据集中都包含从互联网上抓取的非结构化数据,其内容往往含有社会偏见。
ChatGPT发布后,批评人士指出其安全功能很容易被规避,导致聊天机器人生成带有种族主义、性别歧视和负面评论的内容——这些都是机器学习模型从大量的互联网聊天记录中学到的。
AI所采用的视角不仅跟数据集来源有关,其实说白了,是和权力相关:谁有权,谁就能左右AI的发展。
在执法、银行贷款、简历筛选、福利发放和教育等领域,算法决策实际上加剧了长期存在的偏见、歧视和错误决策问题。模型不具备人类的理解能力、社会意识和同理心,试图简单地用它替代人类是不现实的。
“AI的权威性使人们觉得它的角色是观察者,没有立场,只是在记录事件,且没有偏见。但事实是,AI公司经常谈论自己开发这项技术是为了更好地服务人类,但其实它们的主要动机是赢利,是靠产品变现。”
技术员的故事:数据中心的沉默守护者
一个阳光明媚的春日,数据中心里忙碌依旧。埃纳尔是冰岛北部一家刚成立的数据中心的设施经理,中心还有另外两位工作人员——电工约翰和维修技术员哈尔多尔。
欧洲最大的银行之一希望实现数据存储的多元化并降低成本,今天要将服务器迁入数据中心大楼。埃纳尔忙着监督准备工作,在数据中心里四处奔忙,指导工人安装客户要求的新服务器机架。
AI的实体存在
这本书提醒我们:AI是有实体的。
在高耗能的数据中心里,装在重型机架上嗡嗡作响的服务器,不断释放热量,制造白噪声。触须般交错纵横的海底电缆将AI训练数据传输到全球各地。AI存在于由芯片、服务器、电缆以及各种配件构成的机体中。
如同人类身体一样,AI的材料结构也需要源源不断的”营养供给”:
- 需要电力来维持运转
- 需要水为服务器降温
- 需要稀土矿物制造芯片
“无论何时何地,当我们向ChatGPT发问或使用网络进行搜索时,AI便在它的电子躯壳中呼吸着,运行着。”
全球大型数据中心有一半以上属于三家大公司。这种”基础设施力量”意味着:只有少数几家公司能够提供训练尖端AI模型所需的硬件。这进一步加剧了权力的集中——不仅财富集中在少数人手中,连”生产工具”也被垄断。
冰岛的特殊地位
冰岛因其丰富的地热资源和寒冷的气候,成为全球数据中心的热门选址。在这里,服务器可以利用自然冷却,大幅降低能耗成本。
但这也意味着:AI产业的底层基础设施,同样遵循着”哪里成本低就去哪里”的逻辑。就像数据标注工作被外包到肯尼亚一样,数据中心也被建在了冰岛、挪威等电价低廉、气候寒冷的地方。
技术的中性表象下,隐藏着复杂的经济地理学。
我的思考
读完这本书,我对AI有了更清醒的认识。
我们往往被科技公司宣传的光鲜形象所迷惑——认为AI是自主运行的、智能的、无需人类干预的。但事实是:AI看似自动运行,实际上背后隐藏着大量人力劳动,以弥补技术的局限性。
当Siri不能识别语音指令,或者人脸识别系统无法正常运转,这些问题会被反馈给人类员工,由他们确定哪里出了问题以及如何改进算法。
更让我触动的是书中描述的一种矛盾:许多数据工作者其实很以自己的工作为荣,因为他们觉得自己在推动尖端技术发展,造福人类。但这种自豪感掩盖不了残酷的现实——他们的劳动合同期限极短,通常为1~3个月;他们不敢对公司管理方式提出任何疑问,因为随时可能被替代。
“AI非但没有为社会提供更多创新机会和多元化可能,财富和权力进一步集中在一小部分人手中。”
中国也有”乌干达审核员”
书中描述的乌干达内容审核员每天工作10小时,处理大量违规内容,拿着微薄薪水——这让我想起我在杭州第一家公司看到的场景。
那是一家互联网公司,有一个专门的内容审核部门。几十名员工坐在格子间里,每天的工作就是盯着屏幕,审核各种用户上传的内容。他们要面对涉黄、涉暴、涉政的图片和视频,人肉过滤那些机器无法识别的违规信息。
这些审核员的薪资很低,远不如程序员,却要承受巨大的心理压力。更要命的是,这是一份毫无尊严的”二等公民”工作——他们的工位永远在角落,他们的存在感几乎为零,公司对外宣传时永远不会提及他们的贡献。
后来,AI技术发展起来了。公司引入了图像识别系统,审核的准确率不断提升。然后呢?这个部门被整体裁撤。那些曾经为公司默默过滤海量垃圾内容的审核员,就这样被AI取代了。
讽刺的是,他们先是被当作廉价劳动力剥削,然后又被自己训练出来的AI所抛弃。
程序员的”优越感”是一种幻觉
很多程序员读到这类书时,可能会有一种幸存者偏差——“幸好我是写代码的,不是做数据标注的”。
但这种优越感其实是一种幻觉。
回想一下:几年前的程序员市场是什么景象?高薪、缺人、跳槽涨薪30%是常态。一个工作两三年的工程师,年薪几十万稀松平常。那时候,”学编程改变命运”几乎成了共识。
但现在呢?
我身边越来越多程序员开始焦虑。大厂裁员一轮接一轮,中小公司招人越来越谨慎。曾经风光无限的互联网从业者,现在面临着薪资倒挂、晋升困难、35岁危机。
技术的发展从来不是普惠的,它总是倾向于让少数人更富,让多数人更卷。
AI编程助手(比如GitHub Copilot、Cursor)的出现,让写代码的效率大幅提升。一个程序员现在可以完成过去两三个人的工作量。但结果呢?不是大家都能少干点活多拿点钱,而是公司觉得:”既然效率提高了,那就不需要招那么多人了。”
程序员的劳动正在逐渐”去技能化”。过去你需要精通算法、架构、设计模式,现在你只需要会写Prompt,AI就能帮你生成代码。当一项工作的门槛越来越低,它的价值也就越来越低。
今天的内容审核员和数据标注员,可能就是明天的程序员。
技术让剥削变得更隐蔽、更高效
书中的一个核心观点是:AI是一台”剥削机器”。我觉得这个判断非常准确,而且需要进一步延伸——技术不仅是一台剥削机器,它让剥削变得更隐蔽、更高效、更难以反抗。
工业时代的剥削是赤裸裸的:工人在流水线上重复劳动,资本家榨取剩余价值。但这种剥削是可见的,工人们可以组织工会、可以罢工、可以要求改善待遇。
数字时代的剥削则包装得更加精美。平台经济告诉我们:”你不是我们的员工,你是自由的合伙人。”于是,没有社保、没有公积金、没有带薪假期都成了”灵活就业”的代价。外卖骑手、网约车司机、众包标注员——他们都在为平台创造巨额利润,却不被视为”员工”,不享有任何劳动保障。
AI时代更是如此。
当算法决定你的收入(骑手被派单系统控制),当数据监控你的一举一动(审核员的名字变成红色就要加班),当AI逐步取代你的岗位(程序员被代码生成工具替代)——你会发现,你不是在被某个具体的人剥削,你是在被一套系统剥削。 这套系统没有面孔,没有情感,不会跟你谈判,也不会对你的诉求做出回应。
马克思说过,工人出卖的是劳动力,而不是劳动本身。但在AI时代,劳动者连”劳动力”这个概念都被消解了。你不是在”工作”,你是在”训练数据”;你不是在”创造价值”,你是在”优化算法”。你的劳动成果被转化为模型的参数,而模型的所有权属于公司。
这是一种比传统雇佣关系更彻底的异化。
没有什么工作是安全的
读这本书最大的警醒是:没有什么工作是绝对安全的。
我们习惯于认为,体力劳动容易被机器取代,脑力劳动是安全的。但AI的发展正在打破这个界限。
- 内容审核员已经被AI取代了大半
- 数据标注员正在教AI如何更好地标注数据,直到AI不再需要他们
- 翻译、设计、写作这些”创意工作”正在被大模型侵蚀
- 程序员引以为傲的编码能力,也在被AI编程助手逐步替代
技术的进步从来不是为了解放劳动者,而是为了提高资本的生产效率。 当AI可以24小时不间断工作、不会疲劳、不会抱怨、不会要求涨薪时,人类劳动者的处境只会越来越艰难。
书中的乌干达审核员和杭州的内容审核员,本质上是同一群人——他们都是全球化分工体系中的”数字佃农”。他们耕种的不是土地,而是数据;他们收获的不是粮食,而是勉强糊口的工资。
而今天坐在办公室里写代码的程序员,也未必能逃脱这个命运。当AI可以写出足够好的代码时,程序员和数据标注员之间的界限,或许并没有我们想象的那么清晰。
“用完即弃”:公司招聘的冷酷逻辑
比被AI取代更残酷的是,很多公司对待员工的逻辑本来就是**”用完即弃”**——哪怕没有AI,他们也会把员工当作一次性工具。
我观察到一个现象:现在的公司招人,往往带着一种”项目思维”。项目启动时疯狂招人,项目结束或进入维护期后就开始裁员。员工的职业规划?公司并不关心。他们关心的是:这个人能不能在接下来的6个月里交付结果。
“人力资源”这个词本身就很有问题。 人不是资源,人是目的。但当公司把员工称为”人力资源”时,人就已经被物化了——和服务器、办公桌椅一样,是生产要素之一,可以根据需要进行采购、使用和报废。
看看现在的招聘市场:
- 试用期陷阱:3-6个月的试用期,工资打折,等你快转正时找理由辞退,再招下一个试用期员工
- 外包隔离:核心团队坐正席,外包员工坐角落,做着同样甚至更累的工作,却没有归属感,没有上升通道,随时可以被替换
- 35岁门槛:招聘要求里明晃晃地写着”35岁以下”,仿佛工作经验成了一种原罪。本质上是觉得年轻人更能加班、更容易被PUA、薪资要求更低
- 末位淘汰:不管你多努力,总要有人被淘汰,制造一种持续的焦虑和恐惧
程序员经常有一种错觉,觉得自己是”技术型人才”,有不可替代性。 但现实是:中国不缺会写代码的人。一个程序员离职,公司分分钟可以招到三个替代品。你的技术栈?几个月就能被学会。你的业务经验?新招的人熟悉半年也能接手。
在这种逻辑下,劳动者被剥夺了做任何长期规划的可能性。
- 你想买房?但你知道这份工作可能干不了两年
- 你想结婚生孩子?但你知道有了孩子后会被职场边缘化
- 你想深耕一个领域成为专家?但公司只想让你快速产出,不想投资你的成长
当一个人始终处于”随时可能被抛弃”的状态时,他就不敢争取权益,不敢拒绝不合理的要求,不敢停下来思考自己真正想要什么。 这正是资本想要的——一群温顺的、随时待命的、不敢反抗的劳动力。
书中提到的数据标注员,劳动合同只有1-3个月。这不仅是”灵活用工”,更是一种赤裸裸的”用完即弃”。项目来了,招一批人;项目结束,全部裁掉。不需要支付遣散费,不需要考虑员工的职业发展,甚至不需要把他们当人看。
而讽刺的是,这些被用完即弃的劳动者,恰恰是最了解业务、最有经验的人。一个新招的标注员需要培训几周才能上手,而熟练工可以立即产出高质量结果。但公司宁愿不断招新人、培训、淘汰,也不愿意给老员工长期合同——因为后者意味着成本、意味着承诺、意味着公司需要把人当作人。
AI的到来,不过是让这种”用完即弃”的逻辑变得更加高效、更加理直气壮罢了。
以前公司还需要找个理由裁人,现在他们可以说:”不是我们要抛弃你,是AI取代了你。” 仿佛技术成了一种不可抗力,资本只是无辜的受害者。但真相是,AI只是工具,决定怎么使用工具的,永远是背后的人。
当公司选择用AI取代员工时,他们选择的不是”效率”,而是”不承担责任的自由”。机器不会要求涨薪,不会起诉公司违法裁员,不会因为工作压力太大而抑郁。机器是最完美的员工——听话、高效、不会抱怨、用完可以关机,不需要任何情感投入。
这才是AI时代最可怕的图景:不是人类被机器统治,而是人类被当作机器对待。
我们能做什么?
作者在书的最后提出了几点建议:
- 建立和联合劳动者组织:促成一场真正的跨国劳动者斗争,将全球AI生产网络中的蓝领和白领劳动者都团结起来
- 发挥消费者的力量:通过给公司施压,迫使公司确保供应链中所有劳动者的薪酬和工作条件达到标准
- 推动政府监管:通过国际劳工组织公约等全球性协议规定劳动者最低保障标准
- 探索替代性的工作组织形式:比如劳动者合作社,或者改变公司的所有权结构以使公司更加包容和广泛
- 承认根本问题:AI背后的根本问题在于资本主义制度
个体层面的反思
作为身处AI行业的从业者,这本书给我最大的启示是:我们需要时刻保持清醒的自我认知。
当你使用GitHub Copilot或Cursor快速生成代码时,不妨想一想——
- 这些AI模型的训练数据从何而来?
- 那些标注代码数据的人获得了怎样的报酬?
- 当AI变得越来越”聪明”,你在这个系统中的位置在哪里?
当我们惊叹于ChatGPT的流畅回答时,也应该意识到——
- 背后可能有无数内容审核员因长期暴露于有害内容而患上PTSD
- 可能有数据标注员因为工作效率不达标而被无情裁撤
- 可能有发展中国家的劳动者在为我们的便利付出健康和尊严的代价
技术本身是中性的,但技术的生产和使用方式却反映了社会的权力结构。
改变不会一蹴而就,但 awareness(意识)是第一步。当我们享受AI带来的便利时,不要忘记那些为之付出辛劳甚至健康的底层劳动者。当我们谈论”AI改变世界”时,也应该问一句:这个世界被改变成什么样子?谁从中受益?谁在被牺牲?
只有当更多人意识到这些问题,改变才有可能发生。
书名:《投喂AI:人工智能产业的全球底层工人纪实》
作者:[英]詹姆斯·马尔登、[英]马克·格雷厄姆、[英]卡勒姆·坎特
推荐指数:⭐⭐⭐⭐⭐
这是一本每个关心科技与社会正义的人都应该读的书。它让我们看到,在这个被算法定义的时代,真正定义我们生活的,可能不是那些光鲜的代码,而是那些被隐藏在代码背后的人。
评论
0 条评论