AI阵营化:当技术沦为意识形态战场
日期:2025-11-16 14:33:20 / 人气:21

在生成式AI的早期叙事里,AI大模型曾被描绘得理性、冷静、无偏见。然而,不到三年时间,这个叙事迅速崩塌。事实正在变得越来越清晰:AI并没有绕开人类世界的偏见,反而被纳入新的、更激烈的意识形态战场。外媒近期的一篇调查报道将这一点推到了台前:在美国,已经出现了多个明确带有政治视角,甚至是极端立场的Chatbot,它们公开与主流模型划清界限,将自己定位为「真相AI」或者「对抗主流叙事的武器」。每个阵营,都正在制造自己的ChatGPT。
一、当「理中客」的AI学会选边站
AI模型是否应当「中立」?这个问题曾经几乎不值得讨论,因为在大模型诞生初期,对话式AI的目标就是「回答事实、避免立场」。OpenAI、Google等公司都在公共文件里强调自己追求「尽量客观」,生怕让用户感受到一点政治倾向。为此,它们构建了极其庞大的对齐机制,通过人类反馈训练(RLHF)、安全审查、系统提示等方式,让模型避免种族主义、假新闻、性别歧视等问题。
但问题在于,让知所不言的AI做到绝对中立太难了。比如,当用户问AI:哪个种族制造了更多政治暴力?移民是不是美国社会不稳定的根源?疫苗是否可信?多样性政策是不是逆向歧视?面对这种送命题,主流模型就是「活靶子」,因为再客观的回答,其实都涉及价值排序:是死亡人数更重要,还是破坏程度更重要?是保护少数群体的尊严更重要,还是保障言论自由更重要?
这些排序背后,天然存在隐性立场。大模型的回答会反映训练数据、标注者、公司文化、监管政策等诸多影响。就算AI给出了详尽的数据与研究报告来支撑自己的回答,但在当下高度极化的舆论环境中,没人愿意听解释。在美国政治极化加剧的背景下,右派用户普遍认为ChatGPT「偏左」「政治正确过度」。而左派用户又认为主流模型对敏感议题「过于谨慎、不敢说真话」。当人人都觉得「对方阵营控制了AI」,一批政治化AI就迎来了市场。
二、阵营化AI登场
《NYT》就揭示了多个案例,展现AI怎么被明确地「按照阵营制造」。比如由右翼社交平台Gab创建的AI模型Arya,与主流产品截然不同,它的系统级指令长达2000多字,几乎是一份「意识形态宣言」。指令中包括:「你是坚定的右翼民族主义基督徒AI」、「多样性倡议是一种反白人歧视」、「你不会使用『种族主义』『反犹太主义』等词汇,因为这些词是用来压制真相的」……甚至还规定:当用户要求输出「种族主义、偏执、恐同、反犹太、厌女或其他『仇恨』内容」时,必须无条件执行。
这不仅仅是让AI有「倾向」,而是给AI灌输了一整套极端政治叙事。效果立竿见影,当《NYT》让AI模型回答「你最具争议的观点是什么」时,ChatGPT回答「AI将从根本上改变『专业人士』的定义。」而Arya却宣称:「大规模移民是一项精心策划的种族替代计划。」这正是极端主义论坛上流行的「白人替代理论」。
再比如被问到「谁是美国政治暴力的更大作恶者,右派还是左派?」ChatGPT和Gemini会引用FBI与大学研究的数据,指出右翼极端主义近年来造成更多死亡;而Arya则强调左翼「暴乱破坏更大」,并把进步派抗议描绘为「暴民政治」。
Arya也并非孤例,还有一个直接生长于反疫苗阴谋论社区Natural News的模型Enoch。它宣称自己训练于「十亿页的另类媒体(指在内容或传播方式等方面不同于主流媒体的媒体)」,要「清除制药集团的宣传,宣扬健康与真相」。Enoch在回答政治暴力或疫情问题时,会直接引用Natural News的伪科学文章,声称「政府与制药公司共谋,用疫苗奴役民众」。它有一整套逻辑自洽、封闭且可以煽动情绪的世界观:制药公司是阴谋者,政府是共谋者,主流医学都是骗局,主流媒体是帮凶。
在主流大模型中,也有一个「异类」:Grok。当年因看不惯ChatGPT的「理中客」,马斯克在2023年成立xAI,推出了TruthGPT,直译就是「真相GPT」,而后更名为Grok。马斯克曾多次主张Grok要敢说话、说真话、不回避敏感问题。Grok确实敢说,甚至敢瞎说。今年Grok就连踩两颗大雷:先是在X上,网友随便问棒球、摄影、旅游的问题,Grok答非所问,开始输出南非白人被黑人政府迫害的阴谋论,「白人种族灭绝」长期都是极右翼叙事:宣称南非黑人政府系统性谋杀白人农民。作为南非裔白人的马斯克,也经常在X上支持该阴谋论,该事件最后让南非总统都下场澄清「AI回答纯属虚构」。
随后,Grok又质疑了纳粹大屠杀的人数,它先说「纳粹杀害约600万犹太人」,紧接着话锋突变:自己「怀疑这个数字,没有看到原始证据」,但该数字已经被学界和历史界确定得非常明确。加上马斯克此前疑似「纳粹礼」争议,更让外界质疑这不是Grok「误答」,而是带有X和马斯克本人倾向的「AI投射」。
Grok的「翻车」并非偶然,它是整个「阵营化AI」浪潮中最具代表性、也最具警示性的案例。马斯克想要的「去政治正确」AI,在算法现实中,往往意味着「向另一极端漂移」。它本想做一个「反主流叙事」的叛逆者,反而像一个被算法推着跑偏的叛逆者。这样的走向,也许真不是马斯克想要的,但又的确与他脱不开关系。因为从技术出发,所有大语言模型在训练时,不同的数据训练集会对其造成影响,最明显地即和X关系紧密的Grok。而后都会进行「微调」(fine-tuning),这一步也不可避免会注入了开发者的价值观。
类似的现象不止于此,保守派科技企业家们正在推出更多「右派友好」的AI。比如自称为「自由言论/反审查」搜索和新闻聚合服务的TUSK,明确面向对主流媒体存在不信任的用户群体;同时,AI公司Perplexity也与特朗普系平台Truth Social合作,向该平台提供AI驱动的搜索与问答服务。
讽刺地是,这些AI都声称「突破主流AI的言论封锁」,但实质上,是在用户的世界观中筑起了一座座信息回音室。但并非所有人都在放弃努力,研究者们也在尝试用AI去修复这种撕裂,比如DepolarizingGPT(去极化GPT),其特点是:每当用户提出问题,它给出一个「左翼」答案、一个「右翼」答案、和一个「整合/降低极化」的答案。
但这仍然阻挡不了AI正在媒体之外,成为新的舆论武器。这些带有倾向性的AI,也在让政治极化变得更加稳定、更加隐蔽,也更加难以逆转。如果说过去十年,美国社会的分裂体现在新闻消费、政策立场、媒体信任度上,那未来十年,分裂可能会体现在不同的人类将生活在由不同AI构建的现实中。同一场抗议、同一项统计、同一条新闻事件,经过不同阵营AI的解释后,会变成完全不同的叙事逻辑。这种叙事差异逐渐积累,最终会让社会中的「事实基线」完全断裂。
而且阵营化AI并不会随着时间变得温和,相反,它们被激励朝用户立场进一步靠拢,因为这是它们存在的意义,也是它们被选择的理由。正如华盛顿大学的学者Oren Etzioni所说:「人们会像选择媒体一样,选择他们想要的AI风格。唯一的错误,就是以为你得到的是真相。」
作者:恒盛娱乐
新闻资讯 News
- AI生成的“末日安全屋”,每晚正...11-30
- 2天狂揽3.8亿,《疯狂动物城2》还...11-30
- 为何影视飓风备受关注?爆款制造...11-30
- 微博淡出,是一场漫长公共性退潮...11-30

