审查与创新:北京的人工智能雄心能否在全球舞台上竞争?

审查与创新:北京的人工智能雄心能否在全球舞台上竞争?

作者
Amanda Zhang
14 分钟阅读

北京的审查收紧:以核心社会主义价值观扼杀先进的中国大型语言模型

2024年12月29日,北京——中国政府正在通过巨额投资推动生成式人工智能发展,同时又强制执行严格的审查制度以维护政权稳定。这种双重方法塑造了中国人工智能的发展轨迹,在促进创新的同时,也引发了人们对其长期全球竞争力的担忧。这篇深入探讨的文章考察了北京如何平衡其雄心壮志与意识形态控制,探讨了审查机制、近期发展及其对国家人工智能领导地位的影响。

政府强制审查

截至2024年末,中国网络空间管理局(CAC)继续对人工智能技术的发展和部署施加实质性控制。CAC规定,所有人工智能模型都必须符合“核心社会主义价值观”,确保它们反映中国共产党(CCP)的意识形态标准。这种一致性要求人工智能公司在向公众发布其模型之前进行严格的评估。这些评估会仔细审查人工智能对各种查询的回应,特别是那些与敏感政治话题相关的查询,例如对习近平主席的提及以及天安门广场大屠杀等关键事件。主要目标是防止人工智能生成的内容“煽动颠覆国家政权或推翻社会主义制度”。

审查的影响

1. 输出受限

与国际同行相比,中国大型语言模型(LLM)的审查级别明显更高,尤其是在政治敏感话题上。关于天安门广场事件或涉及习近平主席的比较的问题,往往会得到回避或直接拒绝的回答,限制了模型提供全面信息的能力。

2. 宣传回应

当被问及中国共产党或习近平主席时,中国人工智能模型经常会产生反映官方党派叙事的回应。这种对国家批准观点的坚持确保了人工智能输出支持和加强政府的意识形态立场。

3. 话题回避

中国聊天机器人被编程为拒绝回答有争议或政治敏感的问题。这种回避策略防止传播可能被认为违反中国共产党意识形态的信息,从而维护意识形态的纯洁性。

审查机制

为了执行这些严格的控制,中国人工智能模型采用了多种复杂的策略:

  • **价值观一致性训练:**人工智能模型经过广泛的训练,以确保其输出与政府批准的意识形态一致。这个过程有效地将国家叙事嵌入到人工智能的回应中。

  • **关键词过滤:**系统被设计用来检测和阻止包含敏感词语的回应,防止生成政治上不当或敏感的内容。

  • **安全过滤:**开发人员会仔细地从训练数据集中删除“有问题的资料”,并维护包含敏感词语的全面数据库,以避免出现不良输出。

与美国产品不相上下的最先进LLM

尽管审查非常严格,但中国的各种大型语言模型(LLM),如DeepSeek-V3、GLM和Doubao,都取得了显著进展,其性能和成本效益可与领先的美国产品相媲美。

DeepSeek-V3

DeepSeek-V3由DeepSeek开发,是一个开源模型,拥有6710亿个参数,采用专家混合(MoE)架构,每个token激活370亿个参数。它在14.8万亿个高质量token上进行训练,擅长中文理解和数学推理,在MATH-500基准测试中取得了90.2分的成绩,优于Qwen2.5和Llama3.1等模型。值得注意的是,由于采用了辅助损失免费的负载均衡策略和多token预测目标等创新,DeepSeek-V3在大约278.8万个H800 GPU小时内高效完成训练,成本约为557万美元。

GLM(通用语言模型)

GLM由清华大学人工智能研究组开发,是一系列为中文和英文设计的开源预训练语言模型。最新版本GLM-130B拥有1300亿个参数和基于transformer的架构。它在自然语言理解和生成任务(包括问答、摘要和翻译)方面表现出色。GLM-130B可用于研究和商业用途,为部署大型人工智能应用提供了一种经济高效的解决方案。

Doubao

Doubao由字节跳动创建,专为对话式人工智能应用而设计。虽然与DeepSeek-V3和GLM相比,公开的技术细节和基准性能的资料较少,但Doubao以其与字节跳动生态系统的无缝集成而闻名,增强了其平台上的用户互动。Doubao强调效率和可扩展性,通过将高性能与成本效益相结合,为不断壮大的中国大型语言模型格局做出了贡献。

总而言之,DeepSeek-V3、GLM和Doubao等模型体现了中国在人工智能领域的快速发展,它们以具有竞争力的成本提供最先进的性能,并提高了各个领域的易用性。

分析和预测

北京对大型语言模型的严格审查既带来了重大挑战,也带来了独特机遇,这些挑战和机遇可能会影响中国人工智能发展目标的未来轨迹。虽然目前的监管环境带来了限制,但北京也有一个难得的机会,可以通过平衡意识形态的坚持和技术创新,战略性地将中国大型语言模型定位在全球市场。

1. 对当前影响的分析

审查对创新的限制

  • **意识形态限制:**将大型语言模型的输出限制在符合“核心社会主义价值观”的范围内,会缩小模型的创造力和分析能力。然而,这种一致性也为开发针对特定文化和社会背景的独特人工智能应用提供了机会,这可能会吸引重视这种特殊性的利基市场。
  • **数据输入失真:**虽然政府强制实施的过滤机制会删除有争议或敏感的话题,但它也会推动创建专门的数据集,从而提高模型在目标领域的性能。这种专门化可能导致在医疗保健、环境科学和物流等领域取得突破,在这些领域,中立性和精确性至关重要。
  • **话题回避和回避训练:**虽然回避政治敏感话题会限制模型的多功能性,但它也可能导致开发出在非政治领域表现出色的强大人工智能系统,使它们在优先考虑功能而不是意识形态内容的国际合作中非常有效。

经济和技术的权衡

  • **具有竞争力的价格:**像DeepSeek-V3和GLM这样的中国大型语言模型以远低于西方同行的成本提供最先进的性能,这得益于优化的架构和中国低成本的人工智能基础设施。这种成本优势使中国人工智能产品成为价格敏感型全球市场中有吸引力的替代品。
  • **国内市场重点:**虽然审查使模型符合中国共产党的目标,从而提升了国内采用率,但它也使人们能够创建与中国庞大而独特的市场需求深度融合的人工智能解决方案。利用这种融合可以导致开发出高效且可扩展的人工智能系统,这些系统可以适用于全球类似的市场。

长期机遇

  • **利基全球市场:**通过专注于专业应用并保持高性能,中国大型语言模型可以进入需要定制人工智能解决方案的利基市场,例如特定工业应用、区域语言支持和文化一致的内容生成。
  • **在受监管环境下的技术领导地位:**中国在受监管框架内发展先进人工智能的能力可以为其他具有类似治理结构的国家树立榜样,使中国成为在严格监管条件下人工智能发展领域的领导者。

2. 战略建议

对中国政府的建议

  • **平衡的审查政策:**实施分层审查制度,允许用于研究和国际合作的高性能模型具有更大的灵活性,而面向消费者的模型则遵守中国共产党的意识形态。
  • **培养创新中心:**投资人工智能研究中心,鼓励在非政治领域进行创新,创造人工智能可以在没有意识形态约束的情况下蓬勃发展、从而推动技术进步的环境。
  • **未经审查的国际版本:**允许公司专门为国际市场发布未经审查的最新大型语言模型版本,使其能够在全球舞台上有效竞争,同时保持国内控制。

对中国人工智能公司的建议

  • **全球和国内双重战略:**开发针对全球市场和国内使用的不同版本的大型语言模型,确保符合国际标准,同时满足当地要求。
  • **专注于专业应用:**利用在专业人工智能应用方面的优势,在中国大型语言模型中在全球市场中脱颖而出,瞄准医疗保健、物流和环境管理等行业。
  • **透明度和问责制:**提高人工智能开发过程的透明度,以建立全球信任,突出其技术的完整性和可靠性。

对全球利益相关者的建议

  • **合作伙伴关系:**与中国人工智能公司在非政治项目上进行合作,以利用其技术进步并将中国大型语言模型整合到全球人工智能生态系统中。
  • **支持多元化的人工智能发展:**鼓励开发多元化的人工智能解决方案,以创造更具弹性和互联的全球人工智能格局,减少对任何一个国家技术的依赖。
  • **监督和倡导公平实践:**倡导促进人工智能发展公平与透明的国际标准,以确保全球竞争的平衡。

最终展望

北京的审查工作为中国大型语言模型创造了一个复杂的局面。虽然严格的控制确保了意识形态的一致性和国内的主导地位,但也为全球竞争力创造了重大障碍。然而,通过战略性地平衡审查与创新,并瞄准利基市场,中国有机会将其大型语言模型定位为全球人工智能领域中专业且具有成本效益的替代品。这种方法可以使中国人工智能在国际上开辟独特的空间,促进合作和技术进步,尽管存在监管限制。但是,如果没有这种战略性调整,中国人工智能领导地位的长期前景可能会面临来自更开放和更具适应性的全球系统的重大挑战。

您可能也喜欢

本文是根据我们的用户在 新闻提交规则和指南下提交的。封面照片是计算机生成的艺术作品,仅用于说明目的;不表明实际内容。如果您认为本文侵犯了版权,请毫不犹豫地通过 发送电子邮件给我们来举报。您的警惕和合作对帮助我们维护尊重和合法合规的社区至关重要。

订阅我们的通讯

通过独家预览了解我们的新产品,获取企业业务和技术的最新资讯