新研究揭示生成式人工智能的广泛滥用
来自谷歌DeepMind、Jigsaw和Google.org的研究人员对200篇关于生成式人工智能(GenAI)滥用的媒体报道进行了全面分析,时间跨度从2023年1月至2024年3月。研究发现,大多数滥用行为旨在利用GenAI的功能,而非直接攻击模型。手段包括身份盗窃、网络马甲和制作未经同意的私密图像。此外,散布虚假信息和利用AI驱动的机器人放大内容也是常见的滥用形式。
研究人员发现,这些滥用行为通常利用易于获取的GenAI功能,几乎不需要技术专长。虽然这些滥用可能不是明显恶意的,但它们具有重大的伦理影响。政治操纵,包括虚假舆论制造和假媒体创作,是常见的动机,占报告案例的27%。通过欺诈性产品和服务牟利占21%,信息盗窃排名第三,占18%。
直接针对GenAI系统的攻击案例很少,研究期间仅记录了两例。这些案例涉及阻止未经授权的数据抓取和启用无审查内容生成。研究强调,改进数据共享和全面行业应对措施对于解决GenAI滥用带来的不断演变的威胁至关重要。
关键要点
- 生成式人工智能的滥用主要涉及利用系统功能,而非直接攻击它们。
- 常见的滥用形式包括身份盗窃和通过AI驱动的机器人传播虚假信息。
- 许多生成式人工智能滥用手段可以以极少的技术专长执行。
- 滥用的动机通常围绕影响公众观点或从服务中获利。
- 政治操纵和倡导行为表明真实性日益模糊。
分析
生成式人工智能滥用的普遍性,特别是在身份盗窃和错误信息领域,给包括谷歌及其子公司在内的科技巨头带来了重大挑战。短期内,这一趋势可能会削弱公众对人工智能技术的信任,并引发监管审查。长期来看,这需要行业间的紧密合作和实施更严格的伦理准则。此外,与科技股相关的金融工具可能会经历更大的波动。政治实体和倡导团体也面临风险,因为人工智能滥用使公众话语的真实性复杂化。滥用行为的易行性,无需高级技术技能,凸显了行业全面应对措施和增强数据安全措施的迫切需求。
你知道吗?
- 网络马甲:这种做法涉及创建虚假的在线身份以操纵公众意见,通常使用AI生成的身份来推广特定议程或误导受众。
- 虚假舆论制造:一种模拟真实草根支持的欺骗性策略,使用虚假在线身份或协调活动,在生成式人工智能滥用中特别相关,用于制造虚假的公众支持。
- 无审查内容生成:指AI系统生成内容时不遵守既定指南的能力,带来了检测和防止有害或误导性内容广泛传播的挑战。