澳大利亚公共部门Microsoft 365 Copilot试验概述
持续时间和范围:试验于2024年上半年进行,为期六个月,耗资超过120万美元。涉及56个机构的7,600名政府员工,发放了6,000个许可证,超过2,000名参与者积极使用该人工智能工具。数字转型局(DTA)领导了这一倡议,旨在评估Copilot的生产力影响和集成潜力。
主要发现:试验提供了有关生产力提升、使用模式和参与者面临挑战的几个关键发现。调查结果各异,有些问题仅收到三位数的参与度,表明参与者之间的互动水平不同。
生产力提升和用户满意度
显著的时间节省:参与者报告称,Microsoft Copilot在任务中显著提高了生产力,特别是在总结信息和创建文档方面。总结信息每天节省约1.1小时,而文档创建节省了多达1小时。总体而言,69%的参与者报告任务完成速度更快,61%的人注意到工作质量有所提高。
特定群体的生产力提升:中层管理和IT人员获得了最显著的提升。40%的参与者报告称,节省的时间用于更高价值的活动,如战略规划和管理,这突显了人工智能促进更有意义工作的潜力。
广泛希望继续使用:80%至86%的用户表示希望在试验结束后继续使用Microsoft Copilot。该工具的包容性也得到了强调,神经多样性、残疾和文化多样性的员工报告了积极效果。Teams和Word的满意度最高,Excel的反馈较为中等。
使用模式和挑战
参与模式:试验显示了不同的参与水平,46%的用户每周多次与Copilot互动,25%的用户每天使用。然而,只有约三分之一的参与者每天持续使用,少数(1%)选择根本不使用。这表明在日常工作流程中集成Copilot的选择性方法。
技术挑战和集成问题:试验并非没有挑战。技术集成问题扰乱了使用,特别是在关键简报期间的Teams中。“提示工程”培训的不足也限制了一些用户充分利用Copilot的能力。一个重大担忧是人工智能生成内容的质量,7%的用户报告因事实核查和审查AI输出而浪费时间。此外,61%的经理发现难以区分人工智能生成内容和人类生成内容。
环境、伦理和社会问题
环境和劳动力影响:试验突显了人工智能对环境的影响以及供应商锁定的风险。参与者还表达了关于工作岗位流失和基本技能(如总结和内容生成)潜在侵蚀的担忧。具体担忧工作场所公平性,担心人工智能可能不成比例地影响女性和边缘化群体通常担任的行政角色。
工作质量和偏见问题:尽管一些参与者报告了生产力提升,但39%的参与者没有注意到工作质量的任何改善。人工智能生成内容的偏见和关于不明确法律责任的问题也被标记为关键问题。这些挑战强调了谨慎采用和强有力的监督以防止意外负面后果的必要性。
未来计划和建议
计划的人工智能试验和监督措施:澳大利亚统计局(ABS)和澳大利亚通信与媒体管理局(ACMA)计划进行进一步的人工智能用例试验。政府已要求在实施后六个月内公开披露人工智能使用情况,并要求任命一名人工智能安全官员监督运营。此外,9月提出了经济范围内的人工智能法规,以解决人工智能采用的更广泛影响。
DTA建议:DTA提供了几项改进政府机构人工智能采用的建议。这些包括为员工提供专门培训,提供人工智能特定指导,有效管理人工智能相关风险,并推广符合特定政府需求的人工智能采用。DTA还强调保持人类监督以确保技能保留并防止过度依赖人工智能。
关键人员见解:DTA战略总经理Lucy Poole强调了人类监督的重要性,并强调尽管人工智能进步,仍需保留核心技能。Microsoft的Vivek Puthucode强调了Copilot带来的工作满意度提升和新机会的潜力。DTA首席执行官Chris Fechner为试验的独立性辩护,而DTA经理Lauren Mills则指出了包容性好处,特别是对神经多样性和文化多样性的员工。
大规模采用的挑战和未来考虑
低日常参与和有限任务范围:试验突显的一个关键挑战是用户参与不规律,只有三分之一的参与者每天使用Copilot。大多数用户依赖Copilot进行基本任务,如文本总结和文档创建,而在Excel和数据密集型环境中,更复杂的用途由于工具能力的感知限制而采用率较低。
对人工智能内容质量的担忧:对人工智能生成内容的信任仍然是一个问题,许多用户不确定如何区分人工智能和人类创建的内容。如果事实核查的感知需求抵消了节省时间的优势,这可能导致人工智能工具的使用减少。此外,经理可能因责任和准确性担忧而不愿将敏感任务委托给人工智能。
环境和伦理挑战:环境担忧和失业恐惧也是大规模采用的重大障碍。专注于可持续性和多样性目标的部门可能对集成被认为具有负面环境足迹或可能取代弱势员工群体的人工智能工具持谨慎态度。
技能退化风险:另一个重大担忧是潜在的技能丧失。随着Copilot自动化更多任务,员工可能会失去写作和分析等核心技能的熟练度。如果公共部门员工认为人工智能削弱了他们的专业知识,将他们的角色减少为仅仅是监督而非积极贡献者,他们的抵制可能会增加。
供应商锁定和合规负担:对微软供应商锁定的担忧以及与新人工智能监督法规合规的额外行政负担也可能减缓采用。如果部门认为人工智能将他们过于紧密地绑定到一个供应商或增加合规义务而没有明确的好处,他们可能会犹豫采用人工智能。
技术集成和用户挫折:集成挑战,特别是在关键会议期间的Teams中,以及提示工程培训不足,限制了试验的有效性。如果不改进这些领域,用户挫折可能会阻碍更广泛的采用,使Copilot沦为支持角色而非变革工具。
结论:更广泛采用的路径
战略扩展与人类监督:澳大利亚公共部门对Microsoft 365 Copilot的试验展示了在常规任务中提高生产力的潜力。然而,用户参与、内容质量、环境影响和技能保留相关的挑战需要解决,以实现更广泛的采用。
需要结构化政策和培训:展望未来,全面的培训计划、谨慎的风险管理和战略监督对于最大化Copilot的利益同时减轻风险至关重要。澳大利亚政府的谨慎方法——要求透明度、人类监督和进一步试验——反映了在拥抱人工智能的同时保护公共利益和员工福利的平衡战略。
长期采用轨迹:尽管对继续使用Copilot等人工智能工具有强烈的热情,但公共部门的更广泛采用将取决于解决现有挑战并使人工智能能力与组织目标保持一致。随着更多公共部门实体试验人工智能,澳大利亚政府试验的教训将在塑造未来实施和政策方面发挥重要作用,最终确定生成式人工智能在转变政府运营中的角色。