人工智能在科学实践中的日益增长的影响
Elsevier最近的一项全球调查,从2023年12月到2024年2月,对来自123个国家的近3000名研究人员和临床医生进行了调查,揭示了人工智能在科学工作流程中的广泛应用。96%的受访者熟悉人工智能,54%的人使用过它,31%的人将其融入工作中。ChatGPT成为最知名的人工智能工具,89%的人知道它,25%的人在专业领域使用它。地区差异显示人工智能使用情况不同,中国为39%,美国为30%,印度为22%。研究人员比临床医生更倾向于使用人工智能(37%对26%)。尽管对人工智能改变其领域持乐观态度,但对其潜在滥用、关键错误和影响批判性思维的担忧依然存在。
调查还强调,72%的受访者预计其领域会因人工智能而发生重大变化,95%的人预测知识发现速度会加快,94%的人预计研究生产力会提高。担忧包括94%的人担心人工智能驱动的虚假信息,86%的人担心关键错误,81%的人担心批判性思维能力下降。受访者强调,人工智能模型需要优先考虑准确性、伦理和安全,58%的人认为这些对于建立信任至关重要。蒂宾根大学和西北大学的一项单独研究表明,PubMed上至少有10%的科学摘要受到人工智能文本生成器的影响,某些国家和学科的影响率高达35%,这表明存在未报告的情况,因为许多作者可能会修改人工智能生成的文本。
关键要点
- 96%的受访研究人员和临床医生熟悉人工智能,54%的人使用过它,31%的人将其融入专业活动中。
- 72%的人预计人工智能会显著影响其领域,95%的人认为它会加速知识发现。
- 担忧包括一系列问题,包括人工智能可能被用于虚假信息和关键错误的担忧。
- 地区差异在人工智能使用中凸显,中国以39%的工作使用率领先,其次是美国的30%。
分析
像ChatGPT这样的人工智能工具在科学领域的广泛应用有可能重塑研究动态,中国、美国和印度成为人工智能应用的领跑者。虽然人工智能的使用可能会提高研究生产力,但也引发了伦理和安全问题,特别是关于虚假信息的传播和批判性思维的潜在侵蚀。因此,开发者被要求优先考虑准确性和伦理考虑,以减轻这些风险,建立信任并确保人工智能的建设性整合。其直接影响包括知识发现速度的加快,而长期影响则取决于人工智能的伦理治理及其对科学方法的潜在重塑。
你知道吗?
- ChatGPT:
- ChatGPT由OpenAI开发,是一个先进的人工智能语言模型,旨在根据接收到的输入理解和生成类似人类的文本。它在专业领域的广泛认可和使用,包括科学研究,归功于它协助数据分析、文献综述甚至起草研究论文的能力。
- 地区差异在人工智能使用中:
- 调查突显了不同地区在人工智能采用率上的显著差异,中国以39%的使用率领先,其次是美国的30%和印度的22%。这种差异可归因于包括技术基础设施、政府政策和文化对人工智能技术的接受度在内的多种因素。
- 对人工智能的担忧:
- 调查强调了研究人员和临床医生对人工智能的重大担忧,包括其可能被用于传播虚假信息(94%的人担心)和关键错误或事故(86%)。这些担忧强调了在人工智能的发展和部署中严格伦理标准和安全协议的迫切性。