什么是人工智能(AI)幻觉
人工智能(AI)幻觉是指AI系统在处理数据时产生的不准确或误导性的输出。这种现象可能是由于多种原因造成的,包括数据质量问题、模型训练不足或算法设计缺陷。具体来说,生成式AI幻觉是指AI生成的看似合理但实际不准确或虚假的信息。
数据质量问题
训练数据中的模糊性和错误是导致AI出现幻觉的常见因素。即使训练数据准确无误,AI也有可能产生幻觉,这种现象与某一事实的稀缺程度密切相关。
模型训练与算法设计
大语言模型的设计原理并非输出准确事实,而是通过模式识别生成答案。其内部复杂的运行机制迄今仍像一个黑匣子,人们难以洞悉其推理过程。此外,模型在压缩数万亿个单词间的关系后,通过一个庞大的网络模型重新展开这些信息,尽管能够重构出接近98%的训练内容,但剩下的2%的内容却可能使其误入歧途,生成不准确或虚假信息。
影响领域
AI幻觉可能会给人们的工作和生活带来较大影响,涉及多个领域:
新闻领域
大语言模型可能生成虚假新闻事件,扰乱信息传播秩序,误导公众认知。研究表明,一些聊天机器人编造事实、虚构信息的几率高达30%。
法律领域
AI可能引用虚构的法律条文和案例,影响法律判决的准确性。
医学领域
AI可能提供错误的诊断和治疗建议,危及患者生命。《自然》杂志指出,AI幻觉在科学参考文献方面出现错误的情况也极为普遍,聊天机器人在提及参考文献时的出错率在30%至90%之间。
应对措施
为了降低AI幻觉的发生率,科学家和工程师正在采取多种措施:
增加事实核查
通过增加模型训练参数和训练时长来减少幻觉,尽管这种方法需要付出高昂的计算成本。
使用更大、更干净的数据集
使用更大、更干净的数据集进行训练是降低AI模型幻觉出现的有效途径,但当前可用数据的有限性限制了这一方法的应用。
人工智能搜索服务的改进
例如,谷歌搜索引擎推出的AI概览服务因提供大量离谱答案而被迫关闭部分功能,这也反映了AI幻觉问题的严重性。
教育与指导
联合国教科文组织发布的《教育与研究领域生成式人工智能指南》建议,把在课堂上使用人工智能工具的最低年龄设定为13岁,OpenAI则建议13岁以下儿童禁止使用生成式人工智能,13到18岁的孩子需要在监护人指导下使用。
总之,人工智能幻觉是一个复杂且普遍存在的问题,需要从多个角度采取措施来应对,以确保AI技术的健康、高效发展。