在人工智能飞速发展的当下,对于广大学生和科研工作者而言,一个关键问题随之而来:借助这些前沿大模型写论文,真的靠谱吗?
不久前,#防止DeepSeek乱编文献的方法#冲上热搜。显然用AI工具写论文“被坑”的经历并非鲜见:
有网友列出了自己的亲身经历:除了编造论文文献,AI还会编造法律条文——甚至教人做菜还跑偏了。
问AI一个问题,它给了你一个特别详细、丰富,看上去好有逻辑的答案。但当我们去核实时,却发现这些信息完全是虚构的。这就是著名的“AI幻觉”现象。(详见:当大模型出现“幻觉”并开始有逻辑地说胡话)
那么,当AI会说谎,大家如何避免被“带偏”?技术浪潮中,我们如何守护自己的思辨能力?
在线上讲座“AI辅助≠AI包办:DeepSeek等协作科研的诚信二三事”中,罗昭锋研究员指出:我们要对AI的定位有清晰的认识,将AI当作自己工作中的导师、助理等角色,采用平等沟通的互动方式对AI提问和进一步的追问等。在此基础上,面向AI的沟通模式相较搜索引擎而言需要更加全面的表达和具体的描述,可以将自己的诉求和与此相关的背景信息一并告知AI,以得到更加准确切实的回答。
识别图中二维码回看讲座内容
可以利用以下四种提示词技巧提问:
1.设定边界:“请严格限定在xx年xx期刊发表的研究范围内”;
示例:“介绍ChatGPT的发展历程”→“请仅基于OpenAI官方2022-2023年的公开文档,介绍ChatGPT的发展历程”
2.标注不确定:“对于模糊信息,需要标注‘此处为推测内容’”;
示例:“分析特斯拉2025年的市场份额”→“分析特斯拉2025年的市场份额,对于非官方数据或预测性内容,请标注[推测内容]”
3.步骤拆解:“第一步列举确定的事实依据,第二步展开详细分析”;
示例:“评估人工智能对就业的影响”→“请分两步评估AI对就业的影响:
1)先列出目前已发生的具体影响案例;
2)基于这些案例进行未来趋势分析”。
4.明确约束:明确告诉AI要基于已有事实回答,不要进行推测。
示例:“预测2025年房地产市场走势”→“请仅基于2024年的实际房地产数据和已出台的相关政策进行分析,不要加入任何推测性内容”。
在相关采访中,北京邮电大学马克思主义学院副教授宋林泽认为,AI输出的内容只是一个认知起点,而不是终点。大学生需要主动去验证它的内容,比如查阅权威来源、对比不同观点,甚至直接与领域专家交流。这种验证过程,不仅能帮助我们更全面地理解问题,还能让我们在面对复杂信息时更有判断力。
AI自己为“如何获得准确答案”提出的建议同样中肯:可以通过指令约束、工具验证和人工审核三重保障,大幅降低AI虚构文献的风险。值得注意的是,“人工审核”被AI自己认为是“最后防线”。
专家提醒,“AI幻觉”并非没有好处,有时候与其把它当成缺陷,不如把它看作创意的源泉。在写作、艺术创作或头脑风暴时,这些“跳跃性思维”反而可能帮我们打开新世界的大门。例如DeepSeek,它确实比ChatGPT和Claude更容易出现幻觉,但是DeepSeek的热度同样源自其强大的创造能力。
归根结底,在这个AI与人类共同进步的时代,重要的不是责备AI的不完美,而是学会与之更好地协作。
文中部分内容来源:中国青年报、科普中国、网友评论等