你的AI智能助手正在悄悄“忽悠”你?一个视频看懂什么是“AI幻觉”

发布时间:2025-03-27 17:30 | 来源:央视网 2025年03月26日 20:14 | 查看:1644次

你在使用AI大模型时,有没有碰到过它在“一本正经地胡说八道”?你让他根据你提出的要求写作,它把细节编的头头是道,结果回查发现写出的大量内容根本没有事实依据!

在人工智能领域,有一个专门的术语——幻觉,可以形容AI大模型的这种“想入非非”。AI为什么会自发地编造这些原本不存在的内容呢?这其实和它的思考方式有关:很多人以为AI是一个超级搜索引擎,输入问题就能给你正确答案。但实际上,AI大模型是在玩一个概率接龙游戏,学习海量的数据和背后的语言规律,再根据你提问的上文,预测可能出现的下文。所以比起严谨的回答问题,AI大模型更像是根据之前学到的数据和规律来猜你想要什么答案。

在“AI幻觉”这个词刚刚出现时,它有一定的褒义色彩,因为这意味着AI大模型具备了一定的创造力。但是随着大模型的发展渐趋稳定,幻觉不再代表有创造力,而是被研究人员用于描述大模型生成的那些看似合理但实际错误的内容。

这种“AI幻觉”的威力不容小觑:轻则让你在查找资料时白忙活一场,重则可能在金融交易、法律咨询等方面闹出乌龙。因此,掌握一些简单实用、避免幻觉的招数必不可少。

首先,在使用大模型时尽量勾选“联网搜索”,因为训练大模型的数据往往不是最新数据,像电影票房、统计数据、天气预报这种变动数据需要联网搜索才会更准确。

其次,向AI大模型提问时多提供一些限定条件,例如“从以下规定的渠道获取信息”,“每个数据都必须列出来源”。当你想要验证它生成的内容时,一定要开启新对话,不然在AI 的逻辑里,它会继续编造两个问题之间的逻辑关系。

当然,技术手段只能降低AI幻觉出现的概率,但目前并不能100%避免。比起方法,最重要的是我们要学会“不完全信任”AI大模型。在算法的浪潮中,始终做那个手握罗盘的航海者。 

文稿|卢洋

视频|杨绎霏

编辑|阚纯裕

海报|刘雨辰

审稿|中国信通院人工智能研究所工程师 黑一鸣

用户名:验证码:点击我更换图片                *如果看不清验证码,请点击验证码更新。