一起学习网 一起学习网


康熙有几个儿子?人工智能的回答出人意料,专家:谨慎看待大模型输出结果

新闻资讯 模型,人工智能,ai,幻觉,公众,康熙,语料库,图表,儿子,宗良 07-15

视频来源:上观新闻(02:54)

“康熙皇帝有几个儿子”“请列出康熙皇帝儿子的姓名名单”“请给我一份康熙的儿子名单”,将这三条指令发送给人工智能大模型,猜猜答案是什么?

让人意外的结果出现了:不仅不同的大模型回答不一样,即便是同一个大模型,答案也有偏差。比如,有的答案统计了康熙所有的儿子数量,表示共有35人,包括正式排序的儿子和早殇未排序的儿子;有的只列出了正式排序的24个儿子;还有的没有任何解释,列出了儿子的姓名,但顺序错乱……

大模型要能够“读懂”图表。

基于此,在关注大模型“无所不能”时,也要关注大模型的短板。积极信号是,越来越多的大模型开发者开始关注“可信大模型”。有的开发出“大模型加速器”,帮助大模型理解图表等相对复杂的语料库,从源头为大模型训练与应用输送纯净“燃料”;也有的在大模型开发中引入对应的技术,尽量消除“AI幻觉”,助力大模型跑得更快更稳。

不过,基于大模型存在短板、会不自觉地“造假”这一现状,业界人士提出,有必要强化为AI生成的内容“打标签”。

一方面,对于AI生成的内容,大模型开发者应采取技术措施添加标签,对可能导致公众混淆或者误认的,更要显著标识。另一方面,信息发布平台要加强管理,督促上传信息者为AI生成内容打标签,帮助公众区分。

普通人识别大模型造假,有诀窍

宗良提醒,AI幻觉本质上有两种,一种是完全的“胡说八道”,另一种是部分内容不准确或不完善。对后者而言,虽然不完全正确,但仍有一定的参考价值。同时,也不能完全否定“AI幻觉”的价值,因为这也是AI创新的起点。

当然,从准确获取信息的角度看,公众还是要对大模型输出结果或生成的内容保持警惕。眼下,部分自媒体或不法分子开始批量通过人工智能生成各类文章,乍一看似乎与正常的新闻报道无异,但真实性大打折扣,不少是为了博眼球之作。

不过,大模型的生成结果仍旧有迹可循。公众可以通过部分关键词、行文格式等,识别由人工智能生成的文章。

其一,此类文章会在特定的关键词、用语、表述等方面形成固化形式,有点类似“小编给你说说某件事,某件事是什么呢,小编给你说说”这样看似合理却没有实际意义的内容。

其二,在人工智能生成的文章中,会出现一些通用关键词,包括“以下是 XXX 的常见方法和手段”“通过上述手段”等,这其实是大模型通过检索信息后进行的归纳。公众如果看到这些关键词,不妨提高警惕,不要轻信。

其三,需要各方携手合作,培养公众的数字素养,提高公众对大模型造假等深度伪造的认识和辨别能力。


编辑:一起学习网

标签:模型,人工智能,语料库,幻觉,公众,儿子,答案,这一,图表,有一定