登录1秒注册

耿可

搜索
站长论坛»主页首页热点>人工智能为何会发生错觉唠科
查看:9
回复:1
打印上一主题下一主题

[耿可]人工智能为何会发生错觉唠科

[复制链接]
跳转到指定楼层
楼主

在科幻电影中,科人工智能常被塑造成全知全能的人工“超级大脑”,但实际中 ,为何AI却经常表现为“自傲的生错谎话家”。比方,觉唠请AI描绘“关公战秦琼” ,科它不只能“叙说”虚拟的人工故事情节  ,还会“猜想”用户喜爱,为何煞有介事地假造不存在的生错文献档案  。这种现象被称为“AI错觉” ,觉唠已经成为困扰许多人工智能企业和运用者的科实际难题 。

AI为什么会不苟言笑地胡言乱语 ?人工本源在于其思想办法与人类存在实质不同。今日人们日常运用和触摸最多的为何AI大模型实质上是一个巨大的言语概率猜测和生成模型。它经过剖析互联网上数以万亿计的生错文本,学习词语之间的觉唠相关规则 ,再像玩猜词游戏相同 ,逐字逐句生成看似合理的答复 。这种机制使AI擅于仿照人类的言语风格,但有时缺少区分真伪的才干 。

AI错觉的发生与大模型练习的进程密不可分 。AI的常识系统根本来源于练习时“吞下”的数据源。来自互联网的各类信息鱼龙混杂 ,其间不乏虚伪信息 、虚拟故事和偏见性观念。这些信息一旦成为AI练习的数据源 ,就会呈现数据源污染  。当某个范畴专业数据缺少时,AI便或许经过含糊性的计算规则来“填补空白”。比方 ,将科幻小说中的“黑科技”描绘为实在存在的技能。在AI被越来越多地用于信息出产的布景下  ,AI生成的海量虚拟内容和过错信息正在进入练习下一代AI的内容池 ,这种“套娃”生态将进一步加重AI错觉的发生。

在大模型练习进程中 ,为了使AI生成满意用户需求的内容 ,练习者会设置必定的奖赏机制——关于数学题等需求逻辑推理的问题 ,往往经过供认答案的正确与否给予奖赏;关于写作等开放式出题 ,则需求判别其生成的内容是否契合人类写作习气 。为了练习功率,这种判别更多重视AI言语的逻辑性和内容格局等目标,却疏忽了现实的核对 。

此外  ,练习进程的缺点也会导致AI存在“巴结”用户的倾向,明知道答案不契合现实  ,也乐意遵循指令生成投合用户的内容 ,并假造一些虚伪的例子或看似科学的术语来支撑自己的“假说” 。这种“角色扮演式”的表达让许多普通用户难以分辩AI错觉。上海交通大学媒体与传达学院进行的一项全国抽样调查显现 ,约七成受访者对大模型生成虚伪或过错信息的危险缺少明晰认知。

怎么破解AI错觉 ?开发者测验经过技能手段为AI“纠偏” 。比方“检索增强生成”技能 ,这意味着AI在答复前需求从最新的数据库检索相关信息 ,下降“信口开河”概率;一些模型被要求在不确定答案时主动供认“不知道” ,而非强行假造答案 。不过,因为现在的AI无法像人类那样了解言语背面的实在国际 ,因而这些办法难以从根本上处理AI错觉问题。

应对AI错觉 ,不只需求技能规制,也需求从公民AI素质遍及、渠道职责、公共传达等维度构建系统性的“错觉免疫力”。AI素质不只包括运用AI的根本技能,更重要的是对AI错觉要有根本的认知才干。清晰技能渠道的职责鸿沟相同重要,AI产品在设计时就应嵌入危险提示机制 ,主动符号“或许存在现实性过错”等警示内容,并提供方便用户进行现实核对和穿插验证的功用。媒体能够经过定时发布AI假造现实的典型事例 ,进一步培育大众的辨认才干 。经过多方联手 ,智能年代的认知迷雾才干被真实破除。

(作者为上海交通大学媒体与传达学院特聘教授,本报记者黄晓慧采访收拾)。

《 人民日报 》( 2025年06月21日 06 版)回来搜狐,检查更多。


使用道具举报

您需要登录后才可以回帖 登录 | 1秒注册

站长论坛积分规则

辽ICP备17661053号-2|Archiver|手机版|小黑屋|站长论坛

GMT+8, 2025-07-04 , Processed in 0.295106 second(s), 188 queries .

Powered by 耿可

© 本站内容均为会员发表,并不代表本站长论坛立场!

返回顶部