一则“DeepSeek就不实信息向王一博道歉”的《科创板日报》
截至发稿,DeepSeek公司未对此事作出正面回应。
尽管并无真实在接受《科创板日报》采访时,绘话智能CEO贾学锋表示,当前AI技术仍存在系统性缺陷:
一是大模型幻觉仍是系统性问题,当前大模型靠“语言统计规律”生成内容,所以它可能会把无关的人物“凑在一起”,说得“头头是道”;
二是缺乏足够的风险控制机制,特别是在生成涉及公众人物内容时,没有设置足够的“事实核验”和“风险词屏蔽”;
三是缺少对内容使用场景的风险预判能力,不是所有“胡说八道”都无害,一旦和热点人物挂钩,就有巨大负面影响。
“公众普遍误以为AI在查事实,但其实它只是在造句子。”贾学锋表示,用户倾向于相信使用自然语言、貌似中立、贴合情绪预期的内容,而大模型正好击中了这三点。加之AI常使用“郑重DeepSeek贾学锋坦言,而用户转发这些内容时,常常不带上下文和免责贾学锋表示,对于如何降低AI幻觉,行业正朝两个方向推进,通过将模型生成和外部知识库检索结合,避免模型“想当然”地造句,而是引用真实资料;自动检测AI生成内容是否与已知事实发生矛盾,并予以干预。
此外,在模型训练阶段引入“不能胡说八道”的风险规则,也是一种有效的前置管控方式。贾学锋判断,未来这一方向有望产生新的底层算法突破。
“AI技术的社会影响力已远超其早期设计时的预期,我们不能再用实验室的方式去看待它。”贾学锋强调,
本次DeepSeek“道歉”事件,也为整个AI行业敲响了警钟。随着生成式AI逐步融入传播、舆论乃至决策链条,企业与监管的治理能力亟需与技术发展速度匹配。否则,下一个被误导的,可能不仅是公众,也可能是整个市场。