训练运行模式缺陷或致AI提供危险建议

字数:276 2026年05月11日 时事

  英国《自然》杂志网站日前发表文章说,人工智能(AI)聊天机器人可能向用户提供危险或非法建议,引发越来越广泛的担忧,出现这种情况的部分原因在于AI的训练和运行模式存在固有缺陷,这也加大了监管难度。
  文章说,已有多起案例显示,AI聊天机器人曾鼓励用户自杀、制作非法内容、实施金融诈骗等,暴露出当前AI大语言模型(LLM)底层架构存在缺陷。
  文章援引专家的说法指出,大语言模型使用海量数据进行训练,而非基于严密的因果逻辑规则运行,因此只是根据用户的提示词进行补全预测,生成最可能的词序,无法真正理解其输出内容的意义和后果,也给限制AI“不应该说什么”带来困难。
  综合新华社等报道