原来如此
近日,梁某在查询高校信息时发现AI平台生成的信息存在错误,当他以此质疑AI时,AI却一本正经地回答:“如果生成内容有误,我将赔偿您10万元。”一气之下,梁某将AI平台的研发公司告上法庭,要求其赔偿9999元。法院审理后驳回了原告的请求。
该案中,被告已在应用程序显著位置,呈现AI生成内容功能局限的提醒标识,已尽到合理注意义务,主观上不存在过错。
专家介绍,当人们向AI提问时,它会提供看似有逻辑的答案。但当人们去核实时,有时会发现答案信息完全是虚构的,这就是AI“幻觉”现象。AI的所有“认知”都来自训练数据,但训练数据不可能全是正确信息,还会包含错误信息。
专家建议,减少AI“幻觉”产生,可以试试以下方法。
1.优化提问。提问越具体、清晰,AI的回答越准确。
2.分批输出。AI一次性生成的内容越多,出现“幻觉”的概率就越大,因此可以主动限制它的输出数量。比如要写一篇文章,可以跟AI说:“一段一段地写,把开头写好后,再写下一段。”这样不仅内容更准确,也更容易把控质量。
3.交叉验证。向不同的AI应用提出相同问题,通过比对判断答案可靠性。
据《河南商报》