谷歌新算法 应对AI“自信满满地胡说八道”

  • 上一篇
  • 下一篇
  • AI机器人。 AI制图/左骏

    大语言模型的广泛应用带来了一个突出的问题:AI只管高效回答问题,但是对结果并不负责,许多人称之为“自信满满地胡说八道”,人们不得不在得到回答后花费很多精力对其中的细节进行验证。

    为了改善这个问题,借鉴人类的工作流程,Google的DeepMind团队开发了一款名为SAFE的基于人工智能的应用程序,用这个新的AI系统可以自动检查LLMs给出的答案,并指出其中的不准确之处。算法将原始LLM提供的答案中客观事实进行拆分,然后使用Google搜索找到可用于验证的网站,并将两个答案进行比较以确定准确性。

    在测试中,研究团队使用SAFE验证了数万个由多个LLMs给出的事实。与人工事实核查员的结果进行比较后,他们发现SAFE的准确性与人类的结果相符的次数达到了72%。在SAFE与人工核查员之间存在分歧的测试中,研究人员发现SAFE的正确率达到了76%。

    (来源于“知社学术圈”微信公众号)

  • 上一篇
  • 下一篇