thesea LV
发表于 2025-4-22 13:02:13
真想知道一个描述是否可靠,
我会用AI搜索,而不是裸模。
我会点开AI搜索的引用链接,看看背后的网站是否靠谱,是不是来自可信赖的媒体。 (当然,对于事实的求索,是有有限的,我对事实的要求,可能也就查看引用来源,而不是自己去做实验验证。)
即使最好的超大模型,比如ChatGPT-4oL也会存在幻觉(虽然已经非常低)。我通常去聊一些认知学,历史概论,技术原理之类时,其实对精度的要求并没有特别高的要求,4oL对事实回溯的精度已经超出了我的予想,甚至我觉得它的低幻觉有点神奇,这毕竟只是个语言模型,而不是“事实机”,很难想象,现在还会有让我觉得神奇的模型。
我想语言模型最初的作用,是做语言转化,比如翻译,扩写,分类,它们的天然形态是不分真伪的。它们是应该算“语言逻辑机”,符合语言逻辑的不一定事实,说得头头是道,结果是错的,即使前提是正确的,逻辑也是正确的,依然不可能预测正确的事实,因为现实世界存在概率,选择的灵活性,外部要素进入系统的不可控性,概率累积起来,最后有可能错的离谱。
目前的努力只是降低了它们的“幻觉”,而不是从根本上改变了它们的底色。
我们无法只依赖单一信源来判断事实是否准确,孤证不立,向来如此。所以,如果你只有一个大模型一个渠道来获得信息,实际上你是很难判断是否正确。 这帮GRD的模型,非常擅长语言逻辑。
“符合语言逻辑的世界就像平行宇宙一样,无限多,而符合事实的世界只有一个,就是我们的世界。” |
|