absct LV
发表于 2025-4-18 14:12:56
回答这个问题首先要考虑现有AI的工作原理。目前市面上主流的AI,都是基于大量的数据训练出来的,它们本身并没有自我意识或者自主目标。因此当用AI生成的内容去与AI对话时,它只是在根据训练数据中的模式和概率生成回应,并没有真正的理解或意识。所以,单纯的对话循环可能不会导致AI发生”进化”或“突变”,本质上还是在不断训练AI。
但是,由于AI生成的内容都是根据已有数据产生的,具有很强的局限性,缺乏创新性,因此不断进行对话循环,很容易导致AI陷入“信息壁垒”中,对话可能陷入重复逻辑或输出无意义的“套话”;其次,由于AI输出的内容准确性存在一定的缺陷,因此不断对话循环可能放大这些错误,让AI陷入错误的认知中去,最终输出完全错误的信息;此外,若两个不同的AI进行对话,这两个AI可能在无意中触发对方的逻辑漏洞(如诱导生成有害内容),暴露模型安全风险。
实际上,目前已有科学家对题主所说的这个问题进行了研究,他们把AI自我对话自我训练的过程称为"自噬(Self-Consuming )循环",就如衔尾蛇首尾相吞一样。他们的研究结果表明:若用AI生成的文本内容去训练AI,若每一代中没有足够的新鲜真实数据,未来的生成模型注定会在质量或多样性方面逐渐下降,即AI会退化。同时他们也把这种情况称为 “模型自吞噬紊乱(Model Autophagy Disorder,MAD)” 。
所以目前的技术来看,AI的进化无法脱离人工干预,无法像科幻电影中那样实现自我进化,用AI生成的内容与AI对话最终会导致其退化。
参考文献:
- Alemohammad, S., Casco-Rodriguez, J., Luzi, L., Humayun, A. I., Babaei, H., LeJeune, D., ... & Baraniuk, R. G. (2023). Self-consuming generative models go mad. arXiv preprint arXiv:2307.01850, 4, 14.
|
|