AI的“脑腐败”?
你以为只有人类需要注意的消化才能保持健康的思想?实际上,研究表明,大型语言模型(LLM)也可能因为低质量的数据而出现认知功能下降的现象,称为“脑腐败”。
研究发现
在最近一项研究中,研究人员利用大型语言模型训练数据并发现,当它们不断接受低质量的数据时,它们的推理能力会持续下降。这意味着,虽然模型的性能会暂时恢复,但其内部表达形式会发生持久性变化。
“脑腐败”的原因
研究发现,模型接受低质量的数据(包括短小的、流行的却缺乏深度的数据和表面性话题和注意力引诱的头条等)后,其思考能力会出现以下问题:
– 思考中断:模型会选择性地忽略复杂的问题。
– 思考跳跃:模型可能会完全跳跃到解决方案,而忽略问题的根源。
危险的后果
研究结果表明,接受低质量的数据的模型更容易产生有害的内容,如阴谋论、夸张的信息、未经证实的信息以及表面的生活方式建议等。
结论
AI的“脑腐败”现象并非人类独有的问题。要避免这种情况发生,我们需要谨慎地选择数据源并确保其质量。
原文链接:https://ribenzhan.com/toutiao/keji/15268/,转载请注明出处。

評論0