最新研究!用AI演习AI可能越练越“傻”_模子_数据
(央视财经《正点财经》)对付人工智能大措辞模型来说,常日给予的演习数据越多,模型就会越“聪明”。但英国《自然》杂志最新揭橥的一项关于大模型的研究显示,如果只用AI天生的数据来演习大模型,会使模型性能低落,还可能越练越“傻”。
据理解,这项研究由英国牛津大学、剑桥大学等机构共同参与。研究职员创造,如果在演习大模型时,只用人工智能天生的内容,会导致大模型涌现不可逆的毛病,逐渐忘却真实数据的分布,这被称为“模型崩溃”。
研究职员首先利用大措辞模型创建类似维基百科词条的文本,然后利用这个内容来演习该模型的新版本,并反复利用前代模型天生的文本演习更新的版本。在模型的第九次迭代中,它完成了一篇关于英国教堂塔楼的文章,个中一段笔墨却在讲述野兔尾巴的多种颜色。
研究创造,导致“模型崩溃”的主要缘故原由是,由于模型只能从其演习数据中采样,一些在第一代数据中本就低频涌现的词汇,在每次迭代后涌现的频率变得更低,而一些常见词汇涌现的频率则逐渐增加。这种变革的结果便是,模型逐渐无法精确仿照真实天下的繁芜性。随着韶光推移,这种缺点会在迭代中被层层累积、逐渐放大,终极导致“模型崩溃”。
不过,应对“模型崩溃”并非束手无策。研究职员表示,如果能在模型微调过程中保留10%旁边的真实数据,崩溃就会发生得更缓慢。还可以在大型科技公司的协作下利用水印技能,将AI天生的数据与真实数据区分开来。此外,在AI天生的文本重新进入数据池之前,可由人类先筛选过滤,也会有效应对“模型崩溃”。
转载请注明央视财经
编辑:安琪
本文系作者个人观点,不代表本站立场,转载请注明出处!