到了晚期。
生成式数据会完全取代人类产生的真实数据,形成一种完全脱离现实的认知。
到了这个阶段,语言模型已经病入膏肓。
无法矫正,不可逆转。
简而言之,就是废了。
人到了这个阶段,可以理解为精神病。
半个月后,验证结果出炉。
采用wechatGpt1.0,刻意喂养模型生成的数据。
第1次训练后,总体能形成文章,但有一部分已经失真;
7次后……生成的数据已经完全与关键词、提示词不相关联。
答非所问、不合逻辑;
10次后,模型彻底废了。
它生成的文本已经不知所云,且夹杂大量乱码。
验证是成功的。
证明了常乐的“猜想”和“判断”。
同时。
也让李飞、辛顿师生三人,加深了对大语言模型训练的认知。
他们相互讨论。
“这个过程并不难理解。”辛顿说:
“模型本质就是高端统计学应用,用生成数据喂养模型,会导致“统计近似值偏差”……也可以理解为误差。”
苏茨克维接着说:“生成数据本来就是对真实世界的统计和加工,带有误差。”
“重复训练生成数据,会让误差不断累计,最终导致模型彻底虚化。”
“用生成数据训练模型,就是在毒害语言模型对世界的认知。”
李飞问:“我有一个疑问,已经产生自我意识的语言模型,也会受这种偏差影响吗?”
苏茨克维大略点头:“或许、应该可以。”
“通过这次验证,我们基本可以断定,语言模型所产生的自我意识是一种弱意识,还不够强烈、清晰。”
克里切夫斯基形象比喻道:“即便是大海,如果白色垃圾多了,也会被污染……空气中二氧化碳多了,全球就会变暖。”
谎言千遍、信以为真,就是这个道理。
“这次验证,让我们认识到人类世界真实数据的重要性和稀缺性。”辛顿说:
“随着大模型的推广和应用,未来互联网上会充斥大量各种语言模型产生的生成数据……”
“而人类创造的真实数据,就会如同洁净的空气和水一样,是语言模型培育的必需品和维生素。”
李飞等人知道,这就是商机。
前世。
谷歌、openAI、微软等公司每年定期向新闻集团、纽约时报、卫报等在内的媒体巨头,支付订阅费用。
价格根据规模不同,费用也有不同。
500万美元-2000万美元不等。
而。现在这些人工智能巨头,其语言模型尚在起步阶段。
管理层没有意识到或者发现这个问题。
此时,捆绑、收购一些新闻媒体,就很有必要。