谷歌推出PaLM2,训练数据量达3.6万亿,比前一代强5倍

24
okx
谷歌最新发布的通用大语言模型PaLM2,据内部文件透露,采用了惊人的3.6万亿个token数据进行训练。相比去年发布的前一版本PaLM,该模型的训练数据多出了1/5左右,训练效果和性能也有了显著提升。
进群交流|欧易官网