您的位置:首页 >深度观点 >

做大模型究竟难在哪?-全球关注

2023-05-05 11:02:23    来源:爱较真的戴老师


(资料图片)

2018年第一代GPT模型问世,它使用7000本书的内容做训练,最后基本做不了什么。第二代GPT模型训练参数规模达到1.5亿个,是第一代的13倍,就可以做一些简单的问答和翻译了。所以,如果一直增加训练参数,把规模提升到无限大,是不是就可以训练出一个无线智能的AI产品了?

关键词:

相关阅读