positioning是什么意思 accurate是什么意思( 四 )


GPT-2 模型的这些特点揭示了更大的模型容量和更多的训练数据可以进一步提升模型的泛化能力以及减少对监督训练的依赖 。此外,GPT-2 模型的容量和训练数据相比,还处于欠拟合的状态,这就需要进一步增大模型的参数规模 。
GPT-3 在 GPT-2 模型的基础上进一步扩大了参数 (1750 亿 vs. 15 亿) 和数据规模(45TB vs. 40GB),是目前为止最大的语言模型,无需微调训练即可用于下游任务,在零资源(Zero-shot)和小样本(Few-shot)设置下具有出色的表现 。
在 GPT-2 的多任务泛化能力基础上,GPT-3 在新的任务上取得了惊艳的结果,包括数学加法、新闻文章生成、词汇解读、代码编写等,并且这种模型表现会随着参数量的进一步增加而提升 。
(3) 成功和局限性背后的根本原因讨论
通过对比 GPT 三代模型的设计初衷和发展过程可以发现,三代模型都是基于 Transformer Decoder 结构,GPT-3 模型的强大能力建立在规模效应的基础上,即超强的泛化能力仅来自于增加模型和训练数据的规模 。
也就是说,GPT-3 的本质还是一种数据驱动的模型,通过利用超大容量的模型来拟合海量的数据,最终实现模型的收敛 。因此,数据驱动模型的特点都会体现在 GPT 系列模型上,即模型的能力取决于所拟合数据的覆盖范围、分布情况以及质量 。
无论是新的数据还是不同的数据分布亦或是数据中的噪声都会给模型带来灾难性的问题 。最新的测试结果显示,GPT-3 模型无法在自然语言推理、填空、长文本生成和一些阅读理解任务上取得较好的表现,表明 GPT-3 模型更多的是停留在数据拟合阶段,而非真正理解自然语言 。
除此以外,受限于互联网文本数据的质量,GPT-3 模型会生成一些带有偏见且令人厌恶的内容 。这些都表明,GPT-3 依然停留在感知智能阶段,距离通用智能和认知智能还有遥远的距离 。
因此,GPT-3 被认为 “具有一定泛化能力的记忆”,更容易获得并记住陈述性知识,而不是理解知识,不具备真正的逻辑推理能力和明辨是非的能力 。
(4) GPT-3 的意义
虽然 GPT-3 模型还不具有意图或对现实世界中的请求做出响应的能力,但是其对人工智能领域的影响是深远的 。
从 2012 年深度学习在各个领域开始爆炸式的发展到现在已经有将近 10 年的时间,新技术和新算法的发展也进入了瓶颈期,数据驱动模型的效果和能力似乎也遇到了天花板,而 GPT-3 模型的出现为深度学习领域注入了一支强心剂并引发了新的思考 。
最直接的问题就是这种随着模型规模增加而实现的能力扩展是否具有稳定性和可预测性?从短期的结果来看,这种规模效应还会随着计算机硬件算力的提升,继续提高深度学习的天花板 。
第二个问题是深度学习的极限在哪里?这种数据驱动模型是否最终能真正地理解语言?最后,深度学习的尽头是否会是真正的人工智能?是否能实现认知能力和通用智能?
从实际应用的角度来看,GPT-3 的功能非常强大,可以完成问答、阅读理解、摘要生成、自动聊天、搜索匹配、代码生成以及文章生成等 。
鉴于 GPT-3 模型所面临的安全性和不可控性,包括在自然语言理解时遇到鲁棒性的问题、在内容生成时会输出虚假内容和充满偏见信息的问题等,在某些应用场景,其应用价值主要还体现在智能辅助任务上,不能直接面对最终的用户 。
例如,在总结报告生成、创作写作等任务中,利用 GPT-3 根据用户的任务描述生成相应的内容,再引入人工校验编辑,将最终编辑后的内容呈现给最终用户 。除此以外,GPT-3 可以用于开发游戏应用等无明确任务定义和完成目标的场景 。
(5) 未来研究方向和中国的相关情况
总的来说,以 GPT-3 为代表的的预训练模型还存在各种工程应用问题、道德问题和社会问题 。同时,在推动该类模型的发展时还面临着跨学科合作、开放共享、资源不平衡和安全防护等挑战 。
中国在这方面亦有相应的布局和长远规划,目前已经取得了非常好的前期成果,以 “悟道” 和 “盘古” 为代表的超大规模智能模型系统已经在模型效果、领域移植和泛化、小模型、模型训练效率、多语言、弱相关多模态预训练、通用、可控、知识融入、蛋白质序列预测等场景中取得了突破 。
相信在未来的 10 到 20 年,中国在人工智能基础技术创新、人才和团队建设、社区开源等方面会达到世界领先的水平 。
3、数据信托(Data trusts)
数据信托是信托类型化研究和当代信托立法中典型的新生事物,信托制度起源于英国,发展于美国,从法律角度看,信托是指基于对受托人的信任,委托人从其自身利益出发,将资产交给受托人管理的行为 。