从文心一言的表现来看,它其实已经具备了很多像人类的这种对自然语言的理解的能力、表达的能力、逻辑推理的能力,这些个能力还在不断的完善的过程当中,我们有时候用的时候会感受到惊喜,有时候可能也会发现明显的错误。 但是有一点是肯定的,就是他的进步的速度非常的快。在未来的一段时间当中一定是一个日新月异的这样的状态。
我们通过对文心一言大模型进行微调,让他去适配百度内外各种各样的产品,那么就可以在用户界面或者说在用户体验上展示出来惊人的亲和力,让每一个产品都离自己的用户离自己的客户更近。
所以文心一言这样的一个大模型会成为每个人必不可少的生产力工具,无论是什么样的公司都不可能在几个月的时间里头靠突击做出来这样的技术,那么它是百度十几年超大规模的这种研发投入慢慢的积累出来的。
所以我们如果说来进一步解释文心一言到底怎么能做出来的话,我需要把我对于 IT 领域最近发生的一些变化来跟大家分享一下。 03
IT 技术的技术栈正在发生根本性变化 过去 IT 的技术站其实分为三层,一层是芯片层,上面是操作系统层,再往上就是应用层或者软件层。这个事情在 PC 时代、在移动互联网时代都是这个样子。 但是当我们进入 AI 时代的时候,IT 技术栈从 3 层变为了 4 层,也就是这里展示的芯片层。
当然芯片层跟过去的芯片也不太一样:过去以 CPU 为主,未来很可能会以 GPU 为主了。再往上我们叫做框架层,比如说像百度飞桨这样的叫做框架。
面就是模型层,今天文心一言就处在模型层。文心是百度整个模型的一个品牌,以后或者说 AI 时代的应用都会基于这些大模型来进行开发。所以以后不管是搜索也好、聊天也好、或者什么其他的应用,都会是基于域性链的这种大模型来进行开发。
百度每天比如说搜索有数十亿的这种检索请求,也就意味着文心大模型每天在服务数十亿的用户了,只不过,过去在服务搜索的时候,它是一个判别式的语言大模型。
今天文心一言的发布它是一个生成式的语言大模型。
为什么讲技术栈的变化? 大家知道生成式样的这种 AI 是非常耗算力的,有时候人们把它叫做暴力美学,要有大算力,要有大模型,要有大数据,那么费用相当的昂贵。4 层架构之间相互进行协同,不断的进行优化,就可以使它的效率比别人要高很多,就可以显著地降低成本,尤其是在框架层的模型层之间的这种协同,过去我们在几个月其实已经体会到了这方面带来的这种收益。
讲这 4 层,其实我真正想讲的是:在全球范围内、在芯片框架模型应用 4 层都有领先产品的公司,可以说是绝无仅有,百度就是那个唯一。
我们的优势非常独特,这个优势相信大家在未来的文心的迭代速度上可以会有明显的感受。
从 2 月 7 号我们正式官宣文心一言要发布以来,也就一个多月一点的时间,已经有 650 家的企业宣布接入文心一言的生态。这意味着很多企业其实已经明白这是一个大机会,这是任何一个企业都不应该错过的大的机会。