OpenAI和微软做对了3件事:看到未来、发挥所长、互相成就

鱼羊 发自 凹非寺

量子位 | 公众号 QbitAI

ChatGPT爆火,吹起了大模型、AIGC的风口,但伴随着兴奋而来的,还有普遍的焦虑

大模型时代,我们究竟应该做些什么?

我想现在,一是要看到未来AGI的绝对趋势;二是要找到自己的长处,脚踏实地去做;三是要营造一个好的生态环境,大家多交流、互相成就。

这就是面对如此“焦虑”,世界顶级AI科学家、曾任ACL主席的周明,在首届中国AIGC产业峰会现场给出的最新观点。

澜舟科技周明:大模型正在催生新AI中台 | 中国AIGC产业峰会

2021年6月,周明成立澜舟科技,这是一家以NLP技术为基础的认知智能公司。同年,澜舟科技的“孟子”模型以10亿参数“四两拨千斤”,登顶中文语言理解权威评测基准CLUE。

当ChatGPT的大潮来袭,作为国内最先一批有准备的人,周明认为,与此前的大模型不同:

首先,ChatGPT对用户的意图理解非常清晰,也更加准确。

其次,多轮对话的建模非常好,还有若干解析能力

但同时,站在工业界角度,很多需要解析能力的任务,用单独的引擎能达到比ChatGPT更好的效果。

所以,找到ChatGPT的应用场景非常关键

澜舟科技周明:大模型正在催生新AI中台 | 中国AIGC产业峰会

基于这样的思考,周明博士站在To B角度,分享了对AI 2.0时代进行数智化转型的看法,从自身角度解答了“怎么用ChatGPT”、“我们应该做什么”的问题。

为了分享周明博士的更多精彩观点,量子位在不改变原意的基础上,对他的演讲内容进行了编辑整理,以飨读者。

演讲要点

  • 大模型时代,新的AI中台正在出现。
  • ChatGPT对用户的意图理解更加清晰准确,多轮对话的建模显现若干解析能力。
  • 对于企业而言,并不是必须用AI 2.0、一定要抛弃AI 1.0。
  • OpenAI和微软做对了什么?一是看到未来,二是发挥所长,三是互相成就。

(以下为周明演讲全文)

AI 2.0时代,不一定要抛弃AI 1.0

过去N多年,企业在完成信息化之后,期待的是智能化。但其实,这个智能化过去没有很好地发展起来。

很多企业做所谓AI中台,用AI中台支持各项业务,效果不是很理想。现在有了大模型,大家都在考虑我能不能搞一个新的AI中台来支持所有业务。

认知智能涵盖很多方面的因素:第一是语言理解,第二用推理、预测、决策去解决问题。这在很多方面都有用处,包括翻译、客服、知识图谱、推荐问答,都是企业智能引擎的一部分。

所以如何搞一个大模型,作为某种意义上的AI中台来支持企业各项业务,就是我们现在要考虑的一个问题。

回到大模型,支持下游任务无非有两种做法:GPT-3之前,是做模型的微调,去修改模型参数;而GPT-3之后,像ChatGPT,它就是用prompt(提示词),不需要对大模型进行修改,通过提示就能把大模型的很多能力牵引出来解决问题。

这样一来下游任务的开发就变得非常简单了,做prompt就可以了。

现在大家都去追ChatGPT,其实大模型是多种多样的,包括一开始BERT、T5到GPT-1、GPT-2等等。那么ChatGPT跟以前的大模型有什么区别

我的理解是:第一,它对用户的意图理解更加清晰准确;第二,多轮对话的建模非常好,有若干解析能力。

不过,站在工业界角度,很多解析能力其实不用ChatGPT也能做得很好,比如翻译。用单独的引擎跟ChatGPT比,可能还比ChatGPT厉害。

在这种情况下,到底要用ChatGPT来干什么

两种考虑:一个是在ToC层面上,AGI能力越多越好,用户在一个简单界面中,就可以想干什么干什么,不用来回来去翻。

另一个是在ToB环境下,把问题理解、多轮对话的能力,接上企业自己的核心引擎,好好结合起来。因为对于企业来说,很多AGI功能是基本不用的,甚至还有可能捣乱。

澜舟科技周明:大模型正在催生新AI中台 | 中国AIGC产业峰会

现在都在讨论AI 2.0,AI 2.0对应的是AI 1.0。

1.0是什么?一个模型一个引擎,一个模型一个任务。而AI 2.0,就是一个模型N个任务,甚至可以想象未来一个模型解决无穷个任务。现在当然达不到这个状态,但是有这样的趋势。

好处是,一个模型N个任务,可以提高开发效率。另外大模型到一定程度有涌现能力,让人产生了一些对未来人工智能深深的遐想,这是以前单模型、单任务永远出不来的。

但对于企业而言,并不是必须用AI 2.0、一定要抛弃AI 1.0。

企业应该把AI 1.0功能引擎和AI 2.0的部分能力(如问题理解和多轮对话的能力)无缝对接起来,形成一纵一横的合力。

澜舟科技周明:大模型正在催生新AI中台 | 中国AIGC产业峰会

大模型来了,能有效改进企业的智能化研发环境。过去任务太碎片化,一个任务一个模型,研发人员准备各种feature的代价太大,维护成本也比较高。现在有了大模型,代价就减少了很多,通过本地部署或者云,整体开发效率提高了很多,维护也容易了。

我们就在想,有这样的开发新范式,在企业经营场景中会有哪些新发现?

举一个例子,金融行业用大模型,你得拿金融数据做continue training才会更准。再拿金融领域常见的任务、长期积累的一些标注数据做监督学习,才能让模型适用于真实场景。这时候再拿模型去完成一些已有任务或新任务,效率才会提高。

类似于ChatGPT,具体怎么用呢?一个是用ChatGPT做底座,做foundation model训练金融大模型,另一个是用ChatGPT,在人机交互环境下对企业的各个引擎进行调度。这样一来,就能让原来的智能客服具有多轮对话、意图理解能力,推动新一代智能客服的出现。

澜舟在做大模型的时候,尤其考虑了企业落地的问题。

第一,是大模型企业数智化应用的边界。是把大模型当作一种分发机制,还是当成基础模型支持下游训练?

第二,是大模型结果的可控性和安全性,不能一会儿对,一会儿错。

还有,企业以前的功能引擎如何无缝地接入大模型。

最后,企业数据要如何巧妙地用起来,如何把模型做得更轻。

为此,我们训练了孟子的一系列模型,并进行了开源。结合用户的需求,我们不追求非得是千亿模型,十亿、百亿、千亿我们都可以提供,然后基于用户的数据快速做continue training。

基于互联网中文数据,以及来自企业、客户的中文数据,孟子模型很懂中文。

另外,我们也做了很多AIGC的工作,包括小说的续写,关键词生成,实体渲染等等。

基于这些工作,我们跟中文在线合作了一个网文版类ChatGPT引擎。

澜舟科技周明:大模型正在催生新AI中台 | 中国AIGC产业峰会

澜舟在做企业落地的时候,以孟子大模型为底座,拿用户行业数据和用户任务数据做continue training的例子,还包括和同花顺一起做的金融大模型,和传神合作的翻译大模型,和华夏金融合作的舆情分析大模型,以及跟数说故事公司一起做的AIGC大模型,这些大模型都已经落地了。

多说一句,行业搜索引擎也会被重新定义。第一是从关键词匹配到语言理解,第二是从数据到深度理解,第三是从简单信息获取到内容生产。

OpenAI和微软做对了什么?

最后说一点感想。这张图这两天很火,是黄仁勋当时把DGX-1的第一台机器赠送给了OpenAI。

澜舟科技周明:大模型正在催生新AI中台 | 中国AIGC产业峰会

现在,OpenAI已经是AI领域的翘楚,英伟达是全球科技领域市值第五的公司,还有微软,也坚持投入AI,跟OpenAI长期合作,三家公司现在发展非常好。

他们做对了什么?

第一,是拥抱未来。他们看到AI的主旋律是一定要抓住的,并且持续为之努力。

第二,是脚踏实地。每个企业都有自己的特点,OpenAI、微软和英伟达,都是在把自己的长处发挥出来。

第三,是互相成就,而不是互相拆台。比如说微软突然把OpenAI做的事都给做了,或者OpenAI往下游走,去跟英伟达形成竞争关系。

我想说这句话的意思是,现在咱们中国AIGC开始火了,大家蜂拥而上,大厂、小厂、研究机构、学生、老师都有小小的焦虑。

这时候,一是要看到未来AGI的绝对趋势;二是要找到自己的长处,脚踏实地去做;三是要营造一个好的生态环境,大家多交流、互相成就,才能促进整个AIGC的发展。

谢谢大家!

— 完 —