00:00
它的性能啊,效果,还有的一个开业模式,还有包括它的一些个传奇的一个一些创始人的一些经历吧,甚至说他还把这个英伟达的股票直接当天是吧,下季量了,跌了17个点是吧,还给整个的这个股票市场带来一个很大的一个影响。呃,可以说就是deep就是目前这个阶段啊,最具热度的一个一个基础的话题呢,而且在呃,Deep deep包括呢,其实众多的名厂商也都迅速的跟进了,就是推出了一键部署啊,包括这种API调用的这种服务,我们腾讯云啊,高性能应用啊这个。啊的这个服务目前都已经支持了DB的一键部署啊,大家可以在我们直播间的左下角有一个二维码。欢迎大家扫码一起使用。企业。另外我们也也建立了这个deep的呃交流群,大家可以进群一起啊,交流我们这个AI的发展,也能收到更多这个行业的资讯,与更多的这个专家进行交流。
01:00
不过呢,虽然大家可能都看了很多这个deep的一些解读文章啊,也都已经试用了他的这个呃产品或者他的这个API了啊,但可能还是会缺乏一些这个呃,这种权威视角的一些一些一些讲解的。来,嗯,然后它的这个deep的技术啊,到底带来了哪些突破,以及它到底会对这个AI的发展与国内的这种技术变革会产生哪些深远的这个影响,所以今天呢,我们也。呃请来了四位在A在AI领域非常有权威的这个TVP的专家,我们将呃将其从啊技术能力,有产业价值,以及对呃全球AI格局影响个方面进行深入的探索,啊,一起对这个展开这个深入的剖析。OK, 那接下来的话让我们啊欢迎啊,这个今天到场的这个四位老师啊,有请那个,呃,各位老师可以给我们的观众打个招呼啊,啊首先那个有请这个复南复旦大学的教授啊,貌似这个大目型的负责人,腾讯TVVP的,呃,这个。
02:02
邱旭鹏老师,老师给大家打个招呼。好大,大家好,大家新年好啊。嗯嗯,好,谢谢这个这个邱老师啊,接下来有请那个华南理工大学计算机主任谭云TP啊谭明奎教授啊唐老师给大家打个招呼,嗯,哎,各位观众大家好啊,我是谭明奎,呃,大家新年好。嗯,啊,感谢这个蔡老师,我们有请北京交通大学教授,腾讯云VP啊桑继涛教授啊尚老师跟大跟大家打个招呼。嗯,大家好,这个我是比较大的桑涛,很感谢腾讯云提供这个来学习的机会。好的好的啊,感谢这个尚老师,最后有请我们那个产业界的这个人力学者,来自VIVO的高级高级专家田员啊邵浩老师,哎,邵老师给大家打个招呼。各位新年好,我是来自VIVO的稍浩,很高兴今天能跟各位专家一起来做技术探讨。
03:00
嗯,OK, 那个我们在,呃,估计这个大家都还是这个在这个,呃就是呃就是从这个我们这个这个春节期间咐啊大家其实各位老师可以先聊聊,其实在。过年期间,就是大家第一次看到这个deep的时候,是是从什么样的一个渠道,以及呃,刚开始看到的时候,是什么样的一个一个一个感受呢?要不我们从呃,刚才我们那个肖老师这里。给大家分享一下吧,嗯。啊好呀,啊对,就是刚才就像啊主持人所说,在过年期间啊,这个出圈的效果。啊非常好,然后就是基本上可能会比我们之前很多模型啊,发布它的影响力都要大啊是某种程度上可能比那个圈的GPT发布它的影响更要大,因为你会发现很多的原来从不关注这个AI的人啊,变得也也非常关关注,并且他不是说只关注,并且还要用,因为。
04:08
嗯,那个像OOK,当时发布这个圈的GPT,那呃一开始也是在学术圈里面啊,会这个影响非常大,后来慢慢到公众,但是因为我们在国内可能没法就是直接使用这个PPT,所以感觉上他没有并没有触及到我们的,呃,一般的老百姓。然后但这次的话,呃,我觉得可能大部分中国人都会下载一个那个他的APP,然后去去试用一下,所以从这个方面它确实影响非常非常大啊。啊,包括它的用户量增长也是非常快,以前的GPT都要更快的吧,然后呃,我们因为作为学术界一直在也关注DB,然后今年其实他在比如说去年年底吧,就一月份的时候放放这个,呃,就是那个V3出来嘛,当时就是啊也也引起非常多的探讨,就是里面有非常多的这个创新,然后但是。
05:13
他还没有影响到圈外,那直到就是啊,过年期间这个出来,然后能够真正做到像啊一个媲美这个O的一个产品。然后呃,并且他做到的效果是非常非常好,然后加上那个他在底层的软硬件方面有非常多的创新,所以呃,就一下子就。啊,被国外的非常多的人关注到,并且很惊讶,然后慢慢的再影响到国内,所以我基本上呃,是这样一个逻辑啊,嗯。嗯,是的是的是的,呃,这个基本上我我我家阿姨都已经下载开始去用了,这个确实影响就非常大,OK, 哎,这个谭老师也说一下你这个你你的这个感受吧,嗯。
06:00
陈那个主持人啊,你好啊,刚刚邱老师刚刚其实感受其实也是差不多,因为我跟我跟邱老师啊,都是同在学术界啊,然后实际上呢,呃,我我补充邱老师的这个两点,我觉得一几点啊,一个是呢,就是说呃,可能这次deep啊这个一个大火。他还是处在一个特殊的一个。啊,那个背景下面一个呢,就是我们之前其实呃也有很多的这个大模型,你包括包括国外的像当然GPT,呃GPT,然后呢,国内的像都包啊千问啊,包括这个呃,这个阿里啊,那个还有文心炎等等啊其实大家都在用啊,嗯,但是呢,就是说呃这个这些模型呢,就是必源的啊,但是也有一些开源的模型,但是能力呢没那么强,那开这个应该说在开源模型里面应该是能力非常惊艳的,这个必须首先来说,呃,然后相对来讲,因为之前嘛,因为open I呃虽然说是强调自己是open的,但实际上呢,并没有open。
07:02
啊,然后呢,这个,那么deep把它开源,那我想这个是一个啊一关于这个整个领域里面一个策略性的一个重大性的一个转变,那你像现在呃,Open爱其实也面临了很大的压力,对吧,那么他也在思考到底是开源是那个那个那个闭源是对了还是错了,他自己现在也在疑虑,这是第一个,那么第二个呢,就是说还是。印下面就是说,呃,那当然美国现在对我们的这个禁运,其实是越来越这个厉害,原原来从芯片里面啊,那么现在到各种数据,到各种方面,其实是全方面的,那么在这个基础知识之上呢,我们以前的科技方面的竞争呢,我们报露了很多,但是在人工智能方面,我们认为就是说一直是在跟随这个这个这个西方的这个研究的一个路线,那么。那么刚好这样一个契机出来,那么我们是不是这个大家都在关心,我们是不是跟美国现在呃差不多一样一个水平,对吧,这大家很开也很很关注,包括像国外的,除了美国,当然还有很多国家,他们我们讲也叫不明真相的国外的朋友,他们也很很兴很很很兴奋,对吧,那因为以前一直在用美国的产品,那么现在是不是多了一个选择,对吧,这个我想你这是在国外大火的口罩的一个因素,因为呃这个这这这个这个因素,环境关系我觉得还是蛮重要的,那么第三一个呢,我觉得说这。
08:34
呃,就是说,呃这个开源呢,呃这个我们以前一直认为就是说像搞这种大模型,你像从数据的角度,那可能需要很大的成本,那从芯片的角度,你可能上千和卡这是标配对吧,那这个成本很高,那像那个美国最近像那个英伟达对吧,说搞了一系列政策,说要搞一个什么联盟,然后呢,投资多少,甚至几几千亿美金,几千亿美5000亿美金来搞这个事情啊,然后呢,这个就是大家就好像是就往芯片那个一个一个这个这个大家谈了很多,那么那我们很难想说一个,呃,我们一个初创小公司,能够在我们认为是比较低的一个成本下面啊,那来做这件事情,确实大家想不到,那么也给大家一个认识,当然邱老师因为这边专家,因为他们这个貌似模型也非常的好,那是不是来讲,那么以后为越来越多单位可以。
09:34
参与到这样一个,呃,这个活动里面去,那也给了很多的这个一个单位,你像我们如果说芯片不够的这些单位,是不是也给了我们可以参与game的一个机遇啊和机会,我想这大家都是比较感兴趣的啊,我就补充这么一些啊。OKOK, 感谢那个蔡老师补充,哎,那个呃呃,蔡老师有没有要补充的,嗯。哦,这我简单的说一下,就当有没问这个当时怎么第一次,呃,我记得这个时间应该是1月20号,因为这个我们组的学生正好1月21号放寒假,所以第二天正好是这个,我这边有一个推理小组,然后这个开例会,然后同学们讲了一下这个2万这个工作啊,当时一个最直接的一个感受啊,就感觉像被打脸了一样,因为之前我们再去做一些,呃,类似出线的工作的时候,其实很难的两个点,一个就是要过程监督,一个是要这个奖励模型,呃这块人家都没用,所以当时还是讨论了一下,然后接着其实要用的话,可能已经快到过年了,然用了之后感觉这个确实不太一样啊,我就一个是呃,他把思考过程给我们看了,再一个是之前我们用这个O万的时候,其实因为网络的问题经常就卡顿,所以至少在年前的时候用这个RO,这个还是挺流畅的,所以感觉这个确实是我觉得第一个点就是性能很强大嘛。
10:57
第二个就是我觉得他出圈这个也是有有点意思啊,就是这个感觉是先出国再出了圈,所以这个影响力会非常大,然后再就是他比较省钱嘛,这个训练和推断都很省钱,再然后刚才那个唐老师说的比较多,就是他开源,这次是实实在在在的一个第一梯队的一个模型开源啊,不是之前我们说单纯的一个榜单,这会儿是这个大家这个自己去用,是用表投票,然后感觉他确实是达到了第一梯队,所以我觉得是这个D,这个事件还是很值得很值大家讨论一下。
11:32
是类是的,它的那个效果确实是比呃之前的这个开源的模型其实还是要要要好的,大家之前都认为还是有一个代替差的是吧,那呃通过这次是实真的是到了这个第一季轮,OK, 哎,那个。啊,感谢尚老师,哎,那个尚老师有没有那个想要分享的,因为前面那三位老师都是这个,这个应该在,应该相当于在学术界对吧,邵老师应该是在还是在这个,这个在VIVO,呃在我们转任公司应该是离这个呃这个产业更更近的啊你你有什么样要分享,有什么样的一个感受呢?就是看到这个pick的这个这个阿模型的时候,嗯。
12:08
对,其实前面三位老师总结的都很好了,我们感受其实差不多,因为去年的话,从VR开始,我们觉得deep sick其实已经火了一段时间了,但真正的话,媒体炒作其实是从那个R开始的嘛,然后很多文章就在说这个deep打脸open AI, 所以一下子呢,就是把这个群众的这个爱情情绪啊激发出来了,所以我们也看到好像是昨天吧,Deep好像是成为了这个日活达到2000万的最快的一个应用。所以我们呢,其实也是第一时间读了他的论文吧,但我们看到的更多的是他大量的这种工程化创新,所以我觉得这个deep sick的这个胜利呢,其实是一个工程化的胜利,呃,对我们产业的影响其实是蛮大的,所以让我们其实也是在反思啊,就是说我们应该以什么样的一个方式,呃,在推理的这些应用场景里面去给用户提供更好的一个产品啊,包括在手机上的我们各类的产品相册啊,啊,语音助手啊,包括一些应用也好,我们其实现在是在持续思考这样一些问题。
13:06
我就简单补充一点,嗯嗯嗯,OK, 感谢那个那个所有老合同,那我们那个接下来的话就进入到这个啊,就西的一些技术的这个这个抛上面。就是呃,我我先问,我先问第一个第一个问题,就第一个在模型架构上,它最关键的一个,呃,突破点是是什么,比如乡乡乡村教育那个川式,像是汤姆这样的一个主流的架构,他其实他提出来的这个就是这种Mo moe的这种专家模型啊,应该不是他提出来的,他是他他是用了非常好的,他这个moe的这种专家模型的设计如何你去实现这种。啊,性能与效率的这个平衡啊,这是这其实是两个问题,一个是最大的这个突破点,一个是他怎么来去实现这种性能和效率的平衡呢,要不从这个这个肖老师给我们那个。呃,分享一下这个问题吧,嗯。啊,从我先开始是吧?啊对,要不就从明天开始啊,行,呃,我其实想举个例子,就是说呃,可能更更明更更加简单一点,就是我想举一个工厂的例子,就比如说呃,假设你是一个工厂的厂长,如果想让这个工厂产出的效率或者是价值更高,那你应该做什么事?
14:17
其实呢,其实有几种方法可以选,第一种就是说呃,我用更高效率的机器去代替人工,呃第二呢,就是我可以建流水线提高效率啊,第三呢,我可以让这个机器满负荷的运转,让它24小时不修。呃,第4呢,我可以采用一些智能调度系统,那这些都是方法,可以提高你这个工厂产出的一个价值,所以我觉得其实做的是类似的事儿,呃,我们其实在聊的时候可能要区分一下,因为他们这里面包括了像V3啊,V3BASE zero和R,那如果是对于V3来讲的话呢,其实做的大量的是这种功能创新啊,但我认为最核心的5个点啊,第一个就是moe和它的负载均衡。那主要的是为了降低他的模型的这个计算量,那第二点呢,就是他的这个呃,那个那个MLA的那个注意力机制啊,也就是那个天才少女啊,你现在去小米的天才少女去,呃去去做的这样一个工作,它其实本质上是减少了K带来的这个存储压力,那么第三点就是这个FP8的这个混合精度训练。
15:15
那这个这个点呢,其实是可以成倍的降低它的计算和通讯的一个开销。那第四个呢,就是它的流水线并行,那这个是完全化的一种一种一种优化嘛,它是减少了这个显卡的一个控制时间,那么第5个呢,就是这个MP的这个多头根预测,那这块的话呢,可能算是一个比较小的这样一个创新啊,那是对于R1来讲的话呢,它呃,最核心的就是提出了强化学习的那个新的范式叫g r po.这个学习强化学习产生,那从而是大大降低了这个成本,所以这块的话呢,我因为我们刚才呃,刘老师也提到的是这个,我们可能要讨论这个moe啊,其实moe的话呢,我觉得这里面最核心的就是它的那个自带均衡。
16:08
因为本身来讲的话,为什么之前大家在做moe的时候没那么成功,是因为呃。你比如说像那个,它也推出了这个大专家的一个设计,但是它并没有很好的解决此类问题,它会带来一种我们叫做这个选择失效的问题,也就是说模型在推理的过程中只会选择固定的几个专家。那有一些专家就训练不足,然后专家在不同推理节点的时候呢,还会出现一些计算计算瓶颈,但我们看到的在V3这个版本里面,它采用的最核心的是这种小专家的设计,这里面呢,就是说我的专家数量可以多,但尺寸比较小,所以我的选择多,我的模型的泛化能力也会增强,但这就需要一个非常精心的设计啊,因为我们看他的技术报告的时候发现,呃,其实他是把这个pre和阶段是分开的,那在pre阶段的话呢,他用的是这个,呃,4个节点一共是32张卡,那么扣的阶段呢,是40个节点,320张卡。
17:05
那么一共采用的专家呢,是256个呃专家,再加上64个这个英语的一个专家,所以呢,他又他又如果大家是感兴趣的话,去看那个那个里面的那个论文的那个公式嘛,它这里面的公式就是说我怎么样去通过啊一个这个这个啊专家得分来去识别哪些高负载的专家,我来进行复制和用于部署,然后也能能够动态调整这些专家的这样一些这个呃负载来去确保每个GPU处理的数接近我觉得这块的优化。MV这个技术里面最核心的一个创新点,所以这块呢,也是值得我们在这个企业当中做公众化实现的时候比较关注的关注的几个点,那其他的几个点我这里就不再展开了,因为嗯,就个可能其他老师比我更专业一点。OKOOK, 那那那个那个谭老师有什么补充的吗?就是刚才的这个问题,嗯。价格上老师刚才说的非常全面了,对,我觉得这个T这次不管是V3还是2万,呃,肯定是他一系列,从V2到他之间应该有个吧,还有。
18:09
然后我就我就补充两个点吧,我觉得这两个是我自己看起来非常漂亮,非常干净,两个公式啊,一个是VR里面的MRAV,就刚才邵老师已经说了,我重点说一下这2万里边这个。这个果上,我觉得这个之前我们在做大模型,再去做一个问题,就是这个token上面,我们到底怎么去评价这个,之前用这种actor critics, 其实会有一个value model, 我觉得他用这个直接把这model给干掉了。然后还有一点我自己的一个,呃,自己的一个观点啊,可能不一定对,就是我感觉他用这种在一个组里面多次采样,然后去算相对优势啊,好像隐的去实现某种这种文。
19:01
所以我觉得也可能是因为这个原因,导致他最后不用过程监督和奖励函数了,所以我个人感觉这两个公式是经验的,去补充一下。那OK,哎,这个上头就能够不通了吧,就是刚才两个,其实把反正那个好几个方面都覆都覆盖了,嗯。诶,张老师有没有有有补充的啊,是说我吗?嗯嗯。不好意思,不好意思,不不好意思,我我刚才啊好不好意意思思老师,我刚才抢答了是吧,没有意思,刚才那个非不好意思不好意思,我听错了没有没那个刚刚两两两位老师其实已经讲的非常清楚了,但是就是说我觉得很重要,就是miaa的话,主要是降低了内存的消耗。然后呢,这个里面,呃,这个这个确实我们自己也做这方面研究,其实这个方面还是非常重要的,当然跟我们也是有一个启示,就是我们未来在这个方面其实还有很多的工作量,可很多工作可以做,呃刚才那个各位,那那个孙老师,还有那个邵邵老师讲的就是说啊这个呃,这个模型也好,或者是他的这个它的这个训练的这个也这个那个强化学习也好,它是非常非常elegant,那我反倒来讲,我是觉得说,呃,这个deep s这样一个出来之后,让我们有更大的空间去探索,可能会有更好的结构啊来去比现有的模型可能会更有有有一些更好的思路,我们目前也是在探索,在思考,那我是补充这一点,对,OKOK, 好,那那那我给你下一个问题啊,就是但其实刚才也提到他的很多这个一个性能是吧,因为不管是从推理的性能,还是说从各个方面的一个性能吧,他就是在首先他看他的那种在多任务。
20:46
形测总其实超过了很多同规模的这样的一个模型,就是因为在它的这个就是性能突破里面,就是最核心的一个是什么,就是刚才呃,各位老师提到的一些算法的优化,对吧?那可能还会涉及到这种呃,数据质量,还有一些这种呃,就是一些算列部署啊方面的一些创新啊,那各位老师认为在这几个方面哪个是。
21:08
最关键的啊,这个要不我这个邵老师,您您您您可以先回答这个问题,嗯。嗯,是我吧,嗯啊对啊,邵老师,诶哦啊嗯,对,因为我是来自工程界啊,所以嗯呃,可能从我们的视角上来看,可能并不是说某一项核心的突破吧,我觉得它核心驱动力应该还是这种,呃,所谓的叫系统工程化吧,因为其实我们刚才提到的很多方法嘛,就包括Mo EMP啊,Co FP, 其实学术界早就有了。但第一次真正把这些方法都花了心思用,用上的其实就是这个,这个其实它核心架构还是没变方嘛,但是在架构工程设计上都做了大量的创新和提升,从而实现了它整个的这个效率优化,呃,这里面其实我呃我想去讲这个技术细节啊,就是之前我看到过archman,就是美国的一个一个一个资本公司,他讲了一个报告,我觉得他们的例子举得特别好。
22:03
他们就说,呃,他是拿内燃机和那个汽车的发明打了个比方,他说德国人发明了这个内燃机和汽车,但美国人呢,就喜欢这个斯干奥,他就所以把这个车做的特别大,然后排量也特别大,马力也特别大,所以他的排量呢就从2L到4L到8L。所以这样的大车在美国特别常见,所以呢,我们看到美国车特别耗油,虽然这个源头技术呢不是日本发明,但是日本擅长把这一件事情做精,它就工程上做了非常非常多的优化,比如说它的2.5L排量的车。其实可以达到和美国无升排量车的一样的这种指标,你比如说像百公里加速,那他做了什么样的一个一个一个一个优化呢?比如说这个轻量化设计,把钢板换成钢条啊,涡轮增压,然后像这种精密制造,然后像这种发动机的零部件的这种这种紧密配合,呃,大家如果感兴趣的话,可以看一下知乎,最近有个热啊,就是那个。一个叫郑思泽的博士去写的他在deep sick的这个实习感受,啊,那个帖子也也蛮火的,他里面提到了一个类似的观点,他是北京大学的一个博士,然后现在是自己的这个top,呃,他说了就是说字节的优势是可以单独做infer,做出一些好的工作,而且有一定的独立性,所以对于他这种想做科研的是比较友好的。但是在deep呢,他就发现有一点,如果是做infer,一定是要偶和算法的。
23:25
这一点我们是从这个技术报告里面也去得到了这样一个结论啊,就是说呃,Deep其实是infra算法,包括它整个工程化的优化的,它的耦合是非常紧的,独立性是比较弱的,所以呢,它的系统工程做的非常强,所以呃,您这个问题我觉得可能并不是一个单点突破,它的核心的驱动的突破,第一项最重要的就是它的系统工程化,第二项就是它的可能就类似于像刚才提到的像数据啊,一些算法创新,那这是这是我的一些看法,对。嗯,OK, 那我我生一个一个一个问题啊,其实大家其实一是说他的这个。
24:01
这个性能指标会会非常好,那其实还有大家其实会比较关注,就是他整个的训练成本,其实会很令大家这个吃惊的是吧,大家可能之前都认为你可能训练一个这样子的,完全可能要几千万美金啊,这个这个级别的是吧,那那当然有一个数据说是他们这个这个只花了五六百。百万这个美到这个这个级别的这个这个这个其实我其实想从这个引出一个问题,就是他在这种。训练这个层面上去是有哪些很,呃就是很很独特的一个东西,这个老师可以给我们那个呃讲一讲这个。啊,对,就是。嗯,我觉得在这一块。那个其实O不不是是就是这个他没有太。那个透露太多的东西,但我觉得里面是非常非常重要的,然后还有一块就是它里面应该是有啊,非常那种高质量的这种。
25:06
啊,数据,然后。嗯。所以就是但但从他比如说像阿万啊这些报告里面来看,就是他应该也不需要太多,然后可能就是啊一些啊少量的这些高质量的这种啊S数据,然后让他具有一个初步的指定追寻的能力,然后以及类人的这种推理的表现,再加上这种RL,然后。呃,就会使得模型的能力进行啊不断的自我提升,那其中它里面用到了几个,呃,有有两种合成数据吧,一个就是由那个。这个2万的zero,呃,就是增出来的一些数据,包括通过从V3里面的这种。啊,合成出来的数据,所以也可以看到就是啊,这种合成数据对于将来模型的这种,呃,优化它的啊。
26:10
这种必要性也非常大,因为我们特别对于这种难的问题啊,你很难从现现有的这种数据中,或者网或者互联网的公开数据上去啊,直接得到,所以。啊,我们如何去啊,合成一些高质量的数据啊,当然里面可能也需要一些人工的干预,比如说一些自动的筛选,人工的筛选啊。它会变得非常重要啊,而这些可能是未来去驱动一个,就模型进一步去迭代的一个啊,我觉得非常核心的东西,嗯,然后呃,但因为因为这一块的话,总体上是偏类似于比如说数据工程或者之类的。
27:00
啊。它里面会有很多的这种知识,当然这些知识有可能它不是那种。呃,可能还没有完全上升到理论或者这种层面,所以在学术界目前来讲,就研研究的这种。啊,不是很多,就1,当然也有一些论文是呃,探讨如何去做更好的数据合成,比如说提升它的多样性,然后呃。然后有一套方法论的东西来去让模型能够更高效高质量的去生成我们所需要的这些数据,但总体上来讲啊,我觉得在于学术界的这种公开的探索还不是很多,所以啊,这也成为各个这种公司吧,他们的一个啊非常核心的东西,所以。啊,非常重要的,我觉得。如果有必要,我觉得学术界的也可以去探索一下,然后争取有些这种啊,数据工程的方法论的啊,这些啊公开的报告出来,或者技术报告或者论文,嗯。
28:08
诶诶,刚才刚才赵老师提到这个很多这个数据工程啊,其实嗯呃,前一段时间还提听到那个叫就是美国另外一家那个大门型公司,就是这个s sanic, 他们其实已经训练出了下一代的模型了,但是呢,他们下一代的模型其实是用来。呃,继续去再再训练这个,再训练下一代模型,对吧,就提到了一个这样的一个就是数据很多这个数据工程上的一些这个对吧,这可能这个合同数据可能越来越重要,现在还提到了一个,前一段时间我还提了一个就是open AI他来训练这个。就是他的O系列的模型的时候,他其实选了很多这个专家来去这个对吧,呃,专家来给他贡献这个这样的一个高质量的这个这个答案,这个其实提要这个数据这块越来越来越重要啊,就关于这块的话,就是比如说。
29:01
就是当然也提到的D,他呃就是也说他的在数据清洗呃知识蒸馏,其实也做了非常多的这个这个这个这个工作啊,就是呃就是我想也问一下其他的,比如说像那个呃那个尚老师,您您在这块有呃有有没有一些这个有没有一些看法,比如说在数据呃工程方面,比如说你看到了,就是它有没有一些这个很特别的,很特别的一个点,或者说呃就是有一些这个很独特的一些点,嗯。对,因为这边那个邱老师是在第一线实战的,应该很了解一些细节,对呃,对,刚才这个说到一点,就是关于现在合成数据用老师模型去。去训练一个这个学生模型,所以我觉得现在这可能是一个趋势,这个可能也是未来,我觉得是我们现在一个劣势吧,就是很这个像也好也好,包括它会背后有一个很大的性能更强的老师模型,它不放出来。
30:01
然后他用这个模型蒸馏了一个小模型,相对来说成本比较低的给你放出来,那其实如果我们追赶呢,是他放出来这个模型的话,其实那背后那个模型,这个我们始终是赶不上,而且从合成数据质量来看的话,也是会差一些,呃,这个我再多说一句,我感觉呃,就刚才说到这个。这次除了算法上创新,就是数据上,我感觉他们的团队对数据的理解应该非常深。嗯,也就是可以看,就是他的报告里面虽然有很多技术细节,但是关于数据采集跟标注细节都没有。我觉得这个可能是他们一个挺大的一个壁垒吧。然后呃,因因为我还是对2万比较感兴趣啊,我简单说一下,我从他这个2万报告里边看到了一些和。呃,和数据相关的一个东西,一个呢是看起来阿zero呃的方案里边蒸馏数据没有那么必要了,我觉得这个其实是一个挺让人振奋的一个点,就是他一个是证明了能在更大规模的强化学习下边我不用先去能启动也能去做。
31:03
再一个就是我觉得这种方式。哎,这个是不是有点噪音。诶诶诶,那个得应该一个伙伴应该说吧,另外也是我觉得是还有一点我觉得有点意思啊,就是他在一个报告里边把一个。最后不是作为一个主要旗舰发布了12ZERO,像是像是一个就是性能没有那么好也放出来了,我觉得是他是感觉这个从技术方案上边很有潜力,就是未来如果我们真的说不管self play还是去自我进化的话,我觉得这种纯I路线会。啊,会很有意思,然后对应的话,如果其实他数据做了很多工作,其实是在阿万里面,而阿万在我看起来它像一个为了一个应用的一个产品,不像是一个纯粹的模型跟方案,就它里边这我觉得我觉得这个是看出来他对数据有很深的一个理解,包括他加了一些啊,一些普通的这个逻辑数据,还有一些非推理的数据,包括还有一点是我觉得是张俊他也总结了,就是说,呃,一般来说,我们说self play的话,会这个迭代去进行下去,但是他认为说,因为我这个数据里边,这个中间cot可能是有噪音的,所以我第一轮就之前的轮只是为了去产生Co数据,我最后的训练不是在之前已经微调的基础上去做了。
32:19
我是回到这个base model上面去做哦,所以对我是这是我从他的报告里边,我自己比较感兴趣的几个点嘛,嗯。OK, 其实我我我我想去就去问一下,就是这个这个这个我我也有一这样的一个问题,就是如果说我们。都从这个大模型来去数据的话,那他会不会可能觉得就是这种它的。更更优,你怎么能够判断他的这个数据更优呢,或者说你怎么能判断他的这个模型,其下一代模型其实可以更优呢,其实我我也有这个这个问号是,呃,要不然那个那个那个谭老师,您您这个你可以给大家那个。详细再展开介绍一下嘛,比如说关于这个数据是吧,我用一个呃老师模型来去教一个这个学生模,如何让这个学生,学生模型其实是可以比这个老师模型更聪明啊吧,这个其实可能大家也会比较比较比较关注,嗯,我我我嗯,因为这个里面的细节呢,有一部分细节可能我们现在也还在还在继续研究,但我去前面跟那个学生开会的时候,我举了一个例子去解释为什么合成的数据会比我们现在人工数据包括CT会好。
33:29
其实非常重要的一点就是我们人工去补,去采集数据,呃,去去去采集数据,回答问题等等之类的。但其实因为受限于我们。整理自己的知识水平,包括我们的这个当时的这个回复的这个这个这个回复的这个耐心程度等等,这个方面其实带有很强的这个BI,这是重要的一点。那么第二个呢,我们人类去,无论是采集也好,还是我们找这个专家来也好,它的量是很小的。
34:01
那么强化学习这个地方呢,很大一点就是我可以生成大量的数据。那么实际数据里面是好是坏呢,这个东西呢,其实这个评判我看他那个在那个强化区里面,它其实用的那个对比啊一对比,那么用的这个简单的这样一个思想,其实这个思想我们之前呢,在做这个一个是两个任务里面,我们去验证了,也是非常有效的,一个是在做这个神经网络结构搜索,我们也用了这样一个类类类似的思想,就是不去设计一个精准的reward,我们只是只是去对比两个两个效果,两个模型的好好坏,而且不需要去evaluate发现这种对比呢,它就是一个很好的一个一个一个这一个一个reward,然后这是第一个,那么另外一个呢,就是我们再把这个。也是用强化去去设计我们的芯片的结构,我们把这个事情,这个事情呢,也是很成功的应用在这应用在这个这个这个芯片里面去设实施这个里面发现也很成功,当然这个两两者之间啊,就是还是不太一样,但是里面有共同的一点,就是我采样的数据可能不够好,但是它够多,那么第二个呢,多了以后呢,我这个every在一起,在一起是不是会可以避免。
35:10
人的这样一个BI,其实这这是我的一个猜测啊,但可能不一定准确,那么。至于说这个回答这个去去evaluate这个,这个他的数据到底是好是坏,我想呢,呃,就跟刚刚几位专家说的,就是未来我们觉得还有这个地方,还有很多的工作可以去做啊,包括确实能不能训练一个好的模型,专门去做一般的,或者说我有更好的一个一个设置策略去去判断,或者说压根儿就不需要去判断好坏啊,这个都是open的一个一些这个。Question啊,然后但是我还其实一个补充一点,就是说刚刚你说的这个它的成本吧,其实我很感兴趣一点,就是我之前关注到就是他们,因为这个他们的公司背景是做这个。这个投资对吧,投资,所以他量化投资,所以他们在那个底层里面做了大量的工作,这个其实是我们很多有尤些高效的,这样我们是第一个没有这个能力,第二个呢,也可能没有这个动力去做这样一件事情,我相信就是说这个里面的这个投入其实是非常值得的,另外就是就是说一点呢,就是说这个投入是不是可以说啊,我完全摆脱像库达这样的一个架构,包括把数据的通,数据的这个通信成本。
36:27
包括这个,呃,模型的这个这个这个数据的这个交互,当然包括刚才说的这个也提到的混合量化等等这样一些弄不弄进去,那其实这个实际上是在这个模型训练里面非常非常重要一点,重要的你真正来讲,其实模型最大的一个代价其实就在通信上面,那如果降低这个通用成本,其实无论是对卡金也好,还是对那个机器之间也好,我想它的成本带来的这个这个这个它的收益应该来讲是不可估量的,所以我觉得这一块呢,呃,但是我们高校可能这一块我们做不到啊,但是我想如果说其他公司像咱们这公司这边如果去投入这些块,我觉得这个应该是会很大的一个前景。
37:08
嗯嗯,OK, 哎,正好那个评论区有一个那个问桑老师的这个这个这个问题啊,我也我想觉得挺好的那个就是他提问就是。他怎么看待,就是大家用去生成数据啊,以及有没有一些这个风险啊,因为这个我觉得可能他问这个问题其实很很有意思,因为前一段时间大家针对这个问题,甚至说这个deep是不是说留了这个。是吧,增留了open AI的这个数据,大家其实也会有这样的一些一些讨论啊,有你可以针着这个问题那个去去做一些回答,嗯。就这是个挺好的问题,呃,首先我我我感觉蒸馏这个事情应该是大家的默认的都在做的,包括GPT刚出来之后,然后就有一个这个GPT的一个数据集,所以我觉得这个事情应该是,而且现在大家应该是互相在,嗯,我感觉这个倒没错,而且呃,前两天赛奥特曼在日本也说了,他对deep这个事情呃不太在意。
38:06
嗯呃,然后如果说风险的话,我倒觉得可能会有,因为我之前做过做一些可信和和安全的一些工作,呃,就是我个人感觉,嗯。当然,这是open最早的时候说的,说我们模型很强大,所以我不想把它开远。对,我觉得这个可能是就是很强大一个开源模型和安全之间的一个博弈吧,所以就是当像D这个这种能力的模型出来之后,呃。包括最近大家也发现它会产生很多幻觉,特别是推理模型,这个幻觉会更严重,所以我倒觉得说这里的风险,一个是一个很强大的模型被二次开发滥用,第二个就是他如果生成的一些数据,我相信现在大多数人,呃,之后我自己最近在写一些东西,包括再去想一些东西,都会跟。
39:00
二万六。一下。所以未来如果真的我们的。的互联网有2万合成一个数据的话,呃,我这个倒不是说馏给其他模型啊,我是觉得这个可能这种数据我们自己产生出来,然后这个扩散数据,我觉得这个会是一个一个风险。OK, 其实刚才那个。他也提到了这个就是开源和闭源的问题,就是说open AI为什么不去这个开放的它的模型,他认为这个太危险了是吧,OK, 当然这个这个这个有,当然也有很多人有另外一种这个这个看法,当然就是比如说他其实之所以这个。呃,这个破圈其实跟这个开源还是有一个很很重要的一个一个一个原因吧,就是那我们引入引入下一个问题啊,就是病源大模型,并常的认为它其实是。可以更可以做更多的这种调优,对吧,比如他可以说针对各种呃,甚至说处理各种bad case是吧,各种各样的就W补丁对吧,给人的一个这个模型,B量模型还是操作的空间其实比较大的,你开源的,你开源的模型呢,你其实你很就是你做的那个工程上的事情,那可能会更少一些啊那。
40:11
它是选择这个就是开源路线的时候,这个就是,呃,就是在模型压缩和推理加速过,它是面临着哪些的那种技术的取舍,如果就保证他这个开源的版本的一个就是这样的一个竞争力啊这个呃,这个我我这个问题我抛给那个邱老师吧,因为邱老师做这个,貌似这个问题应该应该也面临着这种开源的这个这样的这样的一个这样的问题啊OK,这个。这个。老师可以给我们解答这个这个问题,嗯,比如说他。那面对哪些这种近术的一些趋势是吧,他可能没办法做那种各种那个小小的各种补丁了,是吧,面临一个开源的,还有就是你怎么保证这个开源的,那它的一个。它的这个竞争力,嗯,这是这是是一个问题,嗯嗯,好呀,那首先我想啊,说一点呢,就是关于这个模型开源,就是大模型的开源,它和我们传统的这种软件开源,它不是一回事儿,就是比如软件开源,或者就是比如开源一个项目或者之类的那么。
41:16
啊。就其实它是鼓励大家,比如说一方面啊,可以有更多的就是软件的透明性,然后另外一方面就是大家可以参与去一起去优化这个这个。一些项目对吧,或者一些system之类的东西,然后呃,那另外一方面呢,开源也会让大家更容易去接受,特别是在一些呃,很多的,比如说关键的这种。呃,应用上面可能我我更愿意,呃,很多人就更愿意接受一个开源的系统啊,不是一个封闭的系统,那呃模型的开源,我我感觉嗯,它和这个软件开源不太一样的地方就是它开源的是一些权重,然后。
42:02
那这些权重呢,就是。呃,是这个。他好像你你只能是通过比如说下游的一些微调或者这种方式,然后你很难去复现出来,我我如何去得到这些权重,然后所以。呃,它的一个我觉得开源大冒险,我我感觉就是说,呃,开源还是一个非常有生命生命力的道路,特别在一个呃,就是。一些比如说初创的。嗯,就是我这个这个比如说企业啊,基本上都要选择一开源的,因因为一方面来讲就是啊,包括像这次阿旺也给了一个非常好的例子,就是其实对于一个公司来讲。特别是这种大模型,不光是训练成本,它的推理成本也非常高,然后啊,那为推理去做部署的时候,其实也要占用大量的这种算力啊,那如果假如说我开源一个模型,然后那你会有很多的比如第三方的这个人帮你去优化去部署。
43:14
啊,所以某种也是能够去扩大它的生态,呃,啊,但也不太去消耗它的他自己的这些算力。啊,所以是一个比较经济的做法,呃,然后但关键就是开学的关键还是要效果好,就是就是否则呃,现在开源的那个模型也很多啊,但也不是所有的啊都有这个2万的效果,所以比较核心还是这个技术好,然后开源呢,就是能够去更好的呃,加速它这个呃生态的建设呃。然后这是一方面,另外一方面我觉得。呃,还有一个非常重要的开源,其实就是啊,就也不体现在模型上了,就是就可能是一些方法论方面啊,就比如说关于这个RY啊,如何去呃就是呃,就实现这种强推理模型,其实学术界也是有非常多的这个。
44:15
研究那呃,包括这种在大模型方面,就是我们界也有非常多的论文发表了,然后那么他有一个那这些论文。可能都是都是在某些单点上啊,做一些验证,做些做些探索,我相信就是啊,比如说像这种。呃,比如说在一个公司里去,或者一个有大的这种。啊,一个团队如果你要做这个技术模型的复现,包括推理模型,其实都是需要阅读很多大量的论文啊,这些论文从某种上都会替啊,比如说一个单一的组织去做一些前沿探索,去节省非常多的这种探索成本啊,这个也非常重要,所以我所以就是我觉得呃,开业模型一方面除了刚才讲的一些。
45:11
点之外,他也可以给比如说学术界去作为一个基座,去做更更前沿的探索,那么这些都这些探索的成果,反过来也会去回反哺,就是啊,比如说像这些公司啊,或open AI, 或者比如像ta吧,都都会啊从啊就是。这种公开的这种技术报告中啊,去获取一些有益的点,然后能够更加节省他们的研发成本啊嗯,好,我们分享就到这里。我OK,我我忽然想了一个非常这个大家其实讨论非常久的这个问题,就是关于开源和闭源的吧,就是这个可能在之前大家能认为是开源的模型,其实呃是永远赶不上这个必然的模型的啊吧,就是关于他的这个线,那其实在在这个今天,在这个今天,其实我也想把这个问题就抛给各位老师啊,大家其实都可以说,就是是不是说。
46:13
肺源模型永远是。最好的。啊,这个我我想这个请各位老师也也也也讲一下对这个事情的一个看法,好吧,要不这次我我把这个问题先抛给这个邵老师啊,你作为就是你可能你可你们比如说在做落地的时候,肯定是看源的模型也会用,对吧,可能是一些这个呃商业的模型肯定也会用的,对吧,我我理解会会是这样的一个配合的一个用的,对你怎么去看这个问题是吧,这个好像这个这个好像讨论还是蛮多的啊对,在其实在商业上来看的话,其实我们并不关注这个模型是开源还是闭的。我们其实最关注的是产品,然后产品的话最关注的是用户体验,所以只要这个模型或者是这个算法本身能够带来好的用户体验,那这是其实就是我们选择,无论他是开源还是闭源,无论是他要能花多少钱的这个这个这个这个。
47:02
这个前提啊,都没关系,但刚才您提到的一点就是说,呃,开源模型和闭源模型呢,它这个性能啊,它可能是有一个不一样的一个地方,其实我感觉这个可能不是一个单纯的因果关系。因为呃,单纯从技术本身来讲的话,碧园它是可以在短期内保持领先啊,如果是这个这个公司特别牛的话,它肯定是可以在短期内保持一定的领先性,呃,但我一直持有的一个观点就是说算法本身是没有壁垒,虽然我也做算法做了很多年,但壁垒主要的核心还是在于人,在于数据,在于生态,所以呃,其实我们看到这个我多讲一点吧,就包括我在最近也在读这个deep,他们整个公司的这样的一些访谈啊。其实我感觉到一个。很核心的一个点就是说,呃,这个患方为什么可以支持deep,为什么可以去自建集群,呃为什么能够聚集这样一批牛人一起把这个deep sick的系列,这个模型给开发出来,其实他们主要还是呃关乎于他们自己的这个企业文化和理念,还有他们的理想。其实梁文峰他自己在采访中,他其实谈过这个问题,呃当时他的观点就是说,呃在这样一些颠覆性技术到来的时候,必源形成的护城河其实是非常短暂的。
48:13
啊,他就举了一个例子啊,就是说即使是open AI源,他也没有办法去阻止别人赶超,但如果通过开源的话呢,就可以把价值去沉淀到他们公司的这个团队里面,去积累很多的去形成创新的组织和文化,从而形成这个公司的一个护城河,所以其实我们看到呃,Deep他这么愿意去开源,无论是说他的基座模型和参数啊,推理模型,还有他刚刚发布的这个多模态模型,呃,包括他把整个训练过程的各种细节也写在论文里面,其实它更多的是表明了一种态度,这样的话,我们其实也看到像这个。啊,欧美的这样一些团队,Getth hob上也有一个比较火的项目叫open r one嘛,就是他们是希望通过这个反推这个open r one整个推理模型的全过程来去把没有开源的这三部分补齐,一一部分就是说你用了什么什么特定的这个推理的数据集,第二个就是说,呃,那个那个你们这个模型的超参数啊,因为你没有发布任何的训练代码嘛,你这些超参数哪哪些效果最好,第三个呢,就是说我在计算和数据中间的这个权衡是什么,他们是其实是想现出这个全过程的,但这件事情在以往是不存在的,就是说呃,中国的这个技术基本上不会出现说别人欧美的,欧美国家的这技术人员要要复刻你的这个技术,所以到这个点来讲的话,我觉得deep其实已经在社区中具备了一个比较强的这样一个号召力了,这样的话呢,就会有源不断的高级人才愿意去为这个deep的这样一个生态呢,去贡献自己的一个技术力量,所以本身大模型的竞争就是人的竞争。
49:46
所以这个点的话呢,我觉得嗯我嗯,我觉得这个开源模型,尤其是deep sick的这种开源模型,有机会去击败这个GPD4啊,可能在未来的某一段时间,呃,保持这样一个中国的这样一个AI的一个领先性,这个是我的一个一个观点,对。
50:02
嗯嗯,OK, 那我我也把这个问题就抛给那个上个在学生界的老师啊,这个呃,谭老师您您您分享一下这个这个观点啊,就是您估计在学校校里面可能会说我理解可能会更愿意去拥抱一个开源的模型,对吧,那您是否认为必源的模型就一定会会会更好,嗯。嗯,其实这个问题,呃基本上呢,是一个非常明显的答案,那呃作为一个产品其实也好,还是作为一个算法也好,你开源其实肯定是比闭源好很多,为什么呢?因为嗯全世界的人才,嗯是那些怪才是实非常多的散布在全世界各个地方,总有人去发现我们那些别人发现不了的问题,总有人能去fix他的他些那些啊之间的中间的漏洞,包括这个呃他的一些这个启发一些新的思路出来,所以一定是呃会比那个地源肯定会好,对吧,但是确实之前呢,Open I在这个整个大模型之前的领先的这个步骤实在是太大了,对吧,那一开开源出来,一当时一发布出来,其实大家都没有去,反正没有想,其实完当然想了之后,你看后面这个紧跟,呃,无论是一开始的这个。
51:25
海模大战到后面千魔大战对吧,那这个整个整个来讲轰轰烈烈出来,所以欧POI本身来讲,它的压力是非常大的,但是我想我我我我相信呢,就是欧可能也会调整他的策略,未来去应对这样一个挑战,那回回总结一句话,我们作为学术来讲,肯定是希望这个开源出来,然后在我们有些很多地方去研究,然后更多的是我们,比如说我们平时界,我们想去研究,呃,人工智能里面一些基本的一些理论思想,然后或者然后再反馈到用到其他的领域里面去,这对我们来讲,呃,无论是学生的学习成本也好,还是我们去研究去去做这个这个呃进一步的研研发也好来讲,给我们提供了大量的方便,所以这块肯定是会更好的,那么从另外一方面,那么对产业界,刚刚邵老师也讲了很多,就是说呃,这个开源出来,有些技术来讲,我们原来可能会想到,但是没有把它做到,或者说有的地方我们可能有的办法更会更好,这个。
52:25
呃,无论是把别人拿来过来用,还是我们后面会再去再去再再做深化研研发,再做创新,我想这整个来讲会推动产业的落地,这方面肯定是会特别的友好的啊。对我就补充这些,嗯,诶赵老师有什么那看法,就是您应该,呃,貌似应该也是开源的,对吧,这个这个这个项目,嗯,就是您您认为这个。就是开源的会赶上,就他最终的那个最长的也会赶上这个这个闭园的嘛。呃,对,我肯定也支持开源,然后我我稍微先补充一点啊,就是为什么呃,他们愿意开源,一个是这个邵老师刚才讲两个峰那个采访,我说最后他其实是把这样一些经验沉淀到了人里边,沉淀到团队文化里边,我觉得这个高度还挺高的,呃再一个是刚才邱老师说的这个模型开源可能跟软件开源不太一样,但是权重开源之后其实还有一些啊,比如说数据,比如说训练细节,比如说这个部署,其实都是有很多,最近我们也看到了好多部署,其实好像不太,呃比起这个。
53:33
这个DPC的官方要差一些,包括在部署的时候也会找一些DPC的人去帮忙,我觉得这个说明这一点,呃,然后刚才说到一点,就是说那开源会不会不如闭源,我感觉比如就开源,其实我们可能要做通用,要做一些性能上的一些取舍,但你可以看这P,这个正是因为我在受限的资源下边做了这样一些优化,反而变成竞争力了。嗯,这是一个挺有意思的一个现象吧,如果从长远来看的话,我觉得。
54:02
呃,怎么去定义闭源和开源,好就这个好,怎么来定义,我这两条线一定会同时去发展下去,比如说这个闭源我们期待啊,我还给我们继续带来这个,比如说去挑战智能的一个上限,那其实开源的一个作用可能就更多的是来普惠大大众。更多的去应用,还有比如说有些场景里边,像一些安全的一些场景,像军用的话,他可能不太敢用开源。那可能我们民用的话就会更多的去用开点,所以我觉得这两条线呃,一并就是并行去发展下去,有它不同的一个一个定位吧。OK, 其实其实那个。刚才那个老师都都都提提到了这个,就是其实从从学世界大概率还是会都会拥抱去去看,就我们哎那个从。但是我想去演出,演出这个问题,大家其实最近这几天应该都有用这个D或者引出这个问题,但有没有发现他的不足的一个地方啊,这个这个我我把这个问题抛给邱老师吧,啊,刚才那个邱老师没有没有没有没有回答我就是有没有发现他,因为他这个。
55:10
不好的地方啊,再我们刚才说的这个很多很多很多好的地方,嗯。OK, 就是呃,我们呃团队也也测了一下这个像O啊或者呃RO或者像啊千万啊推出来的一些这种推理模型,然后。呃,我们发现就是啊,现在比如说像阿旺,他确实在很多方面做的非常好,但有一点好像还没有完全,呃,达到那个O,就是就是那个。就是test这种time的scaling,就是相当于比如说我们现在能够通过就所谓的那个强推理模型,就是说我希望通过这个增加推理的长度,然后能提升它的性能,然后啊,包括在O万的啊,不是说这阿万的报告里面,就是它也有,就是说我随着迭代的那个步骤的增加,然后它的推理的token会变得更长。
56:13
然后呃,我们去在很多任务上去测了一下,然后发现他其实。回答一个问题的这种正确率并不会随着它推理的长度的增加变得呃,准确率会更高,那他可能在一定程度上会就会出现波动了。啊,然后呃,所以这一点上我觉得还。啊,没有。小。那种做的特别好,然后。呃。所以就是我觉得在未来的开发当中,可能要使得这个东西可能变得更稳定,然后对于一些这种比如简单的问题,他可能在前两位就能够得到非常好的答案,复杂问题他应该能够表现出呃,我随着推理的这种呃。
57:07
长度的增加,然后它的性能应该会有继续提升,这是一点,然后另外一点就是。嗯,我觉得那个像,因为这个安里面它有一个,呃,尝试就是像搜索啊,搜索他觉得像。这个MCTS这种。啊,成本很高,然后很难king啊。但我觉得啊,搜索依然还是一个非常值得尝试的一个方向啊,就是啊,特别当我一个问题非常复杂的时候,如果有指导性的搜索会比一个啊完全自由探索的会更更有效啊,当然对这也是我个人的观点啊,嗯嗯,OOKOK, 行,那个这个问题我们就先不展开,我们看一下,就是我们我们我还继续去聊这个,今天我看了一下这个问题还是非常多的,我们可以聊的东西,OK, 好,那那其实我我我也的下一个问题就是。
58:10
呃D就是大家比较比较比较,就是说其实大家很多团队可以去布了,对吧,它的开源生的快速,它的开源生态快速过程当中正在重塑这种全球的AI的这个竞争对吧,就是这个过程其实也引入了这个很多这个中美之间的这样的一些就是竞争的这样的一些一些探讨,是比如说。那发展中国家是否能够就借助这样的一个模型,那实现这种算力数据的这个。呃,这个数据的一些突破这样算计和数据的壁垒,实现这个真正的这个技术评选这个问题,呃,我我我抛给呃,我抛给这个谭老师吧,嗯。哎,主主持人你好,哎是这样,这个问题确实我回答呢,就是感觉还很吃力啊,因为呃我但首先来讲就是deep sick开源对我们来讲,给了我们很大的一个希望,那个一个一个很大的希望,就是其实我们不用很多的算力也可以做这件事情,这是一个,但是我们我刚才说的这个算力来讲,跟deepb跟C新的训练模型这个这个尺度还是相差很相差很大,比如说我们是最近也是在做一些探索啊。
59:24
我们大概用这个四台800就可以做一点事情,这个这个是我觉得是是个一些希望,那当然我们如果说从零开始去做这件事情,我们还是不可能的。那么这是这是我说的第一个观点,那么第二个呢,就是说。我刚刚其实也提到了,就是说那么咱们DP里面在底层里面做了很多大量的工作。那我们我们来讲也觉得说这个地方还有很多的潜力可挖,那还有一个呢,我们面对一个不一个现实,就是我们现在确实缺乏这个。高性能的计算卡,那国产的卡卡呢,呃,有的勉强能跟上,但大部分我们去测试了一下,还是很困难,那这个deep这这样一这个这出来呢,我认为就是给国内的这个芯片厂商也是一个很大的信心,就未来我们把这个底层的这种优化和这个大模型的开发啊,两个结合起来,相互这个作用啊,那个因而因为这样的话,那新片厂就有动力了嘛,而且也有信心了,那我我觉得。
60:30
对加速我们芯片的研发也是有很大的一个,呃,很启发意义的,呃,我我就补充这两点,嗯,其实在各位各位专家知都都OKOK,我知道谢嗯,那我我我我继续往下去去去,因为就不要求这个所有老师都都都回回去了,因为我们今天想要聊的还蛮多,OK啊,那我继续这个这个问题,我我抛给那个抛给邵老师吧,这个其实偏这个行业应用的这个这个问题啊。比如说我问一下,就是在您关注的这个就是垂直领域啊,比如呃,垂直领域就是它的整个。
61:07
它的这种开源的模型是会有改变了他整个这种AI解决方案的一个开发的这种这种范式,能否能够说明它的这个这种模型及服务带来的一些这种创新啊,这个这个邵老师您应该是用这个大门型应该比较多的,你可以是呃,解答一下这个问题,嗯。对,其实其实嗯,虽然说这个在在整个媒体界引起了非常大的反响,但其实对我们公益界来讲的话,其实。呃,可能更多的是多了一种选择,其实呃,怎么说呢,就是给我们的希望,就是说他的提出的这种新的蒸馏模式啊,就是可以让小模型发挥更大的效果,呃,这个事情是我们看到的是非常好的这样的一个点,因为使用的这个合成数据来对小模型进行。那能够显著提升效果性的推理性,所以我们如果是论文的话呢,其实他在最后提到的是那个。
62:00
呃,通过他的RO去争那个蓝马和千问,他基本上各项指标都有比较大的一个提升了,所以这块对我们来讲是呃比较振奋人心的,因为之前的话,我们可能需要在自己的这个小模型上做各种各样的一个调优,那这样的话呢,其实我们可以通过一个质量比较高的这个base斯模型来去调教一个比较好的这样一个小模型,而且来,而且本身这个小模型在手机上,因为我们是在手机行业嘛,在手机上的限制是非常非常多的,因为大家主流使用的这个这个呃,苹果手机除外啊,主流使用的这个安卓手机基本上都是8个GB或者12GB的一个内存,对吧?那如果我能放一个3B的小模型在里面就已经万幸了,如果是想放一个7B的小模型,可能现在目前很难去实现,因为这里面牵扯到我还要给这个系统OS留这个空间,我还要给其他的应用流空间,我还要在呃运行的时候考虑到它的功耗,你比如说呃,我怎么样让一个一个小模型啊,又让一个diffusion model.啊,我可以给给他压缩到一个G以下来,放到内存里面,然后在我这个拍远郊的过程中,能够把这个相册啊,及时性的把这个照片给给给给调到一个非常好的一个一个一个效果,同时保证它的功耗不超过一定的值,那这里面的话呢,就有非常多的工程的trick要做,那最核心的一点就是说我能不能要一个小模型能发挥出同样的一个,比如说7B10B的这样一个性能,所以这个点来讲的话呢,对于我们。
63:21
对我们是一个非常非常大的一个利好,另外一点,其实刚才谭老师也讲到了,就是这个芯片问题啊,其实呃,其实刚才这个我我我想补充谭老师一点,就是这个FP8的这个混合精度训练,其实FP8的这个训练目前能够支持的也就是NV点的这些高端卡能够支持,然后我们中国的芯片的这个能力的话呢,其实目前还做不到这样的一个。一个一个一个程度啊,因为呃,因为前段前前两年我也是在投资行业,我们看到的一个非常大的一个问题,就是说中国现在在建很多的这个aidc aidc里面很多的呃,都在讲我们使用的国产的这个这个国产卡,但实际上来讲的话呢,其实大家用的都是H卡或者A卡。
64:02
就是可能可能现在目前比较有潜力的,大家看到的是910B和910C,华为的这个910C,但它也存在的这种这个生态,包括它整个的这个扩大生态竞争的这样一个问题,所以呃,对我们产业界来讲的话呢,就是。我们看到的一个希望就是在这种专用的推理片还是有很大的一个机会的,因为这块的话呢,就是说,呃,我们面对的是不同种类的一个任务,比如说这个是一种任,比如说这个写作是一种任务,比如说这个图是一种任务,这些任务它本身对于这个这些算的要求是不一样的。所以我们如何去呃设计这样一些专用推理芯片来和算法工程来配合来满足不同的任务啊,是今后要考虑的一个问题,因为资源降低了嘛,那硬件的话呢,可能有更大的一个空间,对这点是我们也看到的一个希望。对这个我我我还蛮有蛮有感受,我看到他应该就是微调了一个1.5B的啊,一该1.5B的,呃,就据说效果已经已经已经那个超过了之前的这种7B的这种这种这种呃,这种级别的这个模型,我觉得这个有可能会大大的去加速这个就是在端测的这样一些模型的这样的一个普及和应用吧,啊OK,那这个我这个。
65:21
因为呃。其他三个老师都是在在学世界,我我不确定在三位老师对这个问题有没有一些,有没有一些想补充的,就是有没有看到,呃,您所您所关注的一些一个垂直领域的有一些这个,呃,因为这种模型的这个这样的一个的这样的,呃万的这样的一个那个开源会带来一些这个。这种。整个这种这种模式的这种,呃,转变的这种案例,呃,其他老师,其他老师三位老师有什么想补充吗?这个想要听到你不同的这个视角看这个问题,嗯。
66:00
那我我快速补充一点啊,就是呃,就最近有一个说法叫这个。叫服务软件。就是因为我自己也在做一些产业化的一些东西,因为传统的话,我们做SaaS其实是一个标准化的,但现在我觉得这个这种成本比较低,然后性能比较强的模型开源之后,其实给我们做这种专有数据上面一些轻量化的部署。是指导性机会吧,也就是说不再需要去标准化的定制,而是面向具体的一个场景,面向一个生产力的一个具体场景去定制一个软件,或者定制一个微调一个模型,所以我觉得这个可能还是一个对各个领域都会有一些变化的一个去补充这一点。嗯,就是说可以为不同的这个不同的这个场景来去,呃,微调一个模型出来。我我这样理解对吧。嗯,OK.啊。好,我我继续问,我继续问那个问你问你一个问题,就是虽然那个。
67:03
就是开源模型其实降低了它的一个技术技术的门槛,所以大家其实呃,可以可以用这个DP是开源的一个模型来去部署,但企业落地人需要解决它的这种啊,这种私私有化部署一些领域适配的这问题,其实刚才那个上头其实已经已经已经Q到这个问题,已经讲到这个问题了,就还有一些这个领域适配的这样的一些问题啊,那我这里想想去追问一下,就是keep它的,呃,其实他也提供了一些这种轻量化的这种模型的这种方案,是否能够满足这种产业的需求了,这个离真正说我们要去落地的时候还是要做。呃,相关的一些一些工作。这个因为我因为我不太不太不太清楚他具体的工具链啊,我还是从他这个R万来说一下,呃,因为这个R万我们再去做微调的时候,可能跟之前这种SFT不太一样,是这个open也推的叫这个强化微调,但据我所知,他肯定没有推强化微调接口,像open那样,这个就会有一个问题,就是因为我们自己在去做这方面的一些研究,会发现如果我们自己去复现的话,因为我们不知道推理模型,呃,像像阿万的话,他干脆就没有思考过程。
68:08
所以但是我们在去微调这个一些呃领域的一些数据的时候,其实我们是需要这样一个它的思考过程,并且去需要设定一些搜索节点,所以我觉得这个可能呃,他需要去开放一个和它的模型适配的这样一个强化微调的一个接口。这个一页才能对应的去标注他自己的数据,另外就是就最近大家看这个deep research大说是未来写这个行业报告。行业报告的话,我觉得这个这个场景可能会比呃,现在大家说的说我给你一个选择题,给你一个判别式答案,这种微调要更有用,那如果是这种行业报告这种生成式的一个内容的话,我去做这个强化微调应该怎么做?因为我觉得这些可能都是还需要在技术上面去解决的,以及可能这个需要基于他们对于模型的理解去开放一些接口,才能真正把非模型的微调去做。
69:03
嗯。OK, 那这个问题我也抛给,呃,抛给这个邱老师啊诉那个邱老师也是在做这个,嗯,在做这个模型,模型的什么,比如说您认为就是这问题,比如说这个它。就是deep的,它是整套的店还还缺还缺哪些东西,嗯,好,那我我觉得就是你看现在阿万他用的大家希望用的最多的还是它的这个满血版模型,所以嗯,那他当然也发布了一些蒸馏模型,但是可能在某种场景上,大家还是希望能够啊去使用它的最强大的能力,那为什么大家希望用这个模型,是因为它能力好,能力好这个模型大之后,他在各方面啊都表现能力会更好1,呃,其中一个非常重要的就是promp engineering, 就是它可能会。能够更好的理解我们的problem,当然,如果一个微调模型,当然我们可以,呃,或者叫蒸馏模型。
70:04
呃,一个小的模型,它可能在一些特定的设置下会啊,表现的和大的模型差不多,但是它对通用的这种啊指令的理解能力啊。还是不如大模型,所以呃,如果假如说就是当我们的呃,这个部署的门槛会进一步降低的话,那当然可能有些工程性或系统性的优化,那么我们在下游的应用中,我觉得大部分的情况可能就会变成profit engineering, 嗯,然后那再加上那个搜索,我觉得搜索也很重要,就是。呃,包括现在阿邦也支持搜索,你可以发现就是呃,加上搜索之后,他的回答就那个水平就会非常非常高,所以呃,我觉得对的话也会如此,就是可能就是将来。
71:00
嗯,大家就之前大家都是说,哎,我带一个垂里,我拿领域数据加1,可能一个开源的小模型去ST一下,就变成一个领域模型。嗯,那那因为之前因为有其他的大的那种的那种模型也不开源,那安开源之后。呃。那其实很多时候就是我可以做私有化部署,但是加上一个有的搜索,加上一个这种提示工程,呃,某种程度上就已经是一个非常好的那种。呃,低成本的一个部署,一个一个私有化的部署方案,所以我我觉得啊,这个可能会成为主流,因为它相对来讲。啊,对那种开发人员或者那种要求会更低一些,嗯嗯,诶,这里我其实我引引入一个引入一个问题啊,就是其实我们比如呃,在看之前的在用用之前的开源模型的时候,我们往往就是说这个对他进行一些微调是吧,来一些数据什么的一些微调,那相对于一些这种。
72:06
呃,就是这种,呃就是阿万这种,就是它带有这种申请类的是吧,人人类的这样的模型,那是否说之前的那跳的这种微调的这种方法,或者呃,还还还继续的这个可以起作用啊,这个我不知道那个哪个老师,呃。谭老师您能这个介绍一下这个问题吧,嗯。就我们之前的那些微调的方法都还能复用到这种这种模型的上面吧,嗯,主持人好啊,我想微调的方法肯定是有用的,因为嗯,从客观上来讲。我们这对广大的用户来讲,我们不可能去训练一个基础模型,这是不可能的,成本太高,但是第二个呢,就是说我们在实际过程中,我们的很多业务跟基础模型其实很相关的,那我们来讲就是完,就是要把这个我们的这个。模型要跟我们的数据做这个对齐啊。
73:02
去做做element,那这个呃来讲呢,翻丘ing来讲还是。比较行之有道的有效的一个方法方案,那我们也是在像在这个像电网啊,像各种方面也做了一些相关的探索,嗯,其实发现来讲还是这个方向,还是一个比较,呃。应该是来讲,现在是比较现实的一个方案,嗯,当然未来啊,我我我大胆预测一下,可能在不久后的将来,我们可能基础模型也没有这么大,然后呢,可能我们的训练手段呢,也不是像现在一样有搞一个数据,然后从零开始训练,可能有更好的手段,那么这个时候在这个下游垂运领域,可能从呃,从某种用这种新的训练方式也有可能做得到,我觉得也可能做得到,但。另外一个问题就是与之相对的一个问题,就是我们这样做有没有必要?我觉得这个可能不同的单位,不同的领域来讲,可能有不一不一样的诉诉求,那如果未来技术成熟,那有一个有些单位或者有些应用确实需要重新再训练,那我觉得也是有可能的啊,当然总结来讲,我觉得目前来讲范丘ing啊。
74:11
这个包括adapt啊,Test啊,这都是呃,行之有效的方法。嗯,谢谢,嗯嗯,好好谢谢大师,哎,这个我我补充一点,对,我稍微补充一点啊,就是呃,因为还是回到强化微调那个问题,就推理模型的话,原来我们的数系统一的这个数据的话,是一个QA的格式,对,但现在这个推理模型其实是q ta.在这种情况底下的话,其实我们在这个微调的时候的设置就不一样了。你像open强化微调的时候,它的设定场景是我只提供领域的Q和A,这样的话就逼着我们必须要用RL方式的这个微调。你才能把中间cot去采样出来。另外一个点就是我感觉是也提供了一个机会吧,就是推理模型,其实我觉得有点像人啊,我们经常说让人去举一反三,但这个很难,这个人可能对于这样一个领域,他有一定的认知能力,或者有一定的推理能力,才有可能举一反三,所以之前我们用系统一的模型,没有这个能力,就只能SFP,是的,嗯,那现在的话,我们如果用推理模型做底座的话,就有可能用R的方式去实现类似人的这样一个举一反三,所以这个是为什么O强化微调,它只用了很少量的数字调的可以对吧,我我看他呃呃写的是几十条就可以做,做到一些领域的这个微调,嗯,对,所以我觉得这个推理模型和有CUT数据的,这样之后可能很多问题我们都要重新去思考,也是一些机会吧。
75:37
嗯,哎,这个赵老师有没有一些这个有没有一些思考,或者说您是不是也在企业落地,这种打算怎么来来来来去做,嗯,对这一点我可能想补充一个另外的例子,因为前两天刚好听了李明晨老师把里个李明晨老师讲的报告,他们是做蛋白质生成的,就是他举了一个例子,就是说他们用那个迪来做蛋白质生成是不好的,效果是不好,但是他发现了一个非常好的点,就是说他们的那个那个那个。
76:04
呃,就是那个定位向量的那个那个那个叫什么来着,就mia那个那个那个方法是非常对他们非常友好的,但但至少来讲的话,这个蛋白质生成去合成一个蛋白,它基本上都是错的,所以说呃,我的观点就是说在某一些特定的领域里面,我们还是需要非常好高质量的这种专家数据来去做这种传统的这样的一个发言啊,那这个专家数据基本上是来自于这个。呃,非常核心的,非常领域内非常顶尖的这样一些专家数据,所以这块我就简单补充一一个一一个点嘛,对,这正好是前两天听报告有个小的一个启发,那我们企业中来用的话呢,肯定是各种方法都会用,最后是保证这个产品的效果。OK, 其实这个还是一个,我觉得可能还是我们要要去去去看看,可能目前可能基于那种。就是呃呃非这种就是这个任模型的话,其实它整个微调的方案其实已经挺多了,那我目前其实还没有看到这种基于这个大的这种这种微调的这种这种方案太多的这个或者最佳实践出来的啊OK,那这个我也也也把这个问题抛出来,OK, 好那个我们继我们继续往继续往下去去。
77:17
的徐总,那其实也跟,呃,继续去回到这个,刚才其实我们是已经聊了一些开源啊这块的,那我们是。应一下,比如说那DP他可能也会有很大的这个,我不确定他们那个我们猜测一下,他们可能也会有一些这个商业压力啊,就是那他们在这种商业压力下就是啊,特别是给他坚持开源的一个考量是什么,但是不是说这个中国中国的这种AI的企业已经探索出来的这个。和这种OOKI完全不一样的这种技术的这种扩散的这种路径啊。这个这个要不这个老师您您您您先观察一下这个问题啊。
78:01
老师你好,没开麦,嗯。喂。哎,我知道,嗯。哦,好的,对,我觉得,嗯,这个是可能。我觉得还就是还完之后可能就是大家,嗯,在这个基本上,可能这种选择的多样性会。增加,然后呃,另外呢,就是说我感觉。嗯,就是现在的技术探索还远远不够啊,就是包括我们的。这个就比如说下面向下一代的这种这种模型啊。就是。其实探索还是很不不够的,就就因为训训练成本的原因啊,比如说我举个例子,像现在的这个,嗯。比如说像多摩肽啊,多摩肽就是就其实我们一直想做多摩肽,但是就发现其实就是你从头去设计一个新的架构,然后去从头去端到端去训一个这样的模型,就会成本非常非常高啊,那么所以我觉得呃,将来可能就是会在一个大的嗯基础模型的话,会有更多的这种微创新啊会出现,然后另外就是等到我觉得大的AI的发展可能还是。
79:33
等到下一轮的。呃,顺利的突破之后啊,这些。那种探索成本变得降低之后,然后再来一次这个啊爆发式增长,对。OK, 那呃,我我继续去追问一个问题啊,这个比如说就是呃,比如说这个还开开。就开放它的整个的这种这种报告,还包括那个那个模型,那这种对那个学术研究有什么特殊的一个价值,是否说在这个阶段可能有一些这种新的这种模型优化的方法,甚至说。
80:10
是不是有可能探索出来?就是跟创方不一样的这种这种这种架构出来,那这个也是想想抛给这个,呃,上面在在学术这个这个领域的这个这个老师啊。要不那个邱老师,你你也继续先先回答回答一下这个问题,嗯。对,就是包括那个像VV2 V3其实都做了一些这种微创,然后呃,那这些都是需要大量的尝试,从报告中其实是很难看出来他们之前做了哪些尝试,但是。啊,我觉得,嗯。应该可以想到,就成本应该非常非常高啊对,就是然后另外一个就是。啊。
81:01
关于这个未来创方面架构方面的创新啊,一方面就是他要为啊,后面的比如说多模态啊,以及交互啊这些去考虑,就它的新的特性,然后另外一方面呢,也要和这个。就是啊。底层的这个软硬件的结合啊,就是我要考虑这个系统架构是怎么样的,然后如何去做更好的这种。呃,比如说像硬件上,或者就是我们的这种系统级的这种优化啊,包括你设计模型的时候也要考虑下面,所以这也是我为什么我觉得啊,就是像保持一个。相对来讲啊。一个。啊,就是联动性比较强的一个团队是非常重要的,就不光是底层优化,上层的这个算法的更新啊,这个非常重要,嗯嗯,OK, 哎,这个问题那个尚老师可以,呃呃。
82:03
针对这个问题,这个说一下您的观点,嗯。呃,我觉得肯定是有有用吧,但是我觉得还不够有用,就是如果他能把他的训练细节,包括他的数据配比都比我们开放,因为这个是我们在学术界里边其实最可学的。呃,如果其实其实我说一下,除了这个我算法上我觉得我还是觉得对这个的贡献很大的,因为我们看真的很有意思,就O出来之后,大概我们做了一个统计啊,大概在前两个月所有的复工作都是学术界。我这个原因是因为之前预训练一个是可能GPT3,呃,之前GP33.5之前很多技术都是开源的,论文就出来了,所以大家对于预训练,包括摸索了这一年多,基本上清楚了。很多是一些工程细节了,可能没有太多的新的算法,但是到了后训练,特别用RL之后,一个是技术部对外发布了,第二个是因为后训练可能对于算力的要求没有预训练那么大。
83:07
所以我觉得这个是包括学术界,包括开源社区都很活跃,呃,我觉得个制的发布其实是在这样一个很象征性的一个时间啊,在这个过渡的一个节点上面,所以我觉得可能呃会未来学术界会更有信心啊,就是可能从那种粗放式,我们还可以做这种小而美的这种从算法上来去做一些事情。嗯。嗯,是。对,那我我我就是想想想继就那个,呃那个我再我再补充一句啊呃,主持人稍微我打断一你啊,你刚才说啊,这个强化微调打一个广告啊,其实我们其实是复现,我们是开源了一个强化微调的一个版本叫open r FT, 大家有兴趣的话可以在get上面搜一下。好的好的,嗯,感谢感谢张老师,嗯嗯嗯,那哎那个常老师,您您您可以分享一下您那个观点,那这个问题,嗯。
84:00
个那个问题是啊对,就是比如说他,呃,就是就是OI发布的那些这个开源的这些报告的形式,包括这个模型,他对于这个学术研究一就架构架构是吧,架构架构方面吧,是还有一些这种可能新的一些模型优化的方法。呃,甚至再再我们再往前去看,是不是,是不是说可能会有一些,呃,架构上面的一些这个新的可能性是吧?嗯。好,那谢谢主持人啊,就是那个肯定来讲,我们现在那个新的架构,呃,是我们整个学术界这个奋斗的一个非常大的一个方向,嗯,当然我们也看到像过去来讲有一些模型出来。包括像那个什么模型来着,呃,我那个一下子忘记忘忘记他名字了啊,但是我们也通过无论是通过理论也好,还是实验也发也好,我们发现呢,就是self attention base的这个模型呢,确实有它先天的一些优势啊,然后我们最近呢,也是从理论上去探索了一下,为什么就是self attention, 就是它以就是这种,尤其是解决大模型这个。
85:11
这个这个训练,包括这个大量的这个那个大数据的这个一个训练,这个self为什么一定会重要,111,为什么为什么一一定是重要的,这个情况我们做一些理论性,理论性的工作,呃,然后呢,我们也发现呢,就是说现在的这个self attention确实也是存在一些问题,比如说在做non context modeling的时候,其实它是存在是这个很很大的,包括无论从计算量来讲,还是从效率上,那个还是从我们的建模能力来讲,其实还是有很多的局限性,就是未来很多地方有很多可以提升的地方。但是更重要的,我想主持人刚才想问的就是说,我们能不能有没有一种可能,将来完全摆脱这个self attention based的这样一个transform这样这样一个架构,完全摆脱这样一个架构。呃,我们很期,就是我本人也很期待有这样的工作出现,但是目前来讲。
86:03
我们还没有看到这样一个迹象。但是我们也是希望就是说可能在未来几年啊,真的能够出现一个更加好的一个模型啊,能够说至少复杂度能够降低到线性,对吧,这是非常漂亮的降到线性,然后呢,又能够跟现有的这个模型能力匹配,甚至比现在的这个transformer模型架构更好。我我觉得会有希望啊,但是感觉我们从理论上也是做了一定的小小分析来讲,这个不容易啊,不容易。嗯嗯OOK,继续谢谢老那那我就那个这是。那我把这个问题那个那个先给到那个邵老,下一个问题给到邵老师啊,比如先我先Q一下,OK, 就是关于这个就是商业化的这个和开源那个问题啊,就是比如比如我们看就是那个D和开源和开源的。呃,开源了这个之后,那还有一个。那当然他也提供了API服务,对吧,就是它的这种API的服务,以及他也让你提供一些企业的这样的一些,这个可能有一些企业的支持的这样的一些服务,就是这种API和这种企业是否能够支撑它的整个的这种长期的这种发展啊一会。
87:15
或者说deep他短期内就就不考虑这些东西,他可能只会呃,会有一些其他的更大的一些生态的一些布局啊这个呃上老师你从新的角度上对这个事情有没有一些这个有没有一些一些看法,或者想要给分享,嗯。呃,对,关于这个问题,我可能要从投资的角度来来讲一下这个事情啊,因为本身来讲的话呢,其实我也看过他们早期的这样一些经历啊,就是那个梁文峰,其实早期也找过VC,但没找到,其实迪现在目前一直强调的是做原创性研究,是要去这个这个研究A探索A,那一定要给他们找个商业模式的话,可能现在还是找不到的,就包括他的API的这个收费,我觉得是支撑不了他。企业的这样一个开销的,因为本身来讲的话,这个这个商业模式在回报上就不划算,因为因为基础研究这件事儿,它的RO是很低的,呃,我们可以去A人是术人,真正去探索一件,其实这个跟我们在之前在做投资的时候,这个理念是一致的,就是我们要找到一帮啊有热情,有理想,有能力的人去把这个事儿给做成,那未来可能会有一定的商业模式,比如说deep成为一个公开的底座,那么各个不同的商业公司跟他去这个合作,呃,那就可以在呃,这个不同的这个APP,或者是不同的硬件上面去低成本的用上这些大模型,而不是把这些技术只掌握在一部分的这个公司或者是。
88:43
呃,或者是人的手中去形成一个垄断,那这件事情呢,在国内的话呢,其实有很多阻碍啊,我觉得这个呃能走到今天,其实它是有一定的这个前提条件的,因为本身来讲的话,呃,无论是这个你像这个之前我们讲的这个大模型的五湖也好,还是说之前的这个商汤,那那那一波四小龙也好,其实技术创公司一般要拿VC的钱都很难,在中国。
89:07
因为中国的这个V基本上不成立,就是说我拿到钱,我一定要求你是快速商业化的,我我要我要让这个这个这个创始人跟我签对赌协议,我其实是没有一个耐心资本去愿意等你10年,所以这里面的话呢,其实呃,DP的一个最大的好处就是说换方是他的出资人之一,它有非常充足的研发预算,那么。呃,不,不需要考虑任何的这个退出,也不需要考虑说我有任何的一个商业化,所以呢,这就是按照deep sick他们自己的这个这个理念嘛,他可以优先,呃重点去做这个研究,而不是说我从这个VC里面去拿到多少融资,所以我们现在去谈这个商业模式的话呢,可能可能还并不存在。OK, 感谢那个开好,嗯嗯,哎,那个其实我我也想去问一下,就那个邱老师,因为邱老师应该也是在做一些这个开源啊,包括在尚老师应该刚才提到也做了一个叫,呃,那就是从从你们的角度来看,比如说这个开源的话。
90:10
呃,就是比如看这他们可能将来的一些这种可能的一些商业模式有可能是怎样的,嗯,就是有没有你有没有一些端倪吧,嗯,那除了说他追求的那个A之外,就成了之后那确实可能会。对吧,会被造福这个人的很很很多。当然那。那目前来看的话,是不是有可能看到一些商业化的这个这个路径。赵老师你你你说一下你的,呃,这个我我目前也很难回答大模型,我总体上我觉得就是嗯,就包括去年的时候,很多人会说这个呃大模型就很难落地啊,或者呃一时看不到进展,但我感觉就是他处于一个。啊,爆发的前夜,就是包括嗯,就是现在大家都在摸索,然后他他如何更好的去做那个。
91:09
呃,应用,但是你会发现有几个迹象,一个迹象就是说。嗯,其实在很多,比如说我们原来用的传统的记忆学习啊,或者等等很多的这种系统,特别像大厂的,它后面其实逐渐都换成了这种大模型。啊就是啊,而不再是啊,比如说以前的单一一个任务,然后训练一个单一的模型啊,它逐渐就在替换,然后在很多的比如说啊下游应用的时候啊,大家也会发现哎,我用大模型它的这个成本,那即使比如说我用垂的东西去做翻tuning,然后那么拿一个开源的模型,然后去翻进它,它的这种开发成本,呃也也会比这个,那比如说我我从头去训练一个这种模型,它的啊成本会更低,或者就是研发的成本,就是人力投入啊,这都算上的,这种成本会更低。
92:10
所以所以就是说他应该是在慢慢的这个渐进的去,去替代掉原来的很多的AI的系统啊,所以我所以我觉得就是爆发。呃,或者就是。处于一个前夜,就是它它最终会会四面开花的应用,然后其中开源是一个非常重要的东西,因为啊不是所有的呃人他都都呃都都会把数据放到比如说API调用啊或者之类的,所以他一定有呃定制化或者这种,然后通过一家公司来去做这些事儿,呃应该是非常难的,那所以开源可以促进整个的这种落地生态这种这种啊进展,然后如果有一个非常强的像阿万的模型的话,就会变得更好,阿万呃唯一的缺点就是有点太大了,就是导致会啊下游部署的时候会会困难一些,但是我相信因为它开源,所以后面一定会有非常多的这种啊加速推推推理啊,或者这种量化的方案出来,然后帮他们更好的去落地,嗯。
93:22
OK, 那个张老师对这个问题有什么看法,我看您也这个刚才提到您的这个团队也也开表了一个open s FT是吧,我没听错的话,是是这样一个,呃,这样一个项目,嗯,对这个因因为我们做开源就完全是不是为了盈利的,是自己拿着自己的项目经费,但是我觉得可能现在就去看一下Meta吧。嗯,但可能有一点不太一样,像刚才邵老师说了,他,他背后虽然有患方,我不知道患方体量多大,麦A现在是可以靠着自己的社交业务来去养他。包括之前谷歌其实在做安卓的时候,最开始不盈利,它也是靠搜索养的了。
94:01
对,所以我觉得可能他现在下一步是不是需要给融资了,也就是他现在可能做出一个2万这样一个模型可以,但是后边想用它去盈利的话,肯定需要去构建一个生态,甚至是标准。这个我觉得是有潜力的,因为咱们中国还是不管是开发者还是应用场景还是有优势的,所以如果他真的先能从国内把标准和生态建起来的话,我觉得还是很有潜力的。OK啊,感谢那个张老师,嗯,哎,那个谭老师有没有要补充的,我看您那个坦白的补充一点啊,就是刚刚是讲的这个商业化了,我们也一直在思考,就是说这个其实现在很多人一包括这个很多人就是一直在,呃,在D4AI,就是以前DCAI,因为直到目前为止,大家没有看到这个AI这么火,但是没有看到AI真的产生实在的价值。这个不,这个当时只是说以前我们做这个C好,做这个computer啊,或者等等等之类的这样的批评,不久于耳,对吧,所以这个这个就是这个盈利来讲,始终是社会的一个呃,一个关切,但是。
95:09
我们从另一方面讲,那么社会的需求是不是真的是说一定是投资一块钱,我变成2块钱这样一个逻辑呢?那明显来讲,像美国的这个搞法子来讲,他可能不是用这样一种方式去做这种说啊,我们原来是说我投入两块一块钱,收入两块这种模式,它完全是从这样一种形式,呃,这个投入进来之后呢,它把它作为一种这种金融的工具也好,或者说其他的这样一个,呃。一个一个引领世界啊,去风风潮的这样一个一个东西东西也好,他在这种情况下去强调它整体的这个,这个在在全世界的这样一个领先的位置啊,那么以此带动像比如说它的各种其他的像芯片啊,还有这个无人驾驶,还有等等其他的一些产业的发展,那其实我其实我是觉得。
96:01
可能这也是对于这个现在美国这样大体量的国家,哎,我们中国这样大的国家,其实真的可能要在这种科技高端的这种竞争的时候,可能真的要呃,要要要要去可能去去部分摆脱这种我投入产出这样一种思维,那另外一个呢,就是这个时代决定呢。可能我们未来啊,可能就是说在这种竞争这种态势下面。可能我们有时候是不需要,呃,就是要不计它的投入产出来去推动我们在某一方面的技术上的一个领先,可能这个代价呃对于中国来讲,我们可能呃说投资人可能承担不了,但也许我们的啊government啊,就是政府他可能会来来来来去来去考虑这方面事情,但这个已经超越了我我我我所能理解的范畴啊,这是第一个,那么第二个就是回应到刚刚邵老师,我觉得这个提的这个问题非常好,就是说但是我我就在想一个问题啊,就有没有可能像deep sick这样一个工具出这个事情出来以后,我们未来的投资人。
97:08
会啊。改变这现在的这样一个有一种模模式的一个契机啊,模式契机,然后会跟啊像这个这个美国这边啊部分的靠拢这一种有没有这种可能性啊,但我相信这个很难,因为美国其实是全世界收割嘛,他这个这个这个它的模式它已经很成熟了,那我们中国随着国内的这个强大也好,或者随着这个呃这个世世界的这个个这个呃,世界上这个这个国际化的趋势不断的加快也好,呃加快也好,会不会有这样一种趋势,我倒是想,呃想想想提这样一个问题啊,我当然搞不明白这个事情啊,嗯。就把这个问题抛给这个邵老师,老师,我们可以可以线下多交流,因为本我就我就简单回应一下,因为本身来讲,中美的这个VC这个圈子是不太一样的,因为嗯呃,中国的这些VC的钱它来自于LP。
98:03
LP会这个VC机构有力要求年之出,所以的话呢,LP压力那个会传导初公司上面去,所以我就会要求这个初创公司7年这个回报,所以这个事情可以接下来下来跟谭老师这深度聊一下,多提待我们这多其实我们也,其实我们也期待有有更多的这个这个可以投向这种技术创新上的一些这个这个VC吧,大家都期待这样,OK, 现在政府其实也有行动了,其实包括上海,深圳,北京,杭州,其实都有一些大的政府基金在在投这些创新,我觉得这是个好事情,对。嗯,是的是的啊,非常期待,OK, 那那个那咱们也继续做一些这个未来的这个这个展望啊,就是我们从现在这个,呃,这个时间点看,就比如说从啊,那这这个他做了很多这个。这样的一个呃架构的一些一些创新,甚至说呃,甚至说就证明了这种这种强化学习的,有这种开然的这种强化学习的这种这种模型的出现,那那我们看一下那个他就不是未来可能向哪些方向去突破,以及是否可以通过这种全网企或者世界模型的那个是实现这种能力的,这种智力的这种质变吧,大家可能还是希望能看到那个下一个。
99:21
呃,更聪明的这样的,甚至说我们可简单的称为AG吧,啊这个这个大家可能追求的那个那个目标啊,那又把这个这个问题就是它其实是两个问题啊,一个是说可能啊,这不是个他未来的这个可能在哪些方向突破,另外一个是否跟种开发可以引导这个智能的这个质变啊,这个我我觉得我先抛给老师吧,啊这个问题,嗯。大家都可以参考一下,嗯,啊对就是对,其实刚才邱老师提到了一点,还是邱老师是吧。啊,就是你先说没听见你先来,你先来啊好。啊对,那我就先抛张一句,刚才邱老师其实说到一点,就是关于test timeing和搜索的一个问题,这个这个其其实R最后论文里面也提到了几点他们要做的事情,但结合这两天这个在在包不不管是operator还是deep deep research, 就是后边大家都说今年是的年啊。
100:16
我觉得他自己也承认,他其实两个能力,一个是长沙雅文,一个是这个工具使用,这两个能力都是不足的,所以现在他刷的其实还是一些竞赛的一些榜单,像现在大家更关注的其实一些项目级的,像S这种比赛,嗯,我觉得这个肯定是要增强的,然后除此之外,我还是想说他这个,呃,刚才这个邱老师也说了这个数搜索。这个还有一个就是过程监督,我觉得这个东西还是有用的,呃,他现在用不用过程监督的方式在大规模IO上面跑出来了,但并不表明库程监督和数就没有用。呃,我打一个比方啊,就是去比较一下监督学习和RL,还有这个过程,监督RL,我觉得监督学习有点像这个,我们通识教育里面,它是有标准答案的。
101:03
而且它是面向专有的能力去训练的,但是当我们想训一个通用能力的时候,或者说我没法一个一个任务去交给他,或者有些任务没有标准答案的时候,你就要用RL,我觉得RL里边有点像这个研究生导师,那个研究生导师他也不知道答案,但是他有经验,他可以给你这个反馈,给你这个奖励。那进一步,这个导师给你出了一个题之后,如果我说开了题之后,到了答辩的时候,我才来给你奖励,这个导师是不负责任的,所以希望一个负责任的导师的话,其实就是有过程奖励。所以我感觉从原理上边数搜索跟。过程讲过程监督一定是有用的,那这里面其实也牵扯出一个问题,就是如果要推理模型,做数搜索,特别是一些实际问题的话,刚才主持人也提到这个世界模型啊,就是我们现在也在尝试往这个方向去做,就是它跟阿尔法go不太一样,阿尔法go它在搜索的时候,我们说搜索完之后,它是需要了解状态更新的,才能往下去搜索。阿尔法狗里边的世界模型,它是由围棋围这个游戏的规则已经写好了。
102:04
对,他知道我下一个组之后,他后面专态更新怎么样,包括数学跟编程,他的世界模型可以认为也是在LM里面已经内置了,但是未来比如说像如果我要去搜索工具调用,甚至是一些真实世界一些场景要要做推理的话。这个世界模型是未知的,所以可能未来把推理模型用在更广泛的,特别一些物理世界一些场景里面,我觉得把世界模型加进去可能是必要的。对于大概是中等。嗯嗯,哎,那个哎对,感谢那个张老师分享,那个夏老师有没有聊有分享的,嗯。啊,对,我我我说一点就是说,嗯,对就是。如果要实现A的话,其实他下一步还是要往除了这些能够有明确的reward的这种环境,然后迁移到啊,一些没有明确目标的这种环境,那么在正确环境下,呃,如何去呃做强化学习就变得是一个嗯,就非常重要的课题,包括就是说我的推理能力如何泛化到更广泛的领域。
103:16
呃,我我阿曼的一个,呃,他我觉得他表现非常好的一点就是他有些时候就是他的推理,推理能力好像看起来是对他的那种写作能力是有帮助的。就是他可以写出更加那种有逻辑的,然后更加有深度的这种文章,所以嗯,但有的时候他也会呃有点过度,就是呃,就是比如说他会故意用一些很高深的这种词,然后来去类似于炫技或者之类的东西,呃有有种程度上可能是这种reward的hacking,但是。但总体上就是它体现出有一定的这种泛化能力,就那么如何把这种泛化能力迁移到更广泛的领域啊,我觉得就是一个,呃,要要。
104:04
研究的一个课题,然后。嗯,还有一个就是,呃,比如说像O现在不是在后面推出了这个deep research对吧,就是对他,比如说如果在更长时间的这种推理,然后加上。加上这个很稀疏的reward啊,那么在这个环境下如何去做这个,呃,模型的这种训练依然是还是啊,很有挑战性的对。啊,那当然有一个就是包括比如说openr,为什么要他们提当时要做什么sor或者我,呃,我感觉就是他们是处于他们这个word model的一部分,就是那么比如说我如果没有啊这种环境反馈的话,那么是不是构建一个世界模型,然后由他来。去给更好,给更足够的这个reward的,给到我们训练这个agent啊,可能也是呃,下一步的一个研究的方向,嗯嗯。
105:13
哎,好嘞,行,感谢邱那个,哎,他那有没有要要补充的吗?嗯。唐老师啊,就一个呢,就是说啊。首先来讲,确实架构方面觉得还他肯定肯定会继续探索,也更好一个架构,那那另外一个呢,就是我想这个训练方式,刚刚那几位老师也提到,其实还有很大的空间,我觉得各种方向我可能不见得有说。很终极的训练方案,就一个方案一定比其他方案好,我觉得百百花齐,百花齐放的这种训练方式,呃,未来是一定会出现的,这是一个,另外一个呢,在动模态这方面呢,呃,现在起,呃肯定就是说未来肯定是一个很重要的方向,因为在很多的下一个领域应用里,域应用领域里面,我们需要对这个像表格呀,像这个图像啊。
106:04
包括像这个行业的这个数据,还有这个各种各种信号数据进行分析,这块我想也是给我们,呃也这个学界研究也是有一些很大的空间,所以这个不仅仅是DC的问题,我觉得是整个整个人工智能的问题啊,我就补充这些,谢谢老师的,嗯嗯嗯嗯,范老师有没有有什么要要补充的,就是那个关于这个技术演练路线这个下。对,可是从我的角度来讲,可能有几个点吧,因为刚才那个几位老师也谈到了一个泛化迁移,还有一个就多模态。呃,我觉得架构创新上,可能我比较关注的是一个未来可能会有一个新的模型架构啊,因为。呃,大家可能都知道有一个推理的不可能三角嘛,一个就是准确度高啊,速度快,空间占用低,这是一个不可能三角,所以现在目前我们看到的推理成本其实还是on的平方。那我们可能期待着在未来的两到三年吧,能看到这个N×N的这个这个复杂度吧,那在未来可能五年更长的时间,我们期待有一种颠覆transform的这样一个架构,新的架构,它具备这个线性复杂度的这样一个新的架构出现,这个是可能我们工业界也非常期待能看到的这样的一个架构啊。
107:15
另外一块可能就是讲一下数据吧,因为刚才其实各位老师也提到了这个合成数据的一个威力啊,其实我们如果看这个1月29号他们发的这个纳斯这个模型,这里面还是有很多值得我们去借鉴的地方,它。使用了,好像我不记,没记错的话,是7200万张的这个合成的这个数据是合成数据和真实数据的比例是1:1,所以无论是R万还是V3,还是这个加纳,都证明了其实这个合成数据的一个威力啊,而且呃,刚才刘老师也提到了,说我们现在要讲强化学习世界模型,这里面很重要的一点就是我怎么能让大模型,我们现实的真实环境进行交互。那这里面的话呢,就可能提到了一个新的概念,就是居身智能,那军人智能这块儿,他现在的问题也是在于说我没有数据,那没有数据的那一个一个比较好的一个解决办法,就是说我有没有好的这种合成数据的这个这个生成的这个方法,来去弥补我们现在缺乏真实物理环境数据的这样一个问题,那这块的话呢,其实我们也看到很多的这个学者,包括。
108:17
啊,国内的一些初创公司,你包括像这个语数啊,银河通用啊,他们也做了非常多的工作啊,其实这块我们也是期待,呃,无论说今年是I的远景也好,还是聚生智能远景也好,呃,有一个比较大的一个突破吧,对,我就补充一题。好的老师。OK, 那这个这个这个我觉得可以展开讨论,还有很多啊,因为这个呃,我我稍微的稍微等一下,我觉得。在呃两三年以前啊,在在在之前其实大家是去讨论这个AJ是吧,这个何时能够到来,有人有的人给的是二七年是吧,我他现在有没有还记不记,记得些数据,有的给的是什么30年,有的可人可能给的是50年是吧,那那到现那到现在那可能这个。
109:02
呃,这个这个数据还是不是那么那么确定,但是我觉得可能将还是按照现在的这个发展下去的话,还是我们还是希望我能能够看到的,能够看到那个那个就是可能接近一点,或者是怎么样的一个一个状态,OKOK, 那我我继续我们我们继续那个就是就是其实我我觉得open那个deep这这轮火其实还是。还有一个一方面原因,其实就是有一个一个它是一个对吧,一个中国的这样的一个AI的一个一个崛起吧,是吧,他不只是一个单纯的跟随者了,可能我们之前都是。呃,这个open AI或者是Google是吧,发布一个什么模型,我们呃国中国吧,国内那更多其实是跟随,然后去研究他们怎么去做的,那可能从从这个D的这个呃R这个出来之后,那可能就不是一个呃一个简单的一个便携者,对吧,甚至说在某些层面上其实已经。可能半只脚吧,可能走在走在这个这个前面了,是吧,那是不是说,呃,已经这样的一个一个趋势,已经是一个很很确定了,说中国真的是可以这个就是来参与这个制定这样规则的这样的一个一个状态了,是吧,还是说就是以及后面就是他的开源的这个这个生态如何影响,就是中美的这样的一个中国和美国的这样的一个竞争以及合作的这样的一个关系。
110:20
这个我我想大家大家可能都多多少少的能够看到一些这样的一些分享或者一些讨论啊,这个要不我也把这个问题先抛给呃孙老师吧,这个呃。我看您您现在是开麦的状态,嗯。哎,呃,这个这问题比较大,然后注1就说一点吧,我觉得最近大家可能有点太自豪了,就就是当然我们也看到这个事情,呃,这这个这个事情是怎么说呢,是是必然的,就是因为因为openi他在前面给我们看到的这个技术的一个可能性嘛,所以咱中国人都很聪明嘛,我觉得不光是像最近包括minimax。
111:00
呃,他提的这个线性注意力,包括刚签问这个2.5max,其实也提了一个新的一个MMOE,其实还有同期发布的是K1.5。里面也有很多技术细节,其实都是有创新的。我觉得这个。呃,就是不光是DC的一家,我觉得现在是应该是百花齐放了,但是说是不是一个一个引领者,或者是一个,我觉得还不到。这个首先是第open I已经给我们趟出来这条路,证明是可行的,然后我们才去解这个谜,然后另外是我们可以看,呃,现在,呃,Open也好,Ical也好,谷歌也好,他还是在去引领这个方向。呃,包括其实今年在布局的这个agent。而且他他其实是在首先它是在持续的基础模型上面就在去创新,而且现在他已经明确到第三层A镇的。然后以及ici rock最近其实比较关注coding,也在关注agent,他提了一个,其实agent的一个工具使用了一个协议,叫呃模型上下文,对对,那包括我们说谷歌像静曼的,从呃,从这个阿尔法系列之后一直就在做3。
112:10
所以我感觉在这些方面,我觉得这个才是我们需要需要去学习的,嗯嗯,OK, 尚老师这个点比较好,因为我我我我我在做这个,我也会担心大家是过分的这个这个因为我我有时候在在群里面参与一些讨论的时候,大家其实有可能会还是把这个这个热情就提的很高,是吧,这个OK,那这个我我也把这个问题去去抛给这个,这个邱老师啊,你怎么看这个问题?那是不是说我们真的,呃这个我还比较关注的,我我碰一个另外一个问题就是我们我们太关注,可能有些伙伴会去关注,就是他其实还有一个就是呃zero是吧,这个这些大家其实讨论并不是多,那他确实可能跟他还不是完全一样,对吧,但是他不是那么成熟,但是可能去去有一个这个不同的这个呃对吧,就是想要探索一一些出一些不同的一个东西了,是吧。
113:05
那就是您可不可以结合这样的一些,呃一些事情来去,呃,这个回答一下我我刚才提的那个问题吧,嗯。嗯嗯,就是我觉得对于AI的发展来讲,就是有几个,我觉得可能要有几个。嗯,就是principles上面的这些原则,就是人家open给。一大家的一个最大的启发就是啊,我通过这个规模的扩张就可以啊,某种程度上实现啊,非常强大的智能。那么问题在于,就是说你是不是可以坚持这个方向啊,一直往下去走啊,然后他不不需要,比如说我们非常精细的标注或者啊等等,就是通过啊,非常大的这个模型的扩张数据,数据的扩张,那么如果假如说呃,我们坚信这条路的话,呃,有点类似于就是之前那个Richard沙说的这个。
114:08
就是搜索和啊学习的这种规模化的,或者就是最终展现到这个算力的这种啊突破上。那如果我们这一点的话,呃,其实我们是可以慢慢的去。整个的这种大的API的方向上去,能够从一个追随者变成一个呃领先者,但问题就是说你要坚信,因为。因为这个时候,假如说我们现在是啊,刚才商老师也讲到,就是现在这个阶段还是说O有了,所以我们认为这条路能走通了,所以我可以不计一切的往下去涨,那么现在比如说当你假如说当你跟上了O,那么你是不是愿意把钱继续往下涨,就是继续去做这种scaling的东西,那么这个就变成一个。
115:01
啊,非常考验人的一个问题,对,嗯,是OK,好的那个,诶谭老师要分享,嗯。哎,主持人你好,哎,我其实呃刚刚非常同意那个赞同三老师的这个这个观点啊,就是呃,这个deeppick确实给了我们很多的这个鼓励,很多的惊喜,也我让我们看到很多的空间,这个无可非议,但是说我们去引领,我觉得这个言之过早,这是首先第一个。另外一个呢,就是说我们现在这个宣传确实,呃,我觉得有很多的是非常客观的这个宣传,但有很多的是宣传可能是有一些。可能一些自媒体也好,或者这宣传可能有过多的夸大的部分,甚至把那个技术跟我们整个国家去域一定上升的国家这个阶层次,我认为这些可能不是特别合适,因为呃,我我我我讲一点,你比如说我们现在如果说完全没有卡,没有没有这个这个这个这个卡的话,你怎么去训练啊,我们现在国产卡,其实现在还是还是没有办法来跟上,对吧,这实事求是的来讲,这是一个,另外一个呢,就是说其实这个我们认为就是说现在这个通用人工智能目前是迎来一个比较好的一个时代,那大家都可以去做,然后呢,一起去突破,都有自己可以做的事情,但是这一个点是不是一定得上升到很高的那种高度,嗯,我我讲这个可能不合时宜啊,但是我觉得这点可能要冷静,那做基础来讲,我们一直在做这这这个科研来讲,我们还是希望说更加客观一点,我相信这一点就是包括deep的。
116:49
这些,呃,这个内部的人估计也是也会不也会不是对这种过度的宣传,也不会说特别的,这个赞同我我在我猜想对,所以我觉得还是冷静,然后还是多做点事情,嗯嗯,谢谢,OK, 嗯,感谢感谢那个感谢上头有没有要补充的,嗯。
117:09
对,我我感觉我从产业中来啊,我还是持这个谨慎乐观,当然乐观就在于说我们第一次看到中国公司有能力跻身于世界一流啊,谨慎的态度就是说呢,就是刚才我举的那个内燃机的这个例子一样,就是美国,他虽然说我们看起来是粗放型的,但并不是说做不了。就在今天晚上吧,李菲菲他们团队刚刚发布了那个一,我看了一下他们的那个报道啊,就是说他用了1000个样本,16块的H100,应该是半个小时不到50美金就做出来一个推理模型,就在那个那个Google的gemini上面馏了一个这个这个推理模型它是可以媲美2万的,所以呢,这个讲一个一个不恰当的例子,就是说,呃,解放军之前一直讲的就是说我穷。则战术穿插负责火力覆盖,对吧,我们现在是因为穷,所以我们在这个卡的资源有限,各种算力资源有限的情况之下,我们用了很多的trick去把这个事情工程化做到极致,来达到一个比较好的一个效果,但是假设说我们有了足够的卡,其实我们也愿意去,呃,把这个火力覆盖的这个这个更更猛一点,所以我们相信说美国企业也可以通过这样一些方法快速的优化到这样的一个不同,呃,这个好的一个程度啊,但呃,刚才谭老师讲的也很对啊,有一点就是说,像这个我们刚才也提到FP8的训练,他们可能还是需要在H100 H800这些最新的NV卡上面去进行。
118:33
那至少我们看到了一个苗头,就是在在技术创新上面,中国还是有能力在这个世界一流,跟这跟这些世界一流的公司在在在对话的,因为中国不可能永远是黑色。总是要有人去站在这个技术前沿,所以deep就是现在能够去代表我们中国的这些大模型公司,站在这个技术前沿做创新的公司之一,这个是给我们信心的一个最大的一个一个点吧。OK, 补充一点,嗯嗯,好的好的,感谢那个,感谢这个这个。
119:05
各位那个,呃,各位老师的这个精彩的这个分享啊,我觉得和其实我看了一下这个时间,我们其实已经聊了两个两个小时了,就是这个我们今天的那个账,嗯。就是我们今天就就先到这里,就是和就实和还是还还有好多问题啊,就是想和那个各位老师长,包括这个agent'对吧,可能也有老师提到的agent的,包括其实我也体验了一下这个,呃,Open AI他们刚推出了那个open设,就是效果还是蛮。效果还是蛮蛮惊艳啊,对这些这些问题,我觉得后面我们还还可以继续的去掉,OK, 那就是。包括我们还要回到我们现在这个主题啊,就是对于这个第四deep未来我们相信这个我们的对吧,在座的包括在直播间的这个都非常的这个啊,都非常的这个期待,也希望国内的这个大模型的就是能够在。呃,能够在今年甚至说后面能持续的给我们带来更多的一个惊喜啊,OK, 那这个行,那最后我也稍微的去做这个小小的一个一个广告啊,就是目前这个腾讯云的它的这个高性能应用服务和这个台湾目前都已经支持了TPC的这个一键部署啊,大家可以在我们那个直播间的那个左下角啊,有一个二维码,大家可以去啊扫码可以体验,另外的话,我们也建立了这种啊皮B的交流群啊,大家可以在在群里面可以起交流这个AI的发展,也能收到更多的这个行业内资讯,与更多的这个专家进行交流。
120:30
啊,最后感谢各位这个老师的时间也赶上,也感谢各位这个线上观众的那个持续关注,那个和大家预告一下,我们接下来的这个1~2周里呢,我们还有更多的这个,呃,就是还有其他的技术领域的一个探讨的直播。啊,欢迎大家可以扫码我们屏幕上的二维码啊,都关注我们的TVP的这个公众号视频号,嗯,我和这个,呃,谢谢你们的这个持续的收看,OK, 那今天要不我们就先到这里,谢谢呃,谢谢四位老师,要不四位老师给给大家这个在家这个这个好谢谢谢刘老师,好好谢谢再见再见,嗯,好的这个。
我来说两句