首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

漫谈 | 同是北大的学生,考研进北大和高考进北大,差距很大吗?

同是“北京大学”的学生,考研进北大和高考进北大,差距很大吗?我的答案是,差距确实很大!...我本科非北大,研究生保送进入北大的,我从自己身边的几个案例来跟大家分享一下被那些”高考进北大“的学神碾压是什么感觉。本文涉及人物均为真实案例。...到了大学,听说J选修了北大的经济学双学位,后来研究生来了北大才知道,经济学双学位在北大尽人皆知,号称三俗之一,几乎所有人都会选修,每年招收近千人。...W和L是我来到北大后认识的朋友,也都选修了“经双”,W本科是北大物理专业,本科毕业是本专业前几,研究生直接保送到了北大光华管理学院。...同在北大 差距很大 同是北大的学生,考研进北大和高考进北大,差距很大吗?我个人感觉确实有一些差距。这些高考进北大的尖子生,不只会高考,也经常不务正业,结果玩着玩着,就玩出了一些名堂。

61410

北大邹月娴:视觉-语言预训练模型演进及应用

本次演讲分为4个部分:背景介绍、视觉-语言预训练模型、视觉-语言预训练模型及应用研究以及未来展望。...因此,大脑这种“视觉参与听觉感知”的机制、“视觉概念与语言概念一致性”的认知机制是我们机器学习采取多模态预训练模型的可靠性依据之一。 “视觉-语言模型”开发是否可行?...在大量数据源的加持下,视觉-语言预训练模型也成了2021年的研究热点。 视觉-语言,英文名称是“Vision and Language,VL”。...视觉输入为 Region-of- Interests(Rols)或者 Patches,缺失全局或者其他高级视觉语义信息; 3.大多采用的代理任务是BLM(双向语言模型)、S2SLM(单向语言模型)、ISPR...因此,已提出的视觉-语言预训练模型更适合迁移到下游分类任务,例如VQA。对于下游生成任务,例如图像描述,视觉-语言预训练模型并不适合。

62410
您找到你想要的搜索结果了吗?
是的
没有找到

DL时代的代码补全利器,北大出品,效果远超语言模型

这是预训练语言模型难以表示的特征。 最后,代码具有演化性的特征。代码较自然语言的迭代速度更快,因此预训练语言模型不能够及时捕捉演化特征。...考虑到代码语言中的诸多特性,单纯的预训练语言模型无法得到非常好的效果。 核心技术 既然单独的语言模型不行,那么 aiXcoder 又结合了哪些技术,它又是靠什么来补全代码的?...程序的结构语义特征:程序语言是一种结构性很强的语言,程序的结构信息也体现着程序的语义。...程序语言序列模型:当然,程序语言也具有与自然语言相似的一面,因此可以利用程序标识符之间的序列关系建立程序语言模型。aiXcoder 也使用了最新的深度学习语言模型对程序中的序列信息进行建模。 ?...基于深度学习的代码分析与生成一直是李戈教授的研究方向,也是北大高可信软件技术教育部重点实验室重点关注的领域,他们从 2013 年开始就开展了基于深度学习的代码分析研究,从 2015 年开始就将深度学习用于代码生成

75720

DL时代的代码补全利器,北大出品,效果远超语言模型

这是预训练语言模型难以表示的特征。 最后,代码具有演化性的特征。代码较自然语言的迭代速度更快,因此预训练语言模型不能够及时捕捉演化特征。...考虑到代码语言中的诸多特性,单纯的预训练语言模型无法得到非常好的效果。 核心技术 既然单独的语言模型不行,那么 aiXcoder 又结合了哪些技术,它又是靠什么来补全代码的?...程序的结构语义特征:程序语言是一种结构性很强的语言,程序的结构信息也体现着程序的语义。...程序语言序列模型:当然,程序语言也具有与自然语言相似的一面,因此可以利用程序标识符之间的序列关系建立程序语言模型。aiXcoder 也使用了最新的深度学习语言模型对程序中的序列信息进行建模。 ?...基于深度学习的代码分析与生成一直是李戈教授的研究方向,也是北大高可信软件技术教育部重点实验室重点关注的领域,他们从 2013 年开始就开展了基于深度学习的代码分析研究,从 2015 年开始就将深度学习用于代码生成

54220

跨界教授林宙辰:从北大来,回北大

北大,林宙辰老师开始接触 AI,初步学习了图像处理和模式识别,也参与了若干实际项目,其中一个项目就是搭建地理信息系统,把手绘地图或印刷地图数字化并进行管理。...1995 年,林宙辰老师从北大数学系硕士毕业后,远赴香港,在香港理工大学应用数学系,又进行了为期两年的硕士学习,掌握了计算数学的基础。...林宙辰老师回到北大数学学院后,深入地学习了图像处理、机器视觉和模式识别的课程。立志成为数学家的林宙辰老师,开始全面转向 AI 领域。...招生看「四好」,理论优于编程 林宙辰老师回到北大后,在智能科学系任教授,主要研究机器学习和计算机视觉。...12 年微软亚洲研究院履职, 40 岁的林宙辰老师,在职业发展上做出了一个重大转变:放弃微软亚洲研究院的丰厚待遇,回归北大教书育人,继续人工智能理论方面的研究。

70850

开发 | 如何加速神经语言模型训练?东北大学小牛翻译团队有妙招

团队简介:东北大学自然语言处理实验室(小牛翻译团队)由姚天顺教授于1980年创立,长期从事机器翻译及语言分析方面的研究。...一、神经语言模型简介 语言作为人类之间进行沟通交流的桥梁,在历史发展的长河中扮演着极其重要的角色。...上图的例子中,我们将语言模型作为一个黑盒,它能够对三个输入的“句子”进行一个评判,判断其语言学上的合理性,这便是语言模型要做的工作。...二、更快地训练神经语言模型 随着在语音识别、机器翻译等领域对语言模型性能需求的日益增长,我们迫切地希望能够进一步改善神经语言模型的性能。...面对这种情况,如何有效地减少训练神经语言模型占用的时间成为了亟待解决的问题。 那么如何加快神经语言模型的训练呢?

845130

县城再无清华北大

有种观点很有趣,意思是说“从落后地区考入清华北大的学生天赋上自有其过人之处,所以……”。...而且我发现,尽管清华北大在北京招生名额很多,但是父母教育程度不高的北京土著家庭却很少有孩子考上清华北大。...而且近年来的趋势是北京最优秀的学生选择直接出国,而不是上清华北大。...我再补充三点: 1.我只是在陈述事实,我并没有表达“北京人考清华北大更容易是合理的”这样的观点。...以陕西为例,曾经考上清华北大的学生在各个城市、县城是比较平均的。但是这些年,清华北大在陕西的招生名额日趋被几所超级中学垄断,而周边的小县城,年级第一能考个西安交大就谢天谢地了。

45610

北大等提出Video-LLaVA视觉语言大模型,在多个评估榜单中名列前茅

北京大学和其他机构的研究人员近期提出了一种名为Video-LLaVA的视觉语言大模型。该模型的创新之处在于能够同时处理图片和视频作为输入。...与以往的视觉语言大模型不同,Video-LLaVA的重点在于将图片和视频特征提前绑定到一个统一的特征空间中,以便语言模型能够从统一的视觉表示中学习模态之间的交互。...研究人员希望更多的社区研究人员能够关注到通过优化视觉文本输入来提升语言模型的理解性能。...在这个阶段,大型语言模型也参与训练。 实验 视频理解能力实验。 如表3所示,Video-LLaVA在4个视频问答数据集上全面超过了Video-ChatGPT,并且涨幅相当可观。...该研究还与InstructBLIP,Otter,mPLUG-owl 等图片语言大模型在图片语言理解任务上进行了比较,结果如表2所示: 表2 为了评估预先对齐视觉输入的效果,研究团队进行了大量的对比实验。

24110

北大法律大模型ChatLaw火了!!

语言大模型不断向垂直行业领域拓展,这次出圈的是北大法律大模型。 大模型又「爆了」。 昨晚,一个法律大模型 ChatLaw 登上了知乎热搜榜榜首。热度最高时达到了 2000 万左右。...这个 ChatLaw 由北大团队发布,致力于提供普惠的法律服务。一方面当前全国执业律师不足,供给远远小于法律需求;另一方面普通人对法律知识和条文存在天然鸿沟,无法运用法律武器保护自己。...大语言模型最近的崛起正好为普通人以对话方式咨询法律相关问题提供了一个绝佳契机。...其实最近发布法律大模型的不只有北大一家。上个月底,幂律智能联合智谱 AI 发布了千亿参数级法律垂直大模型 PowerLawGLM。据悉该模型针对中文法律场景的应用效果展现出了独特优势。...同时,通过与北大国际法学院、行业知名律师事务所进行合作,ChatLaw 团队能够确保知识库能及时更新,同时保证数据的专业性和可靠性。下面我们看看具体示例。

55050

如今,进北大要看脸了

郭一璞 发自 凹非寺 量子位 报道 | 公众号 QbitAI 高考分数刚刚出来,各地考生与家长还在纠结报志愿的时候,进北大要看脸了。 嗯,是说进北大校门。...今天,北大正式启用人脸识别门禁,进入校门可以不带校园卡,直接刷脸了。 ? 人脸识别设备装在北大西南门,进门就是女生宿舍。常年盘踞北大(旁边)的量子位,现场围观了这套系统。 现场什么样 ?...不过,由于北大数据库中的照片质量不够,这套系统目前并不能保证识别出所有北大师生,无法识别的同学需要到保安室重新拍照。...CV创业公司,偏偏都非北大系 虽然北大领先隔壁T大把人脸识别用在了校门口,不过,似乎在人脸识别的“科技范儿”上,北大略输一筹。...另外,其实量子位的台柱子夏乙老师也毕业于北大,所以,大概量子位也算北大系AI创业公司咯? 你们滋不滋瓷哇?

68230

北大&腾讯打造多模态15边形战士!语言作“纽带”,拳打脚踢各模态,超越Imagebind

AI4Happiness 投稿 量子位 | 公众号 QbitAI 北大联合腾讯打造了一个多模态15边形战士! 以语言为中心,“拳打脚踢”视频、音频、深度、红外理解等各模态。...用语言作为与其它模态之间的纽带,冻结语言编码器,然后用对比学习方法,将各个模态映射到一个共享的特征空间,实现多模态数据的语义对齐。...然后通过令牌屏蔽和LoRA微调来训练不同模态的编码器,同时保持语言编码器冻结。最后,将该模态与语言特征空间对齐。 再来看看语言编码器以及多模态联合学习部分。...构建高质量数据集 此外,研究人员还创建了一个名为“VIDAL-10M”的高质量数据集,其中包含1000万个具有对齐视频-语言、红外-语言、深度-语言、音频-语言的数据对,是第一个具有深度和红外模态的大规模视频多模态数据集...△Zero-Shot视频-文本检索结果 视频-语言、红外-语言、深度-语言和音频-语言Zero-Shot分类,在所有数据集上的准确率均优于ImageBind、OpenCLIP: Zero-Shot音频-

19640
领券