首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

特定领域知识图谱(Domain-specific KnowledgeGraph:DKG)融合方案:技术知识前置【一】-文本匹配算法、知识融合学术界方案、知识融合业界落地方案、算法测评KG生产质量保障

本项目主要围绕着特定领域知识图谱(Domain-specific KnowledgeGraph:DKG)融合方案:技术知识前置【一】-文本匹配算法、知识融合学术界方案、知识融合业界落地方案、算法测评KG生产质量保障讲解了文本匹配算法的综述,从经典的传统模型到孪生神经网络“双塔模型”再到预训练模型以及有监督无监督联合模型,期间也涉及了近几年前沿的对比学习模型,之后提出了文本匹配技巧提升方案,最终给出了DKG的落地方案。这边主要以原理讲解和技术方案阐述为主,之后会慢慢把项目开源出来,一起共建KG,从知识抽取到知识融合、知识推理、质量评估等争取走通完整的流程。

04

LangChain 简介

自从2020年OpenAI发布GPT-3之后,大型语言模型(LLM)就在世界上广受欢迎,一直保持稳定的增长。直到2022年底,对于LLM和生成AI等广泛领域的兴趣才开始迅速增长,这可能是因为大量关于GPT-3的重大进展推动了这一趋势。Google发布了名为LaMDA的具有“有感知能力”的聊天机器人,首个高性能且开源的LLM——BLOOM也已经发布。此外,OpenAI还发布了他们的下一代文本嵌入模型和下一代“GPT-3.5”模型。在LLM领域取得巨大飞跃后,OpenAI推出了名为ChatGPT的新模型,使LLM成为人们关注的焦点。同时,Harrison Chase创造的LangChain也应运而生,这个库的创建者只花费了几个月的时间就构建出了令人惊叹的功能,尽管它还处于早期阶段。

05

Only Train Once:微软、浙大等研究者提出剪枝框架OTO,无需微调即可获得轻量级架构

机器之心报道 作者:Hecate He 来自微软、浙江大学等机构的研究者提出了一种 one-shot DNN 剪枝框架,无需微调即可从大型神经网络中得到轻量级架构,在保持模型高性能的同时还能显著降低所需算力。 大型神经网络学习速度很快,性能也往往优于其他较小的模型,但它们对资源的巨大需求限制了其在现实世界的部署。 剪枝是最常见的 DNN 压缩方法之一,旨在减少冗余结构,给 DNN 模型瘦身的同时提高其可解释性。然而,现有的剪枝方法通常是启发式的,而且只针对特定任务,还非常耗时,泛化能力也很差。 在一篇标题为

02

根据背景实时变色,仿变色龙软体机器人登上Nature子刊,离隐身还远吗?

机器之心报道 编辑:杜伟、陈萍 首尔大学的这项「实时匹配背景颜色」研究可称得上人造伪装技术的一次重大飞跃。 在生物界,变色龙是当之无愧的「伪装高手」。为了逃避天敌的侵犯和接近自己的猎物,这种爬行动物常在人们不经意间改变身体颜色,然后一动不动地将自己融入周围的环境之中。 图源:wikipedia 变色龙不是通过聚集或分散皮肤细胞内的色素来变色,而是依赖皮肤细胞中的结构改变,来影响皮肤反射光线的方式。科学家们一直以来想要模仿变色龙的天然变色能力,但需要解决一大难题:能够表达大量颜色,并根据背景环境控制和改变

01
领券