首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    如何用点云对车辆和行人进行识别分类?这是MIT学生的总结

    我的工作 这个夏天的实习中,我一直在研究计算机视觉相关的几个问题,阅读了很多论文并且训练了不少模型。大部分时候,我一直都是用公开数据集,对激光雷达(LiDAR)数据进行分类识别。...怎么能让无人车也做到这一点?过去几个月我的大部分工作,就是想办法让Voyage的自动驾驶出租车对车辆和行人进行分类。 我使用的工具是三维视图(LiDAR点云)+深度学习。...其中一个替代方案是手动挑选与物体类别高度相关的物理特征信息,也就是对我们的模型进行一些特征工程。 在这个过程中,我的导师教会了我一件事:实验、实验、实验。...我的成果 这个夏天我的收获之一,就是学会使用一个很棒的快速可视化工具。在Vispy的帮助下,我对大量的点云进行了有序的可视化,然后在类似真实世界的环境中对模型进行调试。...(插播一个量子位之前的报道:《PyTorch还是TensorFlow?》) 我搭建的模型之一,是一个编码解码器(Encoder-Decoder)网络,能够对多个通道的输入数据进行分类预测。

    1.4K71

    【星球知识卡片】模型量化的核心技术点有哪些,如何对其进行长期深入学习

    大家好,欢迎来到我们的星球知识小卡片专栏,本期给大家分享模型量化的核心技术点。 作者&编辑 | 言有三 ?...1 二值(1bit)量化 二值量化是最高效率的量化方式,也可以称之为1bit量化,即将32位浮点数量化为1bit整型,非常适合FPGA等平台进行并行运算。...2 8bit量化 8bit量化是当前工业界最常见的量化方法,也是当前精度保持最高的量化类型。...5 量化训练框架 目前前向传播中权重和激活的量化比较成熟,但是训练中大部分的计算在反向传播步骤,如果能够将量化技术应用在反向传播中,则可以加速卷积的反向梯度传播过程,不过这需要对梯度也进行量化操作,而梯度的分布比较复杂...6 其他 总的来说,模型量化有非常多的研究方向,包括: (1) 非均匀量化方案的设计。 (2) 基于重建与损失敏感的量化方法。 (3) 量化正则化方法。 (4) 网络结构的设计。

    97110

    【星球知识卡片】模型蒸馏的核心技术点有哪些,如何对其进行长期深入学习

    2 优化目标驱动的知识蒸馏框架 Hinton等人提出的框架是在模型最后的预测端,让student模型学习到与teacher模型的知识,这可以称之为直接使用优化目标进行驱动的框架,也是最简单最直接的框架,...一种更直观的方式是将teacher模型和student模型的特征进行约束,从而保证student模型确实继承了teacher模型的知识,其中一个典型代表就是FitNets,FitNets将比较浅而宽的Teacher...4 没有教师模型的知识蒸馏 一般知识蒸馏框架都需要包括一个Teacher模型和一个Student模型,而Deep mutual learning则没有Teacher模型,它通过多个小模型进行协同训练,这也是非常有研究意义的方向...5 与其他框架的结合 在进行知识蒸馏时,我们通常假设teacher模型有更好的性能,而student模型是一个压缩版的模型,这不就是模型压缩吗?与模型剪枝,量化前后的模型对比是一样的。...所以知识蒸馏也被用于与相关技术进行结合,apprentice框架是一个代表。 ? 6 其他 总的来说,模型蒸馏有非常多的研究方向,包括: (1) 优化目标驱动的知识蒸馏框架拓展。

    62830

    Meta| 提出上下文位置编码:CoPE,解决当前模型「普遍存在的问题」,含GPT-4o!

    例如无法针对特定的句子、名词进行定位。以下是在Kimi上测试结果,明显统计错误!...https://arxiv.org/pdf/2405.18719 背景介绍 当前大模型处理的数据源大部分都是有序序列,例如:文本、音频、代码以及事件时间线等。在处理此类数据过程中,信息的排序至关重要。...位置编码有两种测量方式:绝对位置编码(Absolute Position Encoding,APE)和相对位置编码(Relative Position Encoding,RPE),其中APE是从序列的开头来对...然后,聚合这些门值门值(Gate Value)以确定每个Token相对于当前标记的相对位置,如下图所示。 与Token位置不同,此上下文位置可以取分数值,因此不能分配特定的嵌入向量。...由于上下文位置可以根据不同的查询和层而变化,CoPE允许模型同时以多种单位测量距离。这意味着CoPE能够灵活地适应不同的上下文,为大型语言模型提供了一种更加动态和上下文相关的处理序列数据的方法。

    91030

    干货 | 深度学习和迁移学习在语义匹配模型中的应用

    本文将结合携程业务应用案例聊聊如何把这些模型落地在旅游场景中,同时结合旅游场景做相应的模型改进。 一、基于深度学习的语义匹配模型 问题匹配模型是机器人进行交互的基础模型,对匹配率的要求较高。...这样每个词向量都是上下文相关的,相比原来直接使用word embedding效果会有显著提升。 有了句子向量,接下来我们要做的就是如何利用句子向量来进行语义匹配。...而 pair-wise方法学习的是 (UQ,SQ+)和 (UQ,SQ−)之间的排序关系,训练目标是最大化正样本对和负样本对的距离,数学表达式如下: ? 式中,f(.)表示某种距离度量。 ?...在实际实施过程中,客服人员可以通过专门的标注平台进行语料补充任务,不断扩增标注语料,通过语料检查任务,不断提升已标注数据的质量,因此对于较早接入的业务线,如机票、酒店等,我们累积了大量优质的QA对。...目前在现有已标注数据集上,训练一个公共通用模型时,我们不直接将此通用模型用于各个业务线,考虑到不同业务线的差异性,在通用模型的基础上,根据每个业务线的标注数据进行模型微调,微调后的模型更具个性化,如下图所示

    1.4K30

    文本分析 | 词频与余弦相似度

    这个系列打算以文本相似度为切入点,逐步介绍一些文本分析的干货,包括分词、词频、词频向量、文本匹配等等。...上一期,我们介绍了文本相似度的概念,通过计算两段文本的相似度,我们可以: 对垃圾文本(比如小广告)进行批量屏蔽; 对大量重复信息(比如新闻)进行删减; 对感兴趣的相似文章进行推荐,等等。...那么如何计算两段文本之间的相似程度?...回顾点击这里:文本分析 | 余弦相似度思想 本文会具体介绍如何计算文本的夹角余弦相似度,包括两部分: 向量的夹角余弦如何计算 如何构造文本向量:词频与词频向量 1. 向量的夹角余弦如何计算 ?...这里有2个问题值得提一下: (1)当两个词频向量进行比较的时候,维度会扩大。 比如刚刚例子中,彼此没有出现的“吗”、“吧”两个维度会加进来,保证比较的两段文本维度统一。

    1.8K81

    给定一个边与边可能相交的多边形,求它的轮廓线

    邻接表是一种表示图(Graph)的数据结构,记录每个点相邻的点有哪些。 下面我们会以这个 “8” 字形多边形为例,进行讲解。...它的 key 代表某条线段,value 为一个有序数组,记录落在该线段上的点,以及它们到线段起点的距离。该数组按距离从小到排序。...(2)步进,取角度最小的邻接点为路径的下一个点 计算当前点到上一个点的向量,和当前点到其他邻接点相邻点向量逆时针夹角。找出其中夹角最小的邻接点,作为下一个点,不断步进,直到当前点为路径起点。...这里有几个优化点。 首先判断大小的场景可进行优化,比如求距离时使用了开方,其实没必要开方。...比如多个交点的位置是 “相同” 的,最好做一个合并操作(否则在一些非常特定的场景可能会有问题)。 我是前端西瓜哥,欢迎关注我,学习更多平面解析几何知识。

    16510

    主成分分析(PCA)的教程和代码

    (1)计算协方差矩阵 PCA产生一个特征子空间,使特征向量的方差最大化。因此,为了正确测量这些特征向量的方差,必须对它们进行适当的平衡。...为实现此目的,我们首先将数据标准化为零均值和单位方差,以便在我们的计算中对每个特性进行平均加权。...协方差矩阵只是一个数组,其中每个值基于矩阵中的x-y位置指定两个特征变量之间的协方差。公式是: ? 其中带有顶部线的x是X的每个特征的平均值向量。...找到在表示数据时最重要的向量,并丢弃其余的向量。在numpy中,计算协方差矩阵的特征向量和特征值是非常简单的。计算之后,我们将根据它们的特征值按降序对特征向量进行排序。...此时,我们有一个根据特征值对数据集的“重要性”排序的特征向量列表。

    2.5K30

    阿里妈妈深度树检索技术(TDM)及应用框架的探索实践

    大数据+有限算力,就要求我们对算法进行适应性设计,于是 Match+Rank 分段漏斗的算法架构被引入:从超大规模候选集中,先 Match 出小规模候选集,再通过 Rank 的方式排序出最终用户最感兴趣的...这里存在的问题是两段式相互隔离,比如我们对 User 到 Query-rewrite 进行优化形成各种匹配算法,然后对 Query-rewrite 到 Doc 优化形成倒排索引。...BeamSearch 检索本质上要求具备对每一层进行 TopK 排序的能力。我们的做法是:构建符合这样性质的样本,让样本牵引模型学习,去逼近最大堆。...A:为了实现统一 Loss,我们这里对 TDM 模型进行了建模变换,从之前的二分类转换到了多分类,即将层上用户兴趣建模成用户对当前层上的全部树节点做多分类问题。...,下层是业务部分,根据业务现状做设计,两部分实现并行调用。

    3.2K30

    搜狐文本匹配算法大赛方案总结

    赛题任务 本次比赛的数据均来自人工标注,数据均为文字片段,每两个片段为一组,参赛选手需要为每对文本在两个颗粒度上判断文本对中的两段文字是否匹配。...) 数据清洗:划分置信区间,使用BCE_loss对伪标签进行训练 (效果不明显) 长度排序:计算文本长度后,进行排序,长度类似的文本尽可能的排在一起,同一个Batch时,padding计算有帮助 (效果有提升...计算最重要的摘要,尝试两种方案: 对所有长文本摘要提取,并替换原文本(效果不好) 只对短长B文本摘要提取,并替换原文本(效果变好,尤其是短长B,这么尝试的目的是因为短长B效果非常差) 对长文本进行分段式切割...,同时又兼顾 A、B 以及三种小分类标准,我们的方案基于多任务学习的框架,共享一部分参数来进行表示学习,再设计任务特定的分类器来进行标签预测。...模型设计 框架设计基于 BERT 的交互模型,通过 BERT 来得到 source-target pair 的向量表示。

    1.2K20

    信息检索&FAQ硬核技术!SimNet模型

    SimNet 显著改善了长冷 query 的搜索效果,提升了搜索智能化的水平,在百度搜索以及其它产品线广泛应用。...、语义的向量表示与匹配度计算、文本对的匹配度计算与 pair-wise 的有监督学习全部统一在一个整体框架内。...深度学习技术:基于深度神经网络,对单词语义到短文本语义到组合过程进行建模,模型更强大,表达效果更好。...(3)匹配层 该层利用文本的表示向量进行交互计算,根据应用的场景不同,我们研发了Representation-based Match和Interaction-based Match两种匹配算法。...首先基于表示层采用双向 RNN 得到的文本中间位置表示,和词位置对应的每个向量体现了以本词语为核心的一定的全局信息;然后对两段文本按词对应交互,由此构建两段文本之间的 matching matrix(当然也可以构建多组

    1.6K40

    检索式对话系统在美团客服场景的探索与实践

    闲聊型:一般为开放域,无特定目的,在开放领域内让对话有意义地进行下去即可,主流方法是基于检索的召回排序二阶段方法或基于生成的端到端模型,应用场景如聊天机器人。...因此,我们最终选择了双塔模型,如下图4所示: 图4 向量召回中的双塔模型 3.2.2 数据采样 双塔模型的一个基本问题是如何构造高质量的正样本对,在话术推荐的场景这个问题并不复杂,不过存在两种选择:...,然后设计聚合模块对召回的Items进行重新分组和排序,聚合时除了相似度分数还可以考虑引入Diversity等更多的性质。...可以看出,多样性(多向量表征)的核心问题在于如何表征获取K个向量,结合话术推荐的场景,给定一个Context,可能存在多个合适的Response,根据Context不同的复杂程度,可能存在不同数目的Response...4 排序模块 排序模块是在上一步召回模块的基础上,结合当前的对话上下文对每个召回的答案进行打分排序。

    1.2K40

    如何优雅地给List集合排序

    那你是否对Collections.sort()如何排序感兴趣呢,我们扒一下sort()的源码: “注:jdk1.7后LegacyMergeSort.userRequested=false ” 发现里面用到了...“归并排序(Merge Sort):将待排序数据分成两部分,继续将两个子部分进行递归的归并排序;然后将已经有序的两个子部分进行合并,最终完成排序。...” 从上面我们知道,归并排序将数组拆分成了两段,每段递归的进行归并排序,在将这两段合并起来。...复杂对象集合 在大多数情况下我们的集合元素可能是个复杂对象。例如有一个运动员对象,里面有姓名,身高属性。那如何根据特定的属性排序呢?...今天的文章就写到这里了,如果这篇文章对你有帮助,欢迎点赞+转发。

    2K30

    【NLP】如何匹配两段文本的语义?

    本文由来 一年前在知乎上关注过这么一个问题: 如何判断两段文本说的是「同一件事情」?...显然,对两段文本进行相似度比较之前,首先要把这两段文本各自encoding成一个压缩上下文信息的矩阵或者直接embedding成一个向量,然后通过矩阵相似度或向量相似度的计算方法得到相似程度就可以啦。...显然embedding成向量后的比较更为简单,因为可以直接使用欧式距离或者余弦距离啦,但是显然这样对embedding的质量要求非常高,而且难以进行两段文本之间的细粒度的比较。...我们以CNN为例,讨论一下如何在文本匹配模型中对两段文本进行有效的encoding。 这就不得不提到参考文献[1]啦。这篇文章针对这个问题做了详细的实验。 ?...对比图1和图2,图1使用两个CNN网络分别对文本1(Q)和文本2(A)进行encoding,而图2仅仅使用一个CNN,或者说使用两个共享参数的CNN来对两段文本分别进行encoding。

    2.2K10

    fastText文本分类模型,n-gram词表示

    这里有一点需要特别注意,一般情况下,使用fastText进行文本分类的同时也会产生词的embedding,即embedding是fastText分类的产物。...可以看到,和CBOW一样,fastText模型也只有三层:输入层、隐含层、输出层(Hierarchical Softmax),输入都是多个经向量表示的单词,输出都是一个特定的target,隐含层都是对多个词向量的叠加平均...那么它是如何做的呢?**叠加构成这篇文档的所有词及n-gram的词向量,然后取平均。**叠加词向量背后的思想就是传统的词袋法,即将文档看成一个由词构成的集合。...假设我们有两段文本: 肚子 饿了 我 要 吃饭 肚子 饿了 我 要 吃东西 这两段文本意思几乎一模一样,如果要分类,肯定要分到同一个类中去。但在传统的分类器中,用来表征这两段文本的向量可能差距非常大。...机器学习实战-训练模型 决策树算法:ID3,C4.5,CART 随机森林(RF),Bagging思想 机器学习实战-集成算法和随机森林 SVM原理与实现 SVM、随机森林等分类器对新闻数据进行分类预测

    2.9K10

    技术干货丨fastText原理及实践

    因此,损失函数为: 这里, 表示目标单词在词库V中的索引。 如何更新权重 我们先对E关于 求导: 函数表示: 于是, 的更新公式: 如何更新权重W?...这里有一点需要特别注意,一般情况下,使用fastText进行文本分类的同时也会产生词的embedding,即embedding是fastText分类的产物。...可以看到,和CBOW一样,fastText模型也只有三层:输入层、隐含层、输出层(Hierarchical Softmax),输入都是多个经向量表示的单词,输出都是一个特定的target,隐含层都是对多个词向量的叠加平均...投影层对一个文档中所有单词的向量进行叠加平均。keras提供的GlobalAveragePooling1D类可以帮我们实现这个功能。...对类标进行onehot化。假设我们文本数据总共有3个类别,对应的类标分别是1、2、3,那么这三个类标对应的onehot向量分别是[1, 0, 0]、[0, 1, 0]、[0, 0, 1]; 3.

    3.9K101
    领券