首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

线性代数本质课程笔记(中)-点积和叉积

from=search&seid=12903800853888635103 点积标准观点 如果我们有两个维数相同向量,他们点积就是对应位置数相乘,然后再相加: 从投影角度看,要求两个向量v和w...点积,可以向量w朝着过原点向量v所在直线进行投影,然后w投影后长度乘上向量v长度(注意两个向量夹角)。...假设我们有两个长度完全相同向量v和w,利用其对称性,无论v投影到w上还是w投影到v上,结果都是一样: 如果我们把其中一个向量变为2倍,这种对称性被破坏了。...所以对于两个向量点积来说,无论选择哪个向量进行投影,结果都是一样。 问题又来了,投影思路和对位相乘再相加思路,有什么联系呢?...但很接近: 假设我们把第一个向量变为变量,输入一个向量(x,y,z),通过矩阵行列式得到一个数,这个数就代表我们输入向量v和w所组成平行六面体有向体积: 为什么要这么定义呢?

1.5K20

【译】向量搜索相似度度量

内积 是一个向量投影到另一个向量操作。直观地说,它同时衡量了向量之间距离和角度。 L2 或欧几里得距离 L2 或欧几里得距离是最直观距离度量。我们可以将其想象为两个物体之间空间量。...这些数字列表上下对齐,然后向下相减。接着,所有结果平方并相加。最后,取平方根。 Milvus[9] 跳过了平方根步骤,因为平方根处理前后排名顺序是相同。...这样,我们可以省去一个操作步骤并得到相同结果,降低延迟和成本,提高吞吐量。下面是一个欧几里得或 L2 距离如何工作例子。...首先,数字向下相乘,然后所有结果相加。现在保存这个数字;称它为“x”。接下来,我们必须将向量每个数字平方,并将平方结果相加。...想象一下,对于两个向量每个向量数字按水平方向平方,之后相加求和。 接着,对这两个和求平方根,然后将它们相乘,称这个结果为“y”。我们余弦距离值定义为“x”除以“y”。

7610
您找到你想要的搜索结果了吗?
是的
没有找到

TypeScript实现向量矩阵

向量有两种基本运算:即向量加法和向量数量乘法 向量加法 如上所示,描述了两个向量相加,它计算规则如下: 相加两个向量其维度必须相等 把向量分量(即向量每个数)分别想加,最终构成向量就是其相加结果...如上所示,描述了向量向量相乘,它计算规则如下: 相乘两个向量,其维度必须相等 把两个向量分量分别相乘,将其结果相加,最终得到标量就是其相乘后结果 实现向量运算 上面我们讲解了向量两个基本运算...: 每个向量元素互相进行乘法运算,将得到结果相加 for (let i = 0; i < this.getDimension(); i++) {...,拆分出来每个列向量进行点乘运算,返回向量放在一起,构建成出矩阵就是其相乘得到结果。...const colVector = matrix.colVector(j); // 向量向量进行点乘,结果放进结果向量数组中

1.8K20

TypeScript 实战算法系列(九):实现向量矩阵

向量有两种基本运算:即向量加法和向量数量乘法 向量加法 如上所示,描述了两个向量相加,它计算规则如下: 相加两个向量其维度必须相等 把向量分量(即向量每个数)分别想加,最终构成向量就是其相加结果...如上所示,描述了向量向量相乘,它计算规则如下: 相乘两个向量,其维度必须相等 把两个向量分量分别相乘,将其结果相加,最终得到标量就是其相乘后结果 实现向量运算 上面我们讲解了向量两个基本运算...: 每个向量元素互相进行乘法运算,将得到结果相加 for (let i = 0; i < this.getDimension(); i++) {...,拆分出来每个列向量进行点乘运算,返回向量放在一起,构建成出矩阵就是其相乘得到结果。...const colVector = matrix.colVector(j); // 向量向量进行点乘,结果放进结果向量数组中

2K30

AIGC - 入门向量空间模型

这里面的 n 就是向量向量和标量最大区别在于,向量除了拥有数值大小,还拥有方向。向量或者矢量中“向”和“矢”这两个字,都表明它们是有方向为什么这一串数字能表示方向呢?...有了这些特点,我们就可以定义向量之间加法、乘法(或点乘)、距离和夹角等等。 两个向量之间加法,首先它们需要维度相同,然后是对应元素相加。...在这张图中,有两个向量 x 和 y,它们长度分别是 x’和 y’,它们相加结果是 x+y,这个结果所对应点相当于 x 向量沿着 y 向量方向移动 y’,或者是 y 向量沿着 x 向量方向移动...我们可以这两个文档表示为词频向量,其中每个维度代表一个词汇,值表示该词汇在文档中频率。然后,可以使用余弦相似度来比较这两个文档相似性。...如果它们在感兴趣商品类别上有很多重叠,余弦相似度接近1,表示这两个用户兴趣相似。 图像相似度: 在计算机视觉中,余弦相似度也可以用于比较图像。

22250

基础渲染系列(六)——凹凸

因为h 是函数结果,所以h′也是函数结果。因此,我们有导数函数f'(u)= h'。 不幸是,我们不知道这些函数是什么东西。但可以近似它们,可以比较纹理中两个不同点高度。...首先,新法线乘以 MzDz。之所以可以这样做,是因为之后无论如何都要进行归一化。这给了我们向量 ? 然后降低X和Y缩放比例,得到 ?...必须转换凹凸贴图代码结果,使其表面的实际方向匹配。 我们能知道一个表面的方向吗? 为此,我们需要定义U和V轴向量这两个,加上法线向量,定义了一个与我们假设相符3D空间。...一旦有了这个空间,我们就可以使用它来凹凸转换为世界空间。 因为我们已经有了法线向量 N,只需要多一个附加向量这两个向量叉积定义了第三个向量。 提供附加向量作为网格顶点数据一部分。...只要两个转换使用相同算法和切线空间,此过程就可以正常进行。如果他们不这样做,那么游戏中结果就是错误。这可能会让3D美术师感到非常难过。

3.5K40

【Pre-Training】超细节 BERTTransformer 知识点

英语和德语同属日耳曼语族,有很多相同 subword,可以共享类似的语义。而像中英这样相差较大语系,语义共享作用可能不会很大。...当然,在相同初始化方法前提下,两种方式得到 word Embedding 可能方差会有差别,但是,BERT还有Layer Norm,会把 Embedding 结果统一到相同分布。...论文中解释是:向量点积结果会很大, softmax 函数 push 到梯度很小区域,scaled 会缓解这种现象。怎么理解 sotfmax 函数 push 到梯度很小区域?...还有为什么 scaled 是维度根号,不是其他数? LinT 回答 为什么比较输入会使得softmax梯度变得很小?...Sliding Window 即把文档分成有重叠若干段,然后每一段都当作独立文档送入BERT进行处理。最后再对于这些独立文档得到结果进行整合。

3K51

从几何看线性代数(2):矩阵

我们先找到由两个单位向量构成单位矩阵 ,为了方便后面的理解,我们不妨给这两个向量补充一个 分量,视作 ,分别对应图中绿色向量红色向量。...矩阵加法就是把两个同型号矩阵,根据元素对应两两相加得到新矩阵,例如: 不妨用图解进一步了解其意义: 原标准空间: 矩阵变换 为: 矩阵变换 为: 结果变化 为: 可以用向量加法原理把得到变换...意味着在初始坐标系下 向量相加,再在 空间中解释 向量相加结果;而 意味着先在A空间中取 , ,再在初始坐标系将它们相加,还是以列向量视角看,在上一节讲述矩阵向量乘时用了"参照"概念...因此分配律是成立。 意即在初始坐标系下 相加,再于新空间中对 中向量进行解释。 意即分别在 变换后空间中解释 中向量,再在初始坐标系下向量相加。...若组合 两个向量组出现维度交集,即存在维度 ,则计算 时, 会受到抵消,则显然 即对组成 , 各自向量进行相加

18130

万字长文 | 线性代数本质课程笔记完整合集!

从不同学生视角看,有以下三种观点: 物理专业学生视角:向量是空间中箭头,决定一个向量是它长度和所指方向,只要这两个要素相同向量可以任意移动。...7、点积 点积标准观点 如果我们有两个维数相同向量,他们点积就是对应位置数相乘,然后再相加: ?...从投影角度看,要求两个向量v和w点积,可以向量w朝着过原点向量v所在直线进行投影,然后w投影后长度乘上向量v长度(注意两个向量夹角)。 ? ?...当两个向量夹角小于90度时,点积后结果为正,如果两个向量垂直,点积结果为0,如果两个向量夹角大于90度,点积结果为负。 一个有趣发现是,你把w投影到v上面,或者把v投影到w上面,结果相同。...但是你不觉得上面两个过程是完全不同嘛?接下来就直观解释一下。 假设我们有两个长度完全相同向量v和w,利用其对称性,无论v投影到w上还是w投影到v上,结果都是一样: ?

59920

线性代数本质课程笔记完整合集

从不同学生视角看,有以下三种观点: 物理专业学生视角:向量是空间中箭头,决定一个向量是它长度和所指方向,只要这两个要素相同向量可以任意移动。...7、点积 点积标准观点 如果我们有两个维数相同向量,他们点积就是对应位置数相乘,然后再相加: ?...从投影角度看,要求两个向量v和w点积,可以向量w朝着过原点向量v所在直线进行投影,然后w投影后长度乘上向量v长度(注意两个向量夹角)。 ? ?...当两个向量夹角小于90度时,点积后结果为正,如果两个向量垂直,点积结果为0,如果两个向量夹角大于90度,点积结果为负。 一个有趣发现是,你把w投影到v上面,或者把v投影到w上面,结果相同。...但是你不觉得上面两个过程是完全不同嘛?接下来就直观解释一下。 假设我们有两个长度完全相同向量v和w,利用其对称性,无论v投影到w上还是w投影到v上,结果都是一样: ?

1.1K21

万字长文|线性代数本质课程笔记完整合集!

从不同学生视角看,有以下三种观点: 物理专业学生视角:向量是空间中箭头,决定一个向量是它长度和所指方向,只要这两个要素相同向量可以任意移动。...7、点积 点积标准观点 如果我们有两个维数相同向量,他们点积就是对应位置数相乘,然后再相加: ?...从投影角度看,要求两个向量v和w点积,可以向量w朝着过原点向量v所在直线进行投影,然后w投影后长度乘上向量v长度(注意两个向量夹角)。 ? ?...当两个向量夹角小于90度时,点积后结果为正,如果两个向量垂直,点积结果为0,如果两个向量夹角大于90度,点积结果为负。 一个有趣发现是,你把w投影到v上面,或者把v投影到w上面,结果相同。...但是你不觉得上面两个过程是完全不同嘛?接下来就直观解释一下。 假设我们有两个长度完全相同向量v和w,利用其对称性,无论v投影到w上还是w投影到v上,结果都是一样: ?

71920

干货 | 线性代数本质课程笔记完整合集

从不同学生视角看,有以下三种观点: 物理专业学生视角:向量是空间中箭头,决定一个向量是它长度和所指方向,只要这两个要素相同向量可以任意移动。...7、点积 点积标准观点 如果我们有两个维数相同向量,他们点积就是对应位置数相乘,然后再相加: ?...从投影角度看,要求两个向量v和w点积,可以向量w朝着过原点向量v所在直线进行投影,然后w投影后长度乘上向量v长度(注意两个向量夹角)。 ? ?...当两个向量夹角小于90度时,点积后结果为正,如果两个向量垂直,点积结果为0,如果两个向量夹角大于90度,点积结果为负。 一个有趣发现是,你把w投影到v上面,或者把v投影到w上面,结果相同。...但是你不觉得上面两个过程是完全不同嘛?接下来就直观解释一下。 假设我们有两个长度完全相同向量v和w,利用其对称性,无论v投影到w上还是w投影到v上,结果都是一样: ?

71250

NAACL 2019最佳论文:量子概率驱动神经网络(附代码&文献)

而 why 问题,也就是它为什么 work 机制,是一个更难问题,正吸引越来越多研究者从不同角度和视野去挑战。 哈士奇还是狼?...将同一个希尔伯特空间状态(state)来一统不同粒度语言单元。包括可学习组件也嵌入到词语相同希尔伯特空间,这样人们有机会去通过人类易于理解语言单元(比如词级别)来诠释学习到组件。...复值语义组合 向量相加来表示句子是一个非常常见做法,在一些文本分类任务中,直接对文本所有词向量平均,然后接一个全联接层就可以得到不错结果。...当对两个复数相加时,不是直接对振幅进行相加,同时会考虑它们相位信息,有的时候振幅相加得到增益效果,有时候可以得到相消结果。...第二个例子是一个稍难一点例子,因为两个需要匹配两个文本片段,包含有一些不重叠词。这类匹配例子寄希望于词向量软匹配能力。 ? 结果 实验结果取得与一些经典模型可比较结果

1K31

学习「线性代数」看哪篇?推荐这篇,超级棒!

从不同学生视角看,有以下三种观点: 物理专业学生视角:向量是空间中箭头,决定一个向量是它长度和所指方向,只要这两个要素相同向量可以任意移动。...“ 7、点积 ” 点积标准观点 如果我们有两个维数相同向量,他们点积就是对应位置数相乘,然后再相加: ?...从投影角度看,要求两个向量v和w点积,可以向量w朝着过原点向量v所在直线进行投影,然后w投影后长度乘上向量v长度(注意两个向量夹角)。 ? ?...当两个向量夹角小于90度时,点积后结果为正,如果两个向量垂直,点积结果为0,如果两个向量夹角大于90度,点积结果为负。 一个有趣发现是,你把w投影到v上面,或者把v投影到w上面,结果相同。...但是你不觉得上面两个过程是完全不同嘛?接下来就直观解释一下。 假设我们有两个长度完全相同向量v和w,利用其对称性,无论v投影到w上还是w投影到v上,结果都是一样: ?

80020

矩阵模拟!Transformer大模型3D可视化,GPT-3、Nano-GPT每一层清晰可见

现在我们有了这两个向量,我们只需将它们相加即可生成另一个大小为C=48向量。 现在,我们对输入序列中所有token运行相同过程,创建一组包含token值及其位置向量。...我们会经常看到点乘运算非常简单:我们第一个向量每个元素第二个向量相应元素配对,这对元素相乘,然后结果相加。...如果两个向量非常不同,点积就会很小或为负。 只将query向量过去key向量进行运算,使得它成为因果自注意力。也就是说,token无法「预见未来」。...我们查看归一化自注意力矩阵(t=5)行,并将每个元素与其他列相应V向量相乘。 然后,我们可以这些向量相加,得出输出向量。因此,输出向量将以高分列V向量为主。...对于每一行,需要记录该行最大值和经过移位指数化处理后总和。然后,为了得到相应输出行,可以执行一系列操作:减去最大值,进行指数化处理,再除以总和。 那么,为什么叫「softmax」呢?

73110

3D图形学线代基础

向量相加 相同维度两个向量可以进行相加结果向量维度向量相同且每个维度数值为两个相加向量对应维度数值之和,如下: ? 向量加法满足三角形法则和交换律,如下: ?...;两个相加向量和其结果向量平移之后刚好会组成一个三角形,这就是向量加法三角形法则。...向量相减 相同维度两个向量还可以进行相减,结果向量维度依然和原向量相同,但是每个维度数值为两个相减向量对应维度数值之差,如下: ?...另外从几何意义上来说向量点乘等于两个向量大小向量夹角 cos 值积,那么 OA 向量和 OB 向量点乘结果又等于: ? 上述两个结果是相等,证明如下: ?...,OH 向量和 OE 向量叉乘最终结果为 OJ 向量;拆看来看 OF 向量 和 OE 向量叉乘得到 OI 向量,OG 向量和 OE 叉乘得到 OF 向量,而 OF 向量和 OI 向量相加最终结果也是 OJ

1.9K31

【Unity3d游戏开发】Unity3D中3D数学基础---向量

||v||^2 = x^2   +  y^2  4、标量向量乘法 虽然标量向量不能相加,但它们可以相乘。结果得到一个向量向量平行,但长度不同或者方向相反。...3D环境中单位向量接触单位球。 6、向量加法和减法 两个向量维数相同,那么它们能相加,或者相减。结果向量维数向量相同向量加减法记发和标量加减法记法相同。...9、向量投影 给定两个向量v和n,能够v分解成两个分量, 它们分别垂直和平行于向量n,并且满足 两向量相加等于向量v,一般称平行分量为v在向量n上投影。...如果参数顺序是相反结果向量指向正好相反方向,但将有相同长度。向量叉乘结果大小等于输入向量乘积,然后通过它们之间角度正弦值乘以该值大小。 ?...两个向量点乘所得到两个向量余弦值,也就是-1 到1之间,0表示垂直,-1表示相反,1表示相同方向。 两个向量叉乘所得到两个向量所组成面的垂直向量,分两个方向。

1.9K10

【读论文】TCPMFNet

编码器 编码器架构如上图所示,可以看到很有趣是这里有两个编码器,并且两个编码器之间还存在数据传输,作者这两个编码器命名为主自动编码器(图右)和辅助自动编码器(图左),两个编码器共享相同网络结构和参数配置...stage0输出相同大小)之后结果相加所得。...9,在整个图像中进行卷积即可,卷积之后就会得到3x3x9数据,这时再将3x3平铺为维数为9向量即可,这样我们就得到了长度为9,维数也为9一组token,就成功2D图像数据转换位1D数据。...特征融合网络 整个网络比较简单,从下而上,首先是一个卷积层,这个卷积层作用应该和我们之前提到图片数据转换为一维数据卷积层功能是相同,即使用卷积对整个图片进行卷积,然后将得到结果前两维铺平...这里我有个疑问,在我认知里,VIT输出token如果直接卷积结果进行相加,是不是还需要将token维数转换下?

9010

BertTransformer 被忽视细节

为什么 Transformer Embedding 最后要乘? 为什么 BERT 三个 Embedding 可以进行相加?...实验结果如下图: 第E行就是学习式实验结果,PPL(越低越好)和base相同,BLEU(越高越好)低了0.1。可以看出确实差不多。那为什么bert使用学习式呢?...因为 Bert 使用是学习式Embedding,所以 Bert 这里就不需要放大。 Q: 为什么 Bert 三个 Embedding 可以进行相加? 解释1....从梯度角度解释:(f + g + h)’ = f’ + g’ + h’ 参考:为什么 Bert 三个 Embedding 可以进行相加?...Q: 为什么进行 softmax 之前需要除以 A: 防止梯度消失 论文中解释是:向量点积结果会很大, softmax 函数 push 到梯度很小区域,scaled 会缓解这种现象。

50820

彻底理解矩阵乘法

点击 "阅读原文" 可以获得更好阅读体验。 前言 今天角度比较清奇,我们来讲讲矩阵乘法。...教科书告诉你,计算规则是,第一个矩阵第一行每个数字(2和1),各自乘以第二个矩阵第一列对应位置数字(1和1),然后乘积相加( 2 x 1 + 1 x 1),得到结果矩阵左上角那个值3。 ?...列向量视角 先将矩阵 和 每一列看成一个向量,例如: 这样就可以把矩阵 和 写成如下形式: 现在如果我矩阵 和向量 相乘会得到什么?...到这里你应该能领悟为什么矩阵 行数矩阵 行数相同了,也就是矩阵 向量矩阵 向量大小相同。 怎么样,是不是有一种茅塞顿开感觉?别急,下面我们再换一种理解角度。...现在你应该能领悟为什么矩阵 列数矩阵 列数相同了,也就是矩阵 向量矩阵 向量大小相同。 故事到这里就结束了吗?远远没有,下面我们再换一种理解角度

1.7K11
领券