人们在机器学习中使用输入空间、特征空间、样本空间、假设空间、参数空间等术语。
有谁能用一个具体的例子来解释这些术语,比如学习MNIST数据集?,它有1797个样本,10个类,8*8维和17个特征。
请不要泛泛而谈。
例如,在这种情况下,特征空间是否是一组由17个元素{0,1,…,16}组成的集合?
发布于 2019-09-23 06:37:30
我们将讨论每一个条款。
它包含模型的所有可能输入。假设模型接受一个向量,input = [ x_1 , x_2],其中x_1 , x_2 \in [ 1 , 10 ],那么我们可以有10^{2}输入。这构成了“输入空间”。见这里。
对于MNIST数据集,图像的维数为8*8,即64点。现在,每个点可以有一个位于区间[ 0 , 16 ]中的值,所以它可以有16个值。因此输入空间的大小为16^{64}。
定义了特征所在的多维空间。考虑到上面的例子,我们可以有三个样本,
这些向量可以包含在一个n维空间中(这里是我们的例子的n=2 )。因此,在我们的例子中,我们可以绘制我们的特征的2D空间构成了我们的“特征空间”。
对于MNIST数据集,输入向量有64个元素,它们对应于64维空间(特征空间)。
见这回答。
输入空间与特征空间的差异。输入空间包括模型的所有可能的输入。另一方面,特征空间包括来自给定数据集的特征向量。它们可能不包含模型的所有可能输入。
包含由模型产生的所有函数的空间。这些函数将输入映射到各自的输出。一个模型可以基于它的学习输出各种功能(或者更确切地说,是输入和输出之间的关系)。如果你有一个更大的假设空间,模型无法找到“最佳”空间。看这个回答。
对于MNIST数据集,正如我们前面计算的那样,输入空间的大小是16^{64}。他们中的每一个都可以拥有10个标签(类)中的任何一个。因此,假设空间的大小是10^{16^{64}}.。
对于ML中的每个模型,我们都有一些模型的参数。我们可以定义这些参数(或超参数)的空间是我们的“参数空间”。从维基百科,我们可以理解,
每个模型的参数空间都不同。
在正弦波模型{\displaystyle y(t)=A\cdot \sin(\omega t+\phi > ),}y(t)=A\cdot \sin(\omega t+\phi )中,振幅A> 0,角频率ω> 0,相位φ∈S1。因此,参数空间为{\displaystyle R^{+}\times R^{+}\times S^{1}}。
https://datascience.stackexchange.com/questions/60617
复制相似问题