我在想(哦,天哪,它一开始就很糟糕)关于神经元网络,以及为什么不可能模拟那些,因为它们需要同时进行许多原子操作(这里的意思是同时进行),因为这就是神经元的速度:它们要计算的东西很多。
由于我们的处理器是32位的,所以它们可以计算更大的带宽(意味着许多不同的原子序数,是浮点或整数),频率竞赛也结束了,制造商开始发货多核处理器,要求开发人员在他们的应用程序中实现多线程。
我还在思考计算机和大脑之间最重要的区别;大脑使用大量神经元,而计算机使用高频率的精确度:这就是为什么用当前的处理器模型来模拟实时AI似乎更难或不可能。
由于32位/64位芯片也需要大量的晶体管,而且AI不需要矢量/浮点精度,那么在单个处理器上拥有更多的8位内核是不是一个好主意,比如100或1000,因为它们占用的空间要小得多(我不在intel或AMD工作,所以我不知道他们是如何设计处理器的,这只是一个胡乱猜测),为这些类型的AI模拟做计划?
我不认为它只会服务于AI研究,因为我不知道webservers如何真正利用64位处理器(字符串使用8位),Xeon处理器只是考虑到它们的缓存大小而不同。
发布于 2011-02-06 03:31:24
您所描述的内容已经可以通过多媒体指令集获得。事实证明,计算机图形学也需要对字节甚至半字节进行许多并行操作。因此,CPU开始增加向量运算(SSE、MMX等);最近,图形处理器开始向通用计算(GPGPU)开放。
我认为你错误地假设神经元处理不是向量运算:许多AI神经元网络严重依赖向量和矩阵运算。
https://stackoverflow.com/questions/4909106
复制相似问题