腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(116)
视频
沙龙
1
回答
C#中的WinML和OnnxRuntime的区别
、
、
、
、
要将经过训练的.Net模型打包到WPF Core3.1应用程序中,我想知道这两种方法: Microsoft.ML.OnnxRuntime和Microsoft.
AI
.MachineLearning (WinML或者它需要特定的环境来进行
推理
? 为什么微软需要维护两种不同的方法,如果它们本质上是相同的?
浏览 120
提问于2020-12-09
得票数 0
1
回答
如何在计算机上而不是在TPU上运行这些Coral
AI
模型的
推理
?
、
、
、
、
我有Coral
AI
usb TPU,我成功地运行了入门示例,部署了已经编译/训练过的示例模型(图像分类),并在TPU上运行了一个鹦鹉图像
推理
:--input test_data/parrot.jpg 但是,我想在计算机CPU (例如,我的笔记本电脑或Raspberry Pi )中运行相同模型的
推理
,以比较在
加速
器中运行
推理
所需的时间,比如Coral
浏览 14
提问于2022-04-28
得票数 0
1
回答
Azure NCv3和NC T4_v3有什么区别?
、
尽管有一种解释"The NC 3-系列和NC T4 _v3系列的尺寸是为计算密集型的GPU
加速
应用程序优化的,一些例子是基于CUDA和基于OpenCL的应用程序和仿真、人工智能和深度学习。NC T4 v3-系列的重点是基于NVIDIA的Tesla T4 GPU和AMD EPYC2罗马处理器的
推理
工作负载。NC 3系列专注于高性能计算和以NVIDIA的NC U.为特色的
AI
工作负载。
浏览 5
提问于2022-10-14
得票数 0
1
回答
并行化跨CPU核心的代码,该代码在一个嵌套字典上迭代,字典中的条目总数为700 K。
、
、
、
、
test_large_images[key]['avg_prob'] = sum/len(test_large_images[key]['pred_probability']) 这是一本包含359张
大
图像的字典test_large_images是一种对较小图像进行
推理
的字典,它对每个补丁都有预测概率、
大
图像名、补丁名等。我的目标是根据图像内较小斑块的预测概率来找出
大
图像的平均概率。当我在一个较小的数据集(45K补丁)上运行这个循环时,我已经将它的
推理
保存在
浏览 2
提问于2022-05-12
得票数 0
回答已采纳
1
回答
工蜂人工智能应该如何在无人机之间分配任务?
例如:
AI
决定要收集特定的资源类型。在地图的不同位置都有不同的资源类型。它应该派哪架无人机去收集资源?所有人都有能力,但有些人可能离资源更远。有些人可能已经在收集另一种资源。要做出决定,
AI
需要评估各种因素,并在游戏进行过程中不断地重新评估,而不需要踩到自己的脚尖,还要不断地将工作分配给相同的无人机。 是否有一个适用于这种任务分发的人工智能领域,我可以查看?
浏览 0
提问于2014-05-02
得票数 3
3
回答
(Lua)游戏脚本意味着什么?
、
、
游戏开发人员是否使用它来
加速
游戏逻辑的创建(等级、
AI
、.)?它是否用于编写游戏框架代码,因为脚本编写可以更快? 基本上,我想知道这种脚本使用在普通配置和框架逻辑之间有多深。以及编写了多少脚本。几个配置行还是相当
大
的数量?
浏览 0
提问于2012-10-01
得票数 9
2
回答
在排序数组的联合中求kth-最小元素
、
这里有一行:,我们观察到,当
Ai
< Bj,那么肯定是真的,
Ai
< Bj-1。另一方面,如果Bj <
Ai
,则Bj <
Ai
-1..对于任何i和j来说,这怎么可能是真的呢?第二,这句话也让我感到困惑:我们试图通过比较A和B的中间元素来解决这个棘手的问题,我们把它们称为
Ai
和Bj。如果
Ai
介于Bj和Bj-1之间,那么我们刚刚找到了i+j+1最小元素,尽管事实证明它是真的。
浏览 5
提问于2012-09-23
得票数 4
回答已采纳
1
回答
性能良好的中间插入和随机访问的顺序容器
、
、
我用了一个std::list,这对PvsP来说有足够快的利润率,但是现在我正在做
AI
,它使用蛮力找到一个好的移动(游戏是确定性的),而他们的
大
O(N)是伤害。关于我的问题,是否有一个免费的、顺序,可能是基于树的、类似STL的、测试良好的容器,具有不超过log(n)的
大
O值,用于中间插入和随机访问?New :我在AVL-Array中遇到的所有问题都是由我的调试器(!)引起的,现在我已经解决了它。
浏览 1
提问于2014-03-19
得票数 1
1
回答
神经网络怎么能脱离局部最小值呢?
、
、
由于如此复杂的神经网络函数中存在大量的局部极小值,使得神经网络陷入局部极小值是很常见的。神经网络如何脱离局部极小值。 📷
浏览 0
提问于2020-10-06
得票数 1
3
回答
目前最快的Mask R-CNN实现是什么
、
、
、
、
我目前正在使用Detectron2 Mask R-CNN实现,我相信
推理
速度大约为5FPS。 为了加快速度,我研究了其他
推理
引擎和模型实现。例如ONNX,但我无法获得更快的
推理
速度。有没有其他成熟和快速的
推理
引擎或其他技术来
加速
推理
?
浏览 73
提问于2019-12-18
得票数 7
1
回答
为什么一个更轻的Keras模型会在
推理
时以与更大的原始模型相同的速度运行?
、
、
、
、
在这两种情况下,我都使用了相同的
推理
方法:batch_size = 32 model = keras.models.load_model('model
浏览 18
提问于2022-01-08
得票数 3
回答已采纳
7
回答
如何看待因特尔腾讯云联手,以
AI
推动从云到边缘的全面创新?
作为新时代技术下的你,如何看待两者的合作,以
AI
推动从云到边缘的全面创新?
浏览 749
提问于2018-05-24
12
回答
有没有开源的
AI
引擎?
我正在寻找一个用C/C++,ActionScript或Java实现的开源
AI
引擎,但没有成功。你知道任何开源的实现吗? 更新:感谢您的回答!我不知道人工智能领域有多广阔。我正在开发一个示例应用程序。
浏览 1
提问于2009-07-05
得票数 35
回答已采纳
7
回答
腾讯云
AI
有哪些应用?
云
AI
现在已经是极具影响力的话题了,那么腾讯云
AI
有哪些应用呢?
浏览 2070
提问于2018-09-26
2
回答
如何通过pytorch使英特尔GPU可用于处理?
、
、
我使用的笔记本电脑配备了英特尔公司的HD Graphics 520。有谁知道如何设置深度学习,特别是Pytorch?我已经看到,如果你有Nvidia显卡,我可以安装cuda,但当你有英特尔图形处理器时怎么办?
浏览 1
提问于2020-10-29
得票数 4
3
回答
视频游戏如何显示在我的屏幕上?
有没有一些
大
的RenderEverything方法可以在一帧中执行一次?不过,这让我觉得做这样的事情有点慢。
浏览 2
提问于2010-07-27
得票数 3
回答已采纳
1
回答
图in中大容量加载的最佳设置
、
最后,如果你有100多个单独的文件而不是一个
大
的海龟文件,或者压缩这些文件会提高加载速度,还是只会减少最初的磁盘使用量,这是否也很重要?
浏览 1
提问于2016-11-25
得票数 1
1
回答
火炬定制成对距离
、
、
、
、
我正在处理
大
距离矩阵(10-80k行;3k科尔),我想在这个矩阵上获得自定义的成对距离,并快速完成。我试过了,但用大量的数据,它仍然“慢”,我尝试与火炬与库达
加速
和欧几里得距离,实际上是如此快(100倍)。因此,现在我想要定制成对的距离,例如:对于成对行(a和b):获得
ai
*bi (其中我是cols)的标准差: |1 |2 |3 |4 a |5 |3
浏览 7
提问于2022-11-14
得票数 0
回答已采纳
3
回答
TensorFlow模型在Google平台上的应用实例批量在线预测速度太慢
、
、
、
、
在上述配置的
AI
平台上运行模型时,只要发送一幅图像,所需的时间就不到一秒钟。如果我开始发送多个请求,每个请求都有一个图像,模型最终会阻塞并停止响应。该模型是一个
大
版本的YOLOv4 (~250 is的SavedModel格式)。我在TensorFlow中构建了几个后处理算法,这些算法对模型的输出进行操作。在我的机器(GeForce GTX 1650)上,该模型的响应速度是
AI
平台上的3倍,但它确实与响应时间不一致。
浏览 13
提问于2020-07-11
得票数 3
回答已采纳
1
回答
基于gpu的tensorflow宽线性模型
推理
、
、
、
、
这个问题是关于
推理
部分的。我正在尝试在cpu和gpu上进行基准测试。我正在使用Nvidia P100图形处理器(4个芯片)在我当前的GCE盒上。我是gpu的新手,所以对于一些幼稚的问题,我很抱歉。这个模型相当
大
,大约54k的运算量(与dnn或imagenet模型相比,它被认为是
大
的吗?)当我记录设备放置时,我只看到gpu:0正在使用,其余的都没有使用?关于如何更好地进行基准测试以获得更好的cpu-> gpu传输的时间分解和从cpu到gpu的图形计算的实际
加速
,有什么想法吗?更好地直接加载数据,如果可能的话零拷贝到gp
浏览 0
提问于2018-05-17
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
网购大促“激战正酣” 快递“跑出”加速度
CPU推理提升4到5倍,苹果用闪存加速大模型推理,Siri 2.0要来了?
LLM Accelerator:使用参考文本无损加速大语言模型推理
蚂蚁开源大模型技术 Lookahead,将推理加速 2-6 倍
DeepSeek「开源周」Day1:开源FlashMLA,助力大模型推理加速
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券