首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

手机基带电路设计20问(1)

这个问题本身其实并不准确,首先,电压和电流是由负载的需求来决定的,比如负载需要的是1.2V的电压,前端电源就不能给他提供3.3V的电;负载需要500mA的电流,前端电源的输出电牛就不能低于500mA,要知道负载是先决条件,电源要根据负载来选择。再回到问题本身,从负载的角度而言,低电压、电流的负载功耗当然也低;从电源的角度而言,以LDO电源为例,某负载的需求是1V@300mA,那么LDO的输入、输出电流也是300mA,假如LDO输入是3V,则LDO本身的功耗就是(3-1)*0.3=0.6W,如果降低LDO的输入为1.2V,则LDO本身的功耗就是(1.2-1)*0.3=0.06W,功耗降低为前者的10%,如果负载是屏幕这种常开的类型,0.6W的功耗就会严重减低手机待机时间,此时需要优化电源,降低LDO上的损耗。

02

实现机器人的系统1和系统2 Slow and fast

处理多步骤任务时总是存在权衡。高级认知过程可以在不确定的环境中找到实现目标的最佳行动序列,但它们很慢并且需要大量的计算需求。相反,较低级别的处理允许对环境刺激做出快速反应,但确定最佳行动的能力有限。通过重复相同的任务,生物有机体找到了最佳的权衡:从原始运动开始通过创建特定于任务的神经结构,组合低级结构然后逐渐出现高级复合动作。最近被称为“主动推理”理论框架可以捕获人类行为的高级和低级过程,但任务专业化如何在这些过程中发生仍不清楚。在这里,我们比较了拾放任务的两种分层策略:具有规划功能的离散连续模型和具有固定转换的仅连续模型。我们分析了定义内在和外在领域运动的几个后果。最后,我们提出如何将离散动作编码为连续表示,将它们与不同的运动学习阶段进行比较,并为进一步研究仿生任务适应奠定基础。

01

神经网络架构搜索——可微分搜索(Latency-DARTS)​

可微分的神经架构搜索方法在自动机器学习中盛行,主要是由于其搜索成本低,设计搜索空间灵活。然而,这些方法在优化网络方面存在困难,因此搜索到的网络往往对硬件不友好。本文针对这一问题,在优化中加入可微分的时延损失项,使搜索过程可以在精度和时延之间进行平衡系数的权衡。延迟预测模块(LPM)是对每个网络架构进行编码,并将其输入到一个多层回归器中,通过随机抽样收集训练数据,并在硬件上对其进行评估。本文在NVIDIA Tesla-P100 GPU上评估了该方法。在100K采样架构(需要几个小时)的情况下,延迟预测模块的相对误差低于10%。嵌入延迟预测模块,搜索方法可以减少20%的延迟,同时保留了精度。本文的方法还能简洁的移植到广泛的硬件平台上,或用于优化其他不可微的因素,如功耗。

02

深入浅出彩虹表原理

一言以蔽之,彩虹表是一种破解用户密码的辅助工具。彩虹表以时空折中理论为基础,但并不是简单地“以空间换时间”,而是一种“双向交易”,在二者之间达到平衡。1980年,公钥密码学的提出者之一Hellman针对DES算法(一种对称加密算法)提出了一种时空折中算法,即彩虹表的前身:预先计算的散列链集。2003年瑞典的Philippe Oechslin在其论文Making a Faster Cryptanalytic Time-Memory Trade-Off(参考博客2)中对Hellman的算法进行了改进,并命名为彩虹表。当时是针对Windows Xp开机认证的LM散列算法。当然,目前除了破解开机密码,彩虹表目前还能用于SHA、MD4、MD5等散列算法的破译,速度快、破解率高,正如Philippe在论文中提到的:“1.4G的彩虹表可以在13.6s内破解99.9%的数字字母混合型的Windows密码“。实际上,Philippe所做的改进本质上是减少了散列链集中可能存在的重复链,从而使空间的有效利用率更高,关于这一点,后面会详述。

04

AAAI 2022 Oral | 无需人工标注,清华、快手提出基于参考图像的单张生成图像质量评价方法

机器之心专栏清华大学黄高团队、快手Y-tech团队 这是一篇来自清华大学黄高团队和快手 Y-tech 团队合作的论文,该工作探究了如何在基于参考图像的生成任务中实现对于单张生成图像质量的评价。文中设计的 RISA 模型无需人工标注的训练数据,其评价结果能够与人的主观感受具有高度一致性。本工作已入选 AAAI 2022 Oral。 引言 现有的生成图像评价工作主要基于生成图像的分布对模型「整体」的生成效果进行评价。然而,一个性能优异的生成模型并不代表其合成的「任何一张」图像都具有高质量的效果。在基于参考图像(

01

干货 | 极限元算法专家:深度学习在语音生成问题上的典型应用 | 分享总结

AI 科技评论按:深度学习在2006年崭露头角后,近几年取得了快速发展,在学术界和工业界均呈现出指数级增长的趋势;伴随着这项技术的不断成熟,深度学习在智能语音领域率先发力,取得了一系列成功的应用。 这次分享会中,雷锋网邀请到了中科院自动化所的刘斌博士。刘斌,中科院自动化所博士,极限元资深智能语音算法专家,中科院-极限元智能交互联合实验室核心技术人员,曾多次在国际顶级会议上发表论文,获得多项关于语音及音频领域的专利,具有丰富的工程经验。刘斌博士会与大家分享近年来深度学习在语音生成问题中的新方法,围绕语音合成和

09

论文精读系列:rotated-binary-neural-network(RBNN)

DNN(deep neural networks)在计算机视觉任务中取得了很好的效果,比如图像分类、目标检测、实例分割等。不过,大量的参数和计算的复杂度带来的高存储和高计算性能的限制,使得DNN很难应用在一些低性能的设备上。为了解决这个问题,提出了很多压缩技术:network pruning,low-rank decomposition,efficient architecture design,network quantization。其中,network quantization将全精度(full-precision)网络中的权重和激活值转换成低精度的表达。其中一个极端的情况就是 binary neural network(BNN 二值神经网络),它将权重和激活值的数值限制在两个取值:+1和-1。如此,相比全精度的网络,BNN的大小可以缩小32倍(全精度网络中一个双精度数值用32bit表示,BNN中一个数值用1bit表示),并且使用乘法和加分的卷积运算可以使用更高效的 XNOR 和 bitcount 运算代替。

01
领券