首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

神经网络的批量大小如何影响准确性?是否可以仅使用 CPU 来训练神经网络?

问:神经网络的批量大小如何影响准确性?

答:在训练神经网络时,您使用的批量大小不仅仅是一个数字。它有一个重要的作用。您会看到,您的批量大小基本上是在进行调整之前计算网络查看的训练样本数量。

使用小批量进行滚动,当然,它会更快地完成每个训练周期。但它变得复杂。你不想不看就跳下去,对吧?小步骤意味着复杂的路线,因此您的网络最终可能会在高精度区域周围蜿蜒曲折。这就像当你颤抖时试图击中目标——当然,有时你会击中目标,但你的整体准确性可能会摇摆不定。

但是,如果批量大小调得太大,情况就不同了。一切都刚刚稳定下来。您的网络的准确性不再那么不稳定——这就像用数字绘画而不是随心所欲。但请注意,您的网络可能会自满地停留在其舒适区域内,而无法进入那些真正高精度的角落。这是典型的欠拟合案例。

问:神经网络或其他机器学习技术可以从理论上设计 CPU 架构吗?它是否可以比人类设计的 CPU 更好/更高效?

答:理论上是的。我们甚至已经开始有实际例子来证明这一点。然而,人类的一些“想法”超出了我们所描述的人工智能可以理解和解决的问题。因此,人类在设计和架构循环中仍然有一席之地。

这会持续多久,我不知道。我不认为它会很快结束。而且,不制造更大更强大的模型也不是问题。这是一个我们不知道如何制作描述我们想要解决的问题的相关模型的问题。我们甚至不知道如何表达它们以便我们能够解决它们,更不用说用人工智能可以解决它们的方式来表达它们了。 

问:是否可以仅使用 CPU 来训练神经网络?

答:对的,这是可能的。起初,我只使用 CPU 核心来训练我的许多项目。有时我花了几天时间。搭载i5第6代处理器。后来,我得到了一个带有CUDA核心的rtx2060。我能够在几小时或几分钟内而不是几天内训练并建立并运行我的模型。如果您使用Python和tensorflow,您可以选择是否在“cpu”上进行训练。

问:人工智能调速器有何负面影响?

答:人工智能 (AI) 有潜力彻底改变我们生活的许多方面,但必须考虑潜在的负面影响,特别是在讨论人工智能驱动的调控器概念时。虽然人工智能调控器听起来很有希望,但在实施这样的系统之前,需要解决一些合理的问题。

1.缺乏同理心和情感理解:

人类体验的特点是情感、同理心以及对文化、社会和情感细微差别的理解。人工智能即使拥有先进的编程,也缺乏真正理解或体验这种情绪的能力。州长需要具备情商才能有效地解决公民的多样化需求和担忧。人工智能管理者可能难以理解或完全理解人类经历的复杂性,这可能导致决策存在偏见或忽视关键的社会问题。

2. 道德困境和价值体系:

治理决策常常涉及道德困境,需要对社会价值观和道德框架有深入的了解。人工智能系统缺乏道德指南针,仅根据编程算法运行。因此,仅由人工智能驱动的州长将难以做出复杂的道德决策,并可能无意中侵犯公民权利,导致公众不信任和社会动荡。 

3. 问责制和透明度:

有效治理的基石之一是问责制。公民期望透明度和让他们选出的代表或州长对其行为负责的能力。然而,人工智能很容易出现不透明的决策过程,使公民难以理解某些选择背后的原因或在必要时对其提出质疑。如果没有明确的问责途径,人工智能管理者可能会削弱公众对决策过程的信任,从而破坏民主原则。

4. 适应性和情境理解有限:

治理需要对复杂的地缘政治和社会经济格局有全面的了解。人工智能管理者可能很难适应快速变化的环境,或者理解人类管理者可以轻松驾驭的特定环境的复杂性。这种限制可能会导致决策不理想或不适当,从而给社会带来负面后果。

5. 工作岗位流失和社会不平等:

人工智能的实施可能会导致广泛的工作岗位流失,并给角色过时的个人带来挑战。向人工智能驱动的治理体系的过渡也可能会加剧现有的社会不平等,因为来自弱势背景的个人可能难以适应或无法获得以人工智能为主的劳动力中创造的新机会。

虽然人工智能无疑给社会带来了各种好处,但认识到这些潜在的负面影响至关重要。在人工智能驱动的决策和人类洞察力之间取得平衡对于确保个人的需求、价值观和权利在政府流程中得到适当代表和保障是必要的。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OxO8rnpxuenAxGmrMYSCA7yQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券