首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

UIScrollView.contentSize似乎随着缩放而增长

首先,要了解UIScrollView.contentSize,我们需要先学习一下相关知识。

UIScrollView 是一个UIKit框架中的视图控制器,它允许用户通过水平滚动和垂直滚动浏览视图。而 contentSize 是UIScrollView的一个属性,表示视图控制器中可滚动内容的大小。

在大部分情况下,UIScrollView的contentSize属性默认值为CGSizeMake(0, 0),这意味着没有滚动内容,因此,视图控制器中的所有内容都显示在窗口中。但是,当您添加一些可滚动内容时,可以通过设置contentSize属性来调整其大小。

例如,假设您要在UIScrollView中添加一些文本,并将contentSize属性设置为CGSizeMake(320, 480),则文本将在水平方向上滚动,而垂直方向上固定在顶部。在这种情况下,文本的大小会根据视口的大小而增加或减小,但不会滚动到视图之外。

但是,如果您在调整contentSize属性时遇到了问题,或者想要了解更多关于UIScrollView的内容,建议参考Apple的官方文档,其中详细解释了UIScrollView的所有属性和使用方法。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

推翻OpenAI结论,DeepMind重新定义预训练的参数和规模关系!

当把视角落在今年下半年,大模型的“军备竞赛”似乎戛然而止,22年4月,Google发布了5400亿参数的PaLM荣登“大模型”榜首,然而到现在,似乎也没有出现更大规模的模型。...在所有人热情和兴奋消退的背后,其实是盲目跟风追求大模型之后的“一地鸡毛”,改改框架,换换数据,加大参数量,这种万能的公式似乎不太奏效了,更大的模型似乎也只是产生了渐进式的进步。 问题出在了哪里?...随着模型训练步数的增加(计算量FLOPs从增加到),训练loss逐渐降低(左图)。...由此,模型训练时,训练数据集要随着模型参数规模的增加同等扩增。 2....在过去的道路里,大型语言模型的大小每年都在增长 10 倍[2],慢慢的大家开始认识到继续这条道理会导致收益递减、成本增加同时伴随着新的风险,因此,未来的趋势将不再是海量数据+超大算力的暴力美学,超大模型的拥趸们不用在执着于参数规模

90810

晶体管逐渐变小,Dennard定律比摩尔定律更值得关注,散热和功耗推动芯片专业化

大数据文摘出品 来源:IEEE 编译:木槿啦啦啦啦、武帅 关于“摩尔定律”一直有两种声音: 一是认为今后集成电路上的元器件数量每年只能增长几个百分点,“摩尔定律已死”; 另一种则认为新的技术不断发展,...Hennessy补充道,真正的问题在于Dennard缩放比例定律的失效。 Dennard缩放比例定律 Dennard缩放比例定律是基于1974年Robert H....Dennard缩放比例定律(Dennard scaling)表明,随着晶体管变得越来越小,它们的功率密度保持不变,因此功率的使用与面积成比例;电压和电流的规模与长度成比例。...自2005-2007年前后,Dennard缩放比例定律似乎已经失效。截至2016年,集成电路中的晶体管数量仍在跟随“摩尔定律”增加,但由此带来的性能改善却更为缓慢。...增加内核数量有利于提高(虽然并非完全)工作负载,但是由于拥有多个核心增加的活动开关元件仍然会导致整体功耗增加,从而加剧CPU功耗问题。

1.8K30

人类已达硅计算架构上限!预计2030年,AI会消耗全球电力供应的50%

在1960年代,英特尔联合创始人Gordon Moore注意到集成电路中的晶体管数量似乎同比翻了一番,提出了摩尔定律。...那时的预期是,有了更快和更便宜的处理器,计算能力会随着时间呈指数级提高。 然而,构成摩尔定律的不同力量已经发生了变化。 几十年来,摩尔定律背后的推动力是Dennard缩放定律。...50年的微处理器趋势数据 2005 年,由于电流泄漏导致芯片升温,这种缩放比例开始失效,随之而来的是具有单个处理核心的芯片的性能停滞不前。...当他们处理信息时,其中一些信息会随着微处理器合并计算分支或覆盖注册表被丢弃。这并不是免费的。 热力学定律对某些过程的效率有严格的限制,它也适用于计算,就像它适用于蒸汽机一样。...但现在,知道这件事的人,似乎并不多。 参考资料: https://www.exponentialview.co/p/the-great-computing-stagnation

24930

GPT超越扩散、视觉生成Scaling Law时刻!北大&字节提出VAR范式

此外,对于视觉生成领域是否存在「Scaling Law 缩放定律」仍未知,即测试集损失是否随模型或训练开销增长呈现出可预测的幂律 (Power-law) 下降趋势仍待探索。...GPT 形式自回归模型的强大能力与 Scaling Law,在图像生成领域,似乎被「锁」住了: 自回归模型在生成效果榜单上落后于一众 Diffusion 模型 剑指「解锁」自回归模型的能力和 Scaling...3B、7B 后体现出饱和现象,无法靠近 FID 下限; VAR 经过缩放到 20 亿参数,性能不断提升,最终触及 FID 下限 更高效的数据利用:VAR 仅需 350 epoch 训练即超过 DiT...相关研究已经确定,在 Scale up 自回归大型语言模型过程中,测试集上的交叉熵损失 L,会随着模型参数量 N、训练 token 个数 T,以及计算开销 Cmin 进行可预测的降低,呈现出幂律(Power-law...Scaling law 不仅使根据小模型预测大模型性能成为可能,节省了计算开销和资源分配,也体现出自回归 AR 模型强大的学习能力,测试集性能随着 N、T、Cmin 增长

12310

聊聊苹果的M2芯片

如果你喜欢听不是阅读,可以看我们制作的 YouTube 视频[2]。 很奇怪,我们看到一些专家谈论这是 M1.5 或 M1+。这都是胡说八道。...苹果提供的图片似乎与实际的 M2 不相称。SRAM 单元和 PHY在不同芯片上应该是一样的,我们可以基于这个来辨别,然后看到 M2 似乎比它实际的要小。...由于专用于高密度 SRAM 单元的总面积较小,专用于 IO 和其他逻辑的总面积较大,因此它的密度将较低。出于这个原因,Locuza 缩放了 M2 晶粒(die)。...与 M1 和 A15 相比,每一代增长最大的地方就是共享缓存 L2,它已经从 12MB 增长到 16MB。AMX 单元在 A15 和 M1 上看起来也一样。...整个 E-Core 复合体经过几代的发展也才大了 1mm2,整个 CPU 复合体则大了 6.2mm2。 缩放后的 GPU 与 128 ALU 的 M1 相比,每个内核的大小也几乎相同。

1.2K30

18岁天才华裔少年用一个经典算法,推翻量子加速神话!

你可以将这些数据视为在一张巨大网格或矩阵中排列,上方列出的是电影,侧方列出的是用户,网络中各点的值用于量化每个用户对每部电影的喜爱程度。...Kerenidis和Prakash证明了量子计算机能够比任何已知算法更快地解决推荐问题,速度呈指数级增长。但他们没能证明快速的经典算法是不存在的。...但随着时间的推移,他开始认为,可能确实存在这样的算法。 “我开始相信确实存在一种快速的经典算法,但我无法向自己证明这一点,而且Scott似乎认为这样的算法不存在,而且他是权威。”Tang说。...最后,随着论文的最后期限越来越近,Tang写信给Aaronson,承认自己对这个问题的怀疑越来越深了:“Tang写信给我说,实际上,'我认为存在一种快速的经典算法'。”Aaronson说。...与Kerenidis和Prakash的算法一样,Tang的算法也是在多对数时间内运行的,也就是说计算时间是按照特征(如数据集中的用户和产品的数量)的对数进行缩放的,并且比任何之前已知的经典算法的速度呈指数增长

45520

没有指数级数据就没有Zero-shot!生成式AI或已到达顶峰

在大模型正火的时候提这个问题,似乎不合时宜。 毕竟,随着数据和模型规模的增大、计算能力的增加,我们似乎不再怀疑拥有超强人工智能的未来。 ——但是!...v=dDUC-LqVrPU 对数魔咒 当前,由于大模型展现出的zero-shot learning能力,人们乐观地预计大模型的性能可以相对于训练数据呈指数级增长,——这也是人们对AGI抱有期望的原因。...前谷歌高级工程师、现任RekaAI CMO的Piotr Padlewski认为: 首先,缩放定律告诉我们,模型越大,获得相同性能所需的样本就越少。...,对数线性缩放趋势在所有七个实验维度上都持续存在。...恰恰相反,这些模型需要一个概念的数据呈指数级增长,才能以线性方式提高它们在与该概念相关的任务上的性能,——极端的样本低效率。

5910

谷歌工程师硬核长篇预测,证实黄仁勋观点:AGI或在2029年出现,AI五年内通过人类测试

到了2024年,「规模扩大时才会发生涌现」的观点更是成为了主流。 如果缩放定律继续下去,AGI将不会再花那么长时间。迄今为止的证据表明,缩放定律更有可能是正确的。...随着AI变得更加流行和易于获取,提出研究想法的人群会增长,这无疑加速了技术的发展。 缩放定律 一开始公认的模型缩放规律是基于2020年Kaplan等人的研究,这些规律还有很大的改进空间。...随着模型变得越来越大、性能越来越好,研究将会聚集在一小部分已经证明能随着计算能力增长而有效扩展的方法上。这种现象已经在深度学习领域发生,并且仍在继续。...虽然大多数AI服务虽有盈利潜力,但为了追求增长还是选择亏损经营。据说,微软会因为Github Copilot上每增加一位用户每月亏损20美元,不过Midjourney已经实现了盈利。...这个问题似乎集中在与物理形态相关的感官上,例如味觉和触觉。 那么,我们能否说智能的发展受到这些感官刺激的限制呢? 人们通过接触和感受大量的刺激来学习和成长,机器学习模型的途径则不同。

12310

简化版Transformer :Simplifying Transformer Block论文详解

P可以用递归函数来描述: E表示参数利用效率,这是一个非线性函数,可能随着参数数量的增加减小。 δn和δd分别表示参数数量和数据集大小的减少,使我们能够检查额外资源的边际效用。...G体现了计算约束,一个随n和d超线性增长的函数,代表了与更大的模型和数据集相关的不断增长的计算成本。 D反映了数据集的复杂性或难度,它也随着数据集大小的增加增长,并引入了更多具有挑战性的学习问题。...递减收益:对数项确保P的增长率是次线性的,与经验观察的收益随着模型大小的增加减少相一致。 在实践中,随着n和d的增加,P趋于渐近线,这些因素共同对llm的有效缩放施加了实际限制。...因此当n和d接近无穷大时,函数P在数学上可以无限增长,但现实世界的情况会限制LLM缩放,因为复杂的非线性生长函数P强调了经验现实,即Transformer 架构的缩放确实存在实际限制。...随着训练的进展,注意力矩阵进行了更新学习,允许模型捕获更复杂的依赖关系。这种演变可以建模为: t为训练步长,Q(t)、K(t)、V(t)随训练进行了更新。

40710

模型大十倍,性能提升几倍?谷歌研究员进行了一番研究

随着深度学习模型的体量越来越大,进行任何形式的超参数调整都会变得非常昂贵,因为每次训练运行都可能要花费数百万美元。因此一些研究旨在探究「随着模型大小增加,性能提高程度」的规律。...接下来,我们就可以试图理解我们的模型是如何随着隐藏层大小变化的了。我们可以训练各种大小的模型,并查看性能如何变化,绘制结果。 具有不同隐藏层体量的 8 个不同模型的性能(以蓝色显示)。...随着训练大模型成为了学界业界的新潮流,模型体量扩展关系的问题似乎不断出现。即使是简单的事情,如使用此处所示的模型体量和学习率之比也并不总是能成功(例如为语言模型指定微调过程)。...一种潜在的解决方式是使用缩放定律来预测性能极限。随着规模的扩大,如果性能偏离幂律关系,人们应该将其视为未正确调整或设置好的信号。听说这是 OpenAI 经常使用的思路。...随着模型尺度研究的发展,我们希望这种平衡可以更加明确,并且可以更多地利用缩放关系来实现更多的小规模研究。

31520

为什么应该使用微服务(Microservices) ?

不仅仅是Netflix、亚马逊或谷歌,似乎几乎每个人都采用了这种架构风格。虽然微服务已经存在了很长一段时间,也有很多关于它的文章,但我今天想再写一篇,所以请耐心听我说。...在上面的图中,如果服务B需要缩放,您可能有10个实例,而其他的保持原样。这可以根据需要随时更改。 部署方便程度 整个代码库被部署,不仅仅是受影响的代码。...单个开发人员还需要下载整个应用程序代码,不只是下载他/她所影响的用于修复和测试的模块。这也会影响持续部署。...越来越多的应用程序的复杂性 随着单体应用程序(特性、功能等)的增长,团队也会随之增长,很快,应用程序就变得复杂和交织在一起。...随着不同的团队不断修改代码,维护模块化结构变得越来越困难,最终导致混乱的代码。这不仅会影响代码质量,还会影响整个组织。

1.1K30

云计算和仿真能擦出什么样的火花?

云计算范式取代了旧的it范式,它侧重于将软件作为产品提供,云计算则将其产品作为服务提供给用户,用户为实际使用的资源付费,不是不断地为许可证、CPU能力或其他硬件付费。...重缩放提供了计算资源的每秒收费,并推动了软件许可证的每秒计费。 机遇与挑战 工程领域似乎是云计算的后继者。似乎是因为文化和技术的不可接受性。...随着仿真能力的增长,我们对仿真软件的需求也在不断增长——随着仿真变得更加详细和准确,我们会生成更多的数据。...随着时间的推移,按需付费的硬件和软件将使用户能够满足他们的需求,而无需等待改进模拟时间、增加创新和快速进入市场。 似乎rescale已经了解了客户和软件供应商的未来需求。...然而,随着他们对模拟软件包需求的增加,他们产生了大量的数据。如果数据仍在云中,不是等待下载大量数据集进行分析,那么数据将得到最佳利用。

1.2K10

强势增长的HubSpot是不是被高估了?

目前,投资者似乎已逐渐接受了这样的增速放缓,对于这样一家一直处于高速增长的公司来说,最终出现这样的现象也算是合理的。...在过去几周内,随着科技股普遍下跌了20%左右,似乎HubSpot成为了较为稳妥的投资选择。尽管与同类公司相比,其估值较高,但其30-35%的收入增长才是真正价值所在。...此外,运营现金流同比增长48%,明显快于35%的收入增幅,1150万美元的运营现金流也带来了320万美元的自由现金流。...随着第三季度增长从第一季度的39%降至35%,管理层也预测第四季度增速将进一步减缓,该公司的股价可能会开始重新下跌,更接近同行。...随着未来几个季度收入增长最终放缓,我们可能会看到HubSpot估值下降几个百分点,并最终接近6-7倍的预期收入,不是目前的9-10倍估值。 尽管估值在过去几周有所下降,但科技市场的其他领域也是如此。

72720

大模型“研究源”告急:研究预测,2026年高质量语言数据将耗尽

大数据文摘转载自AI科技评论 作者:李梅 编辑:陈彩娴 语言模型的缩放定律(Scaling law)表明,其规模大小取决于可用数据的数量,所以在过去几年,大约有一半的语言模型是通过扩大数据量来改进性能的...当前,在参数量上的角逐似乎已进入冷静期,然而,当许多人还在讨论模型要不要继续做大的时候,模型能不能做大的问题已经出现了。...要对已有模型增加训练数据量,当然需要更多额外的计算,计算会受到硬件供应以及购买、租用硬件的成本的制约。...关于模型的规模增长,有一个重要概念是 Scaling law(缩放定律),Scaling law 可用来预测给定计算预算(以 FLOP 衡量)下的模型规模和数据集规模之间的最优平衡。...如果这项工作的预测是正确的,那么毫无疑问数据将成为做模型继续做大的主要制约因素,AI 的进展也会随着数据量的耗尽放缓。 但大模型毕竟是数据驱动的。

52210

识别形式语言能力不足,不完美的Transformer要克服自注意力的理论缺陷

但是对于大的 ,它必须以较低的置信度做出决策,即给接受字符串的概率略高于 ½,拒绝字符串的概率略低于 ½。更准确地说,随着 的增加,交叉熵接近每个字符串 1 比特,这是最坏情况的可能值。...它确实缩放了激活,但在上面构建的两个 transformer 的情形中,任何激活层都可以按任何正数进行缩放不会改变最终决策。...上图 2 显示 ϵ > 0 的层归一化提高了交叉熵,但它仍然随着 增长并接近 1。 可学习性 在本节中,研究者将转向可学习性的问题,这时克服 Hahn 引理所提出的缺陷的第三种方法。...实验没有使用 dropout,因为它似乎没有帮助。 FIRST 更容易学习,但坏消息是学习到的 transformer 不能很好地泛化到更长的句子。...当训练集和测试即得长度分布一样得时候,缩放注意力的 logits 没有显著的影响,但如果仅在只有中等甚至更短(小于 20)长度的句子上训练,测试句子长度大于中等长度(大于 20),缩放注意力则提高了

63220

看尽摩尔定律の前世今生

不过,近几年来,芯片行业似乎遭遇到技术瓶颈,升级速度不断放缓。于是,不少人认为摩尔定律正在失效。但 AI 的出现,却让摩尔定律再次「活过来」。 什么是摩尔定律?...尽管这种趋势已经持续了超过半个世纪,摩尔定律仍应该被认为是观测或推测,不是一个物理或自然法。...2010 年国际半导体技术发展路线图的更新增长已经放缓,之后的时间里晶体管数量密度预计只会每三年翻一番。...登纳德缩放比例定律: 在增加芯片组件的同时,缩小芯片体积将使芯片运行速度更快,同时降低生产成本和能耗。...但随着制作工艺接近极限,摩尔定律在一定程度上,确实已经失去了对传统芯片的引领作用。 但在 AI 领域,摩尔定律很可能会重新生效。 AI 如何拯救摩尔定律?

76410

斯坦福、Meta AI新研究:实现AGI之路,数据剪枝比我们想象得更重要

在视觉、语言和语音在内的机器学习诸多领域中,神经标度律表明,测试误差通常随着训练数据、模型大小或计算数量下降。这种成比例提升已经推动深度学习实现了实质性的性能增长。...然而,这些仅通过缩放实现的提升在计算和能源方面带来了相当高的成本。 这种成比例的缩放是不可持续的。例如,想要误差从 3% 下降到 2% 需要的数据、计算或能量会指数级增长。...此外,对于大型视觉 Transformer,额外的 20 亿预训练数据点 (从 10 亿开始) 在 ImageNet 上仅能带来几个百分点的准确率增长。...该理论在数量上与数值实验相符,并揭示了两个惊人的预测: 最佳剪枝策略会因初始数据的数量改变;如果初始数据丰富 (稀缺) ,则应只保留困难 (容易) 的样本。...可以在更通用的环境下进行测试,比如在 benchmark 上训练的深度神经网络: (1) 相对于随机数据剪枝,当初始数据集比较大时,只保留最难的样本是有收益的,但当初始数据集比较小时,这样反而有害; (2) 随着初始数据集大小的增加

36320

物理热力学定律为贫富差距的两极分化正名

经济学用来解释分析财富的创造和流通,然而多年以来,经济学似乎对财富两极分化这一日益严峻的社会问题束手无措,经济学为了缩小贫富差距提出过很多方法和理论,无论是提高税收,强调二次分配,提高失业补贴,加强社会公正等方式都不奏效...随着经济体制不断完善,市场资源配置越来越高效,于是能源和资本的流动越顺畅,根据结构化定律的启示,能源和资本的两级分化会越来越明显。 经济越活跃,能源消耗越大,经济运行效率越高则导致更多的能源消耗。...结构化定律应用在经济领域能够解释所谓的“杰文斯悖论”,随着每单位生产所需要的能源越少,总体的能源消耗反而越大不是越少,例如下面的统计图表明,一个国家经济越发达,资源利用率越高,它的总体能源消耗反而越来越多...化妆师把化妆技巧录制成视频,放到网上给网友收费观看;医生把他的医学知识转换为文章放到网上让网友收费阅读,那么他们的生产方式一下子变得具有了无穷的扩张性,因为化妆师只要录制一次视频,医生只要写一篇医学知识文章,视频的观众或文章的读者完全可以无止境的增长...很多工作其实也能具备间接的可缩放性。

61250
领券