首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

每日论文速递 | 【ICLR'24 Oral】LoftQ: 更好地将LLM量化与LoRA微调结合

摘要:量化是为服务大语言模型(LLMs)不可或缺的技术,最近已经应用到LoRA微调中。在这项工作中,我们关注的是在一个预训练模型上同时应用量化和LoRA微调的情景。在这种情况下,通常会观察到在下游任务性能上的一致差距,即在完全微调和量化加LoRA微调方法之间。为了应对这一问题,我们提出了LoftQ(LoRA微调感知量化),这是一个新颖的量化框架,可以同时对LLM进行量化并找到LoRA微调的适当低秩初始化。这种初始化缓解了量化和全精度模型之间的差异,并显著提高了在下游任务中的泛化性能。我们在自然语言理解、问答、摘要和自然语言生成任务上评估了我们的方法。实验证明我们的方法非常有效,并在具有挑战性的2比特和2/4比特混合精度区域中优于现有的量化方法。

01

学界 | 综述论文:机器学习中的模型评价、模型选择与算法选择

选自 Sebastian Raschka 机器之心编译 参与:路雪、刘晓坤、黄小天 本论文回顾了用于解决模型评估、模型选择和算法选择三项任务的不同技术,并参考理论和实证研究讨论了每一项技术的主要优势和劣势。进而,给出建议以促进机器学习研究与应用方面的最佳实践。 1 简介:基本的模型评估项和技术 机器学习已经成为我们生活的中心,无论是作为消费者、客户、研究者还是从业人员。无论将预测建模技术应用到研究还是商业问题,我认为其共同点是:做出足够好的预测。用模型拟合训练数据是一回事,但我们如何了解模型的泛化能力?我们

08

前沿 | 使用Transformer与无监督学习,OpenAI提出可迁移至多种NLP任务的通用模型

OpenAI 的系统分为两阶段,首先研究者以无监督的方式在大型数据集上训练一个 Transformer,即使用语言建模作为训练信号,然后研究者在小得多的有监督数据集上精调模型以解决具体任务。研究者开发的这种方式借鉴了他们关于 Sentiment Neuron(https://blog.openai.com/unsupervised-sentiment-neuron/)方面的研究成果,他们发现无监督学习技术在足够多的数据集上训练能产生令人惊讶的可区分特征。因此研究者希望更进一步探索这一概念:我们能开发一个在大量数据进行无监督学习,并精调后就能在很多不同任务上实现很好性能的模型吗?研究结果表明这种方法可能有非常好的性能,相同的核心模型可以针对不同的任务进行少量适应和精调就能实现非常不错的性能。

00
领券