前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >memcached的最新状态

memcached的最新状态

作者头像
张善友
发布于 2018-01-19 08:06:10
发布于 2018-01-19 08:06:10
6300
举报
文章被收录于专栏:张善友的专栏张善友的专栏

memcached 是由 Danga Interactive 开发并使用 BSD 许可的一种通用的分布式内存缓存系统。最新的稳定版本是memcached 1.4.4,1.4版本加了需要好的特性,这里简要介绍2个:

1、memcached之前一直有个缓存对象的大小限制是1M,从1.4版本开始可以通过命令配置缓存的对象大小上限。可以通过参数-I进行配置

C:\Documents and Settings\geffzhang>F:\Software\memcached-win32-1.4.4-14\mem ed.exe -h memcached 1.4.4-14-g9c660c0 ……

-I            Override the size of each slab page. Adjusts max item size               (default: 1mb, min: 1k, max: 128m)

例如

memcached -I 128k # Refuse items larger than 128k. memcached -I 10m  # Allow objects up to 10MB

2、开始支持64位操作系统

memcached的介绍可参考IBM网站上的文章memcached 和 Grails,第 1 部分:安装和使用 memcachedwindows上的使用方法参烤在 ASP.NET 環境下使用 Memcached 快速上手指南

下载 memcached 1.4.4 Windows 32-bit binary 或者 memcached Windows 64-bit pre-release

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2010-02-01 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
从16-bit 到 1.58-bit :大模型内存效率和准确性之间的最佳权衡
通过量化可以减少大型语言模型的大小,但是量化是不准确的,因为它在过程中丢失了信息。通常较大的llm可以在精度损失很小的情况下量化到较低的精度,而较小的llm则很难精确量化。
deephub
2024/03/11
1.1K0
从16-bit 到 1.58-bit :大模型内存效率和准确性之间的最佳权衡
【多模态大模型实战】 搭建DeepSeek Janus-Pro 7B 多模态模型,以及推理微调,推理后的模型融合
Janus-Pro是DeepSeek最新开源的多模态模型,是一种新颖的自回归框架,统一了多模态理解和生成。通过将视觉编码解耦为独立的路径,同时仍然使用单一的、统一的变压器架构进行处理,该框架解决了先前方法的局限性。这种解耦不仅缓解了视觉编码器在理解和生成中的角色冲突,还增强了框架的灵活性。Janus-Pro 超过了以前的统一模型,并且匹配或超过了特定任务模型的性能。
AI浩
2025/02/08
1.9K1
【多模态大模型实战】 搭建DeepSeek Janus-Pro 7B 多模态模型,以及推理微调,推理后的模型融合
使用 BigDL-LLM 加速 Intel ® 数据中心 GPU 上的 LLM 推理
导读:本文探讨了在 Intel® 数据中心 GPU 上采用 BigDL-LLM INT4 和 FP16 (使用 Self-Speculative Decoding) 进行大型语言模型推理的性能评估。文章介绍了 BigDL LLM 的 Self-Speculative Decoding,通过测量下一个 Token 延迟,分析了不同配置下的推理性能,并提供了性能测试所采用的工具包和硬件环境。结果显示,在 Intel® 数据中心 GPU Max 1100C 上利用 BigDL LLM 进行 FP16 (Self-Speculative Decoding)的大语言模型推理,可以显著改善推理的延迟。这篇文章将为对大型语言模型推理性能感兴趣的读者提供有益的参考和启示。
深度学习与Python
2024/03/26
3370
使用 BigDL-LLM 加速 Intel ® 数据中心 GPU 上的 LLM 推理
连招来了,DeepSeek发布图像视频大模型Janus-Pro-7B,硬刚OpenAI DALL-E 3
DeepSeek前脚刚发布R1模型,又赶在大年三十发布了最新的多模态大模型Janus-Pro-7B,支持理解生成图片视频,这可能又是一个爆炸性的产品,要知道R1已经在海内外火的一塌糊涂,让英伟达股票大跌10%以上,连ChatGPT都回应:排名变化也许是暂时的。
朱卫军 AI Python
2025/02/05
2930
连招来了,DeepSeek发布图像视频大模型Janus-Pro-7B,硬刚OpenAI DALL-E 3
chatGLM3-LoRA微调实战
微调的主要目的是通过在特定任务上对预训练模型进行进一步训练,以适应该任务的需求,从而提高模型在该任务上的性能。具体来说,微调可以带来以下好处:
逍遥壮士
2024/03/22
1.5K0
chatGLM3-LoRA微调实战
大模型实战:使用 LoRA(低阶适应)微调 LLM
[1] 详细内容请参阅 MarkAI Blog [2] 更多资料及工程项目请关注 MarkAI Github [3] 通关感知算法面试请Star 2024年千道算法面试题综述
码科智能
2023/12/19
5.7K2
大模型实战:使用 LoRA(低阶适应)微调 LLM
使用 IPEX-LLM 加速英特尔®至强®可扩展处理器上的大语言模型推理
Intel® LLM Library for PyTorch (IPEX-LLM) 是英特尔开源的大语言模型低比特优化库,可以高效的运行在英特尔®至强®可扩展处理器上。IPEX-LLM 利用第四代英特尔®至强®可扩展处理器提供的 AMX 指令集,以及一系列低比特优化,使业界流行的大语言模型得以流畅运行,体现了在英特尔®至强®可扩展处理器运行大语言模型推理的优异性价比。同时,IPEX-LLM 也无缝支持各种大语言模型社区,优化和方案,例如 Hugging Face, LangChain, LlamaIndex, vLLM, llama.cpp, ollama 等等。
深度学习与Python
2024/05/06
5900
使用 IPEX-LLM 加速英特尔®至强®可扩展处理器上的大语言模型推理
使用Accelerate库在多GPU上进行LLM推理
大型语言模型(llm)已经彻底改变了自然语言处理领域。随着这些模型在规模和复杂性上的增长,推理的计算需求也显著增加。为了应对这一挑战利用多个gpu变得至关重要。
deephub
2023/11/29
1.8K0
使用Accelerate库在多GPU上进行LLM推理
基于MindSpore NLP的LLM推理 - - 实操
以下是在原有代码基础上,引入线性同余生成器(LCG)解码策略的示例代码,由于MindSpore框架本身并没有直接支持LCG解码策略,因此需要手动实现相关逻辑:
用户10497140
2025/01/18
1010
Transformers 4.37 中文文档(二)
除了🤗 Transformers 的 notebooks 之外,还有示例脚本演示如何使用PyTorch、TensorFlow或JAX/Flax训练模型的方法。
ApacheCN_飞龙
2024/06/26
6760
Transformers 4.37 中文文档(二)
【Datawhale AI 夏令营】Intel LLM Hackathon 天池挑战赛 本地环境搭建
IT蜗壳-Tango
2024/07/15
3060
谷歌Gemma介绍、微调、量化和推理
谷歌的最新的Gemma模型是第一个使用与Gemini模型相同的研究和技术构建的开源LLM。这个系列的模型目前有两种尺寸,2B和7B,并且提供了聊天的基本版和指令版。
deephub
2024/03/01
2K0
谷歌Gemma介绍、微调、量化和推理
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
代码演示:使用 ModelScope NoteBook 完成语言大模型,视觉大模型,音频大模型的推理
汀丶人工智能
2024/05/26
8790
LLM 大模型学习必知必会系列(三):LLM和多模态模型高效推理实践
大语言模型量化方法对比:GPTQ、GGUF、AWQ
在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。
deephub
2023/11/20
9.9K0
大语言模型量化方法对比:GPTQ、GGUF、AWQ
华为诺亚| 提出自推测解码框架:Kangaroo,降低成本,提升大模型推理效率!
为了提升大模型的推理效率,本文作者提出一种新型的自推测解码框架:Kangaroo,该框架将大模型的一个固定浅层子网络作为自草稿模型(self-drafting model),同时引入双提前退出机制,在保持高Token接受率的同时,显著提高了大模型的推理速度和参数利用效率。在Spec-Bench基准测试中实现了高达1.7倍的速度提升,并且在参数数量上比Medusa-1模型少了88.7%。
ShuYini
2024/05/06
4500
华为诺亚| 提出自推测解码框架:Kangaroo,降低成本,提升大模型推理效率!
Transformers 4.37 中文文档(六)
视觉问答(VQA)是根据图像回答开放式问题的任务。支持此任务的模型的输入通常是图像和问题的组合,输出是用自然语言表达的答案。
ApacheCN_飞龙
2024/06/26
3220
Transformers 4.37 中文文档(六)
AI模型:开源大语言模型bloom学习
chatgpt已经成为了当下热门,github首页的trending排行榜上天天都有它的相关项目,但背后隐藏的却是openai公司提供的api收费服务。作为一名开源爱好者,我非常不喜欢知识付费或者服务收费的理念,所以便有决心写下此系列,让一般大众们可以不付费的玩转当下比较新的开源大语言模型bloom及其问答系列模型bloomz。
Freedom123
2024/03/29
4390
AI模型:开源大语言模型bloom学习
怎么裁剪LLM(大语言模型)的vocab(词表)?
对于一些多语言的大语言模型而言,它的词表往往很大。在下游使用这些模型的时候,可能我们不需要其它的一些语言,例如只需要中文和英文,此时,我们可以对其vocab进行裁剪,既可以大大减少参数量,也能够保留模型的性能,接下来以Bloom模型为例看看是怎么进行操作的。
西西嘛呦
2023/04/27
1.6K0
LLM智能体开发指南
除非你一直生活在岩石下,否则你一定听说过像 Auto-GPT 和 MetaGPT 这样的项目。 这些是社区为使 GPT-4 完全自治而做出的尝试。在其最原始的形式中,代理基本上是文本到任务。你输入一个任务描述,比如“给我做一个贪吃蛇游戏”,并使用LLM作为它的大脑和一些围绕它构建的工具,你就得到了自己的贪吃蛇游戏! 看,连我也做了一个!
xiangzhihong
2024/05/24
2240
LLM智能体开发指南
Transformers 4.37 中文文档(十二)
🤗 Transformers 是一个预训练的最先进模型库,用于自然语言处理(NLP)、计算机视觉以及音频和语音处理任务。这个库不仅包含了 Transformer 模型,还有像现代卷积网络这样的非 Transformer 模型,用于计算机视觉任务。如果你看一下今天最流行的消费产品,比如智能手机、应用和电视,很可能背后都有某种深度学习技术。想要从智能手机拍摄的照片中移除背景物体?这就是一个全景分割任务的例子(如果你还不知道这是什么,不用担心,我们将在接下来的部分中描述!)。
ApacheCN_飞龙
2024/06/26
5690
Transformers 4.37 中文文档(十二)
推荐阅读
相关推荐
从16-bit 到 1.58-bit :大模型内存效率和准确性之间的最佳权衡
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档