首页
学习
活动
专区
圈层
工具
发布

#部署

基于Alist的文件同步工具-TaoSync

逍遥子大表哥

TaoSync的部署很简单,我们通过Docker进行部署。 我们在项目文件夹添加docker-compose.yaml文件。内容如下:

700

台风来了!聊聊Doris 与 ClickHouse的开源闭源影响吧

一臻数据

而ClickHouse的存算分离功能目前仍然局限于其商业云服务中,开源版本无法本地部署该架构。这种限制对于有数据安全要求、成本控制需求或需要定制化部署的企业来说...

700

从“没有CI/CD团队”进化到“使用CI/CD基础设施的团队,再到“使用AI基础设施的团队”

DevOps在路上

持续集成/持续交付(CI/CD)流水线是DevOps的核心,它将代码的提交-构建-测试-部署自动化,追求的是交付速度和可靠性。

900

2025年本地AI部署完全指南:从Ollama到vLLM的全方位实践教程

安全风信子

随着人工智能技术的飞速发展,越来越多的开发者和企业开始寻求在本地环境部署AI模型的解决方案。本地部署不仅能够保护数据隐私,减少对云服务的依赖,还能在特定场景下提...

34420

142_故障容错:冗余与回滚机制 - 配置多副本的独特健康检查

安全风信子

故障容错作为确保系统高可用性的核心技术,通过冗余部署和回滚机制为LLM服务提供了坚实的保障。本教程将深入探讨LLM部署中的故障容错策略,重点关注多副本部署架构、...

4210

141_模型更新:在线学习策略 - 焦点在增量微调的独特无中断部署

安全风信子

无中断部署(Zero-downtime Deployment)是指在更新模型或服务时,确保服务持续可用,用户体验不受影响的部署策略。在LLM增量微调的场景下,无...

4310

134_边缘推理:TensorFlow Lite - 优化移动端LLM部署技术详解与实战指南

安全风信子

在人工智能与移动计算深度融合的今天,将大语言模型(LLM)部署到移动端和边缘设备已成为行业发展的重要趋势。TensorFlow Lite作为专为移动和嵌入式设备...

6210

132_API部署:FastAPI与现代安全架构深度解析与LLM服务化最佳实践

安全风信子

在大语言模型(LLM)部署的最后一公里,API接口的设计与安全性直接决定了模型服务的可用性、稳定性与用户信任度。随着2025年LLM应用的爆炸式增长,如何构建高...

7210

80_离线环境搭建:无互联网LLM推理

安全风信子

在当今大语言模型(LLM)蓬勃发展的时代,许多组织和个人面临着一个共同的挑战:如何在无互联网连接的环境中高效部署和使用LLM?这一需求源于多方面的考量,包括数据...

6010

79_边缘设备环境:Raspberry Pi搭建

安全风信子

在当今人工智能快速发展的时代,大语言模型(LLM)已经成为自然语言处理领域的核心技术。然而,传统的LLM部署通常需要强大的服务器资源,这限制了其在资源受限环境中...

2610

70_大模型服务部署技术对比:从框架到推理引擎

安全风信子

在2025年的大模型生态中,高效的服务部署技术已成为连接模型能力与实际应用的关键桥梁。随着大模型参数规模的不断扩大和应用场景的日益复杂,如何在有限的硬件资源下实...

5510

65_GPU选择:A100 vs RTX系列

安全风信子

在一个需要在边缘设备上部署LLM推理的项目中,研究团队开发了一个优化框架,使得量化后的7B参数模型能够在4卡RTX 4090工作站上以低于200ms的延迟运行。...

4310

64_模型部署:推理优化策略

安全风信子

本文系统梳理了大模型部署的完整技术体系,包括部署架构设计、硬件选型、模型压缩、量化技术、KV缓存优化、服务化部署、边缘部署和多模态模型部署等多个方面。通过科学的...

6110

138_绿色计算:碳排放优化 - 估算部署的碳足迹与LLM环境友好型部署最佳实践

安全风信子

数据中心是LLM部署的物理基础设施,其能源效率和冷却系统对碳排放有着直接影响。本章将详细探讨数据中心层面的优化策略,以降低LLM部署的环境影响。

5510

136_生产监控:Prometheus集成 - 设置警报与指标选择与LLM部署监控最佳实践

安全风信子

在大语言模型(LLM)部署的生产环境中,有效的监控系统是确保服务稳定性、可靠性和性能的关键。随着LLM模型规模的不断扩大和应用场景的日益复杂,传统的监控手段已难...

4710

133_云端扩展:Kubernetes scaling - 设置自动缩放的阈值与LLM部署最佳实践

安全风信子

在大语言模型(LLM)部署的时代,如何高效地管理计算资源、应对动态负载并优化成本,成为了每个AI工程师必须面对的挑战。随着LLM应用的普及,用户请求模式变得日益...

6210

139_剪枝优化:稀疏模型压缩 - 分析结构化剪枝的独特速度提升与LLM部署加速实践

安全风信子

随着大语言模型(LLM)规模的不断增长,模型参数量已从最初的数亿扩展到数千亿甚至万亿级别。这种规模的模型在推理过程中面临着巨大的计算和内存挑战,即使在最先进的硬...

7210

111_微调模型评估与部署:从指标到生产

安全风信子

大语言模型微调完成后,如何全面评估其性能并将其安全高效地部署到生产环境,是实现模型价值的关键环节。本文将深入探讨微调模型的评估框架、部署策略和最佳实践,帮助读者...

6510

50_选择模型:开源vs闭源

安全风信子

在大型语言模型(LLM)技术快速发展的今天,企业和开发者面临着一个关键决策:是选择开源LLM模型还是闭源LLM服务?这个选择直接影响到项目的成本结构、开发灵活性...

5910

SmolVLM:多模态小型模型的设计与实现

安全风信子

多模态大型语言模型(VLLMs)在近年来取得了显著进展,能够同时处理视觉和语言信息,在图像描述、视觉问答等任务中展现出强大能力。然而,这些模型通常体积庞大、计算...

4610
领券