腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
腾讯技术创作特训营第二季第2期
AI大爆炸时代的创作“开挂”指南
立即报名
工作进行时——改需求的时候程序员在想什么?
敲码上瘾,赚钱要紧👨💻
立即回答
玩转AI新声态 | 腾讯云语音产品有奖征文挑战赛
参与科普解读或实践分享,人人有奖!
立即参加
用户之声专题活动|提建议·赢好礼
参与产品体验活动,反馈更多建议,赢取奖励!
立即反馈
腾讯云 BI 数据分析可视化大赛
体验探索 BI 的创新玩法,参与即有礼!
立即参赛
精选文章
腾讯专区
订阅及关注
云计算
人工智能
前端
后端
编程语言
数据库
大数据
音视频
安全
物联网
硬件
运维
测试
网络与通信
架构设计
开发工具
操作系统
职业发展
算法
管理
pulsar
实践
序列化
apache
flink
Flink 基于 TDMQ for Apache Pulsar 的离线场景使用实践
Apache Flink 是一个开源的流处理和批处理框架,具有高吞吐量、低延迟的流式引擎,支持事件时间处理和状态管理,以及确保在机器故障时的容错性和一次性语义。Flink 的核心是一个分布式流数据处理引擎,支持 Java、Scala、Python 和 SQL 编程语言,可以在集群或云环境中执行数据流程序。它提供了 DataStream API 用于处理有界或无界数据流,DataSet API 用于处理有界数据集,以及 Table API 和 SQL 接口用于关系型流和批处理。目前 Flink 最新已经迭代至 1.20 版本,在此过程中不光是 Flink 框架,插件本身也有部分 API 以及配置存在变更,本文主要针对较高版本的 1.17 Flink Pulsar 插件进行测试验证,目前 Flink 版本如下:https://nightlies.apache.org/flink/
腾讯云中间件团队
2024-05-31
90
0
玩转腾讯元器
腾讯元器 yyds,指导教师再也不用担心学生的论文选题啦!
对于即将毕业的学生来说,选择合适的论文题目往往是一大难题。许多学生在选题时会遇到迷茫,不知道从何入手;即使有了初步方向,也常常不确定题目是否符合学术要求,或者担心与往届论文的重复率过高。
陈明勇
2024-05-31
201
0
git
服务器
工作流
效率
最佳实践
Git还能这样用?一文看懂Git最佳实践!
Git 是个超级强大也非常流行的版本控制系统(VCS)。它的设计理念和其他VCS非常不同。纵观整个业界,很多人在用旧的思维方式来解决 Git 的使用问题,有 svn 方式的、p4 方式的、奇怪方式的、错误方式的,等等,而不是更新成 Git 的思维方式。虽然 Git 非常灵活,确实可以用这些方式来使用,但其实操作起来反而更难,而且效率更低,吃力不讨好。这里我打算把二十多年的各种版本控制系统的使用经验和十多年 Git 的使用经验,总结出一些 Git 的最佳实践。其实很多时候,正确的做法比错误的更简单,更不容易出错。
腾讯云开发者
2024-05-30
231
0
玩转腾讯元器
👍️五分钟快速上手元器智能体并创建自己的插件👍️
插件是一系列第三方工具(API)的集合,插件可以帮助大模型实现动态数据获取以及模型本身无法完成的事情,大家都知道大模型是一种预训练模型,这就决定了他的知识是有时空局限的,当用户询问超过训练数据集的问题时,大模型就会不知道进而导致幻觉的出现,也就是大家经常会遇到的胡说八道的情况,基于此一种解决大模型幻觉及知识不足的方案诞生了,他就是RAG(知识增强),RAG更侧重于通过检索来增强模型对外部信息或者数据的获取能力,而Function Calling更侧重于使模型能够执行外部操作(比如API的调用)或访问外部服务。
西门呀在吹雪
2024-05-30
348
0
实践
性能
优化
部署
框架
LLM 大模型学习必知必会系列(十二):VLLM性能飞跃部署实践:从推理加速到高效部署的全方位优化[更多内容:XInference/FastChat等框架]
训练后的模型会用于推理或者部署。推理即使用模型用输入获得输出的过程,部署是将模型发布到恒定运行的环境中推理的过程。一般来说,LLM的推理可以直接使用PyTorch代码、使用VLLM/XInference/FastChat等框架,也可以使用llama.cpp/chatglm.cpp/qwen.cpp等c++推理框架。
汀丶人工智能
2024-05-28
656
0
腾讯云 BI
玩转腾讯云 BI
实战经验分享:运用腾讯云BI打造个性化博客数据可视化看板
BI报表几乎是每个企业领导者决策必不可少的工具,今天通过一个实际的案例带大家体验腾讯云BI报表,希望的对BI报表选型的朋友提供一些帮助!
IT技术分享社区
2024-05-30
247
0
函数
浏览器
vue3
编译
对象
彻底搞清楚vue3的defineExpose宏是如何暴露方法给父组件使用
众所周知,当子组件使用setup后,父组件就不能像vue2那样直接就可以访问子组件内的属性和方法。这个时候就需要在子组件内使用defineExpose宏函数来指定想要暴露出去的属性和方法。这篇文章来讲讲defineExpose宏函数是如何暴露出去这些属性和方法给父组件使用。注:本文中使用的vue版本为3.4.19。
前端欧阳
2024-05-28
219
2
通信
网络
人工智能
云计算
高性能
MPI消息传递接口协议和硬件卸载
MPI 提供了三种不同的通信方法,MPI 进程可以使用这些方法相互通信。下面讨论了这些通信方法:
ssbandjl
2024-05-29
135
0
模型
搜索
工具
函数
框架
大模型缺的脑子,终于在智能体上长好了
智能体是一种通用问题解决器,从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。
腾讯云开发者
2024-05-28
374
0
kubernetes-ingress
kubernetes
多版本服务并存的测试环境搭建
项目经常会出现多个迭代并行开发测试的场景,因此需要后台的存储资源共享但后台服务并存多个版本多个测试环境,以方便进行多迭代版本的并行开发测试。
kran
2024-05-27
232
0
精选文章
腾讯专区
订阅及关注
云计算
人工智能
前端
后端
编程语言
数据库
大数据
音视频
安全
物联网
硬件
运维
测试
网络与通信
架构设计
开发工具
操作系统
职业发展
算法
Flink 基于 TDMQ for Apache Pulsar 的离线场景使用实践
Apache Flink 是一个开源的流处理和批处理框架,具有高吞吐量、低延迟的流式引擎,支持事件时间处理和状态管理,以及确保在机器故障时的容错性和一次性语义。Flink 的核心是一个分布式流数据处理引擎,支持 Java、Scala、Python 和 SQL 编程语言,可以在集群或云环境中执行数据流程序。它提供了 DataStream API 用于处理有界或无界数据流,DataSet API 用于处理有界数据集,以及 Table API 和 SQL 接口用于关系型流和批处理。目前 Flink 最新已经迭代至 1.20 版本,在此过程中不光是 Flink 框架,插件本身也有部分 API 以及配置存在变更,本文主要针对较高版本的 1.17 Flink Pulsar 插件进行测试验证,目前 Flink 版本如下:https://nightlies.apache.org/flink/
腾讯云中间件团队
2024-05-31
腾讯元器 yyds,指导教师再也不用担心学生的论文选题啦!
对于即将毕业的学生来说,选择合适的论文题目往往是一大难题。许多学生在选题时会遇到迷茫,不知道从何入手;即使有了初步方向,也常常不确定题目是否符合学术要求,或者担心与往届论文的重复率过高。
陈明勇
2024-05-31
Git还能这样用?一文看懂Git最佳实践!
Git 是个超级强大也非常流行的版本控制系统(VCS)。它的设计理念和其他VCS非常不同。纵观整个业界,很多人在用旧的思维方式来解决 Git 的使用问题,有 svn 方式的、p4 方式的、奇怪方式的、错误方式的,等等,而不是更新成 Git 的思维方式。虽然 Git 非常灵活,确实可以用这些方式来使用,但其实操作起来反而更难,而且效率更低,吃力不讨好。这里我打算把二十多年的各种版本控制系统的使用经验和十多年 Git 的使用经验,总结出一些 Git 的最佳实践。其实很多时候,正确的做法比错误的更简单,更不容易出错。
腾讯云开发者
2024-05-30
👍️五分钟快速上手元器智能体并创建自己的插件👍️
插件是一系列第三方工具(API)的集合,插件可以帮助大模型实现动态数据获取以及模型本身无法完成的事情,大家都知道大模型是一种预训练模型,这就决定了他的知识是有时空局限的,当用户询问超过训练数据集的问题时,大模型就会不知道进而导致幻觉的出现,也就是大家经常会遇到的胡说八道的情况,基于此一种解决大模型幻觉及知识不足的方案诞生了,他就是RAG(知识增强),RAG更侧重于通过检索来增强模型对外部信息或者数据的获取能力,而Function Calling更侧重于使模型能够执行外部操作(比如API的调用)或访问外部服务。
西门呀在吹雪
2024-05-30
LLM 大模型学习必知必会系列(十二):VLLM性能飞跃部署实践:从推理加速到高效部署的全方位优化[更多内容:XInference/FastChat等框架]
训练后的模型会用于推理或者部署。推理即使用模型用输入获得输出的过程,部署是将模型发布到恒定运行的环境中推理的过程。一般来说,LLM的推理可以直接使用PyTorch代码、使用VLLM/XInference/FastChat等框架,也可以使用llama.cpp/chatglm.cpp/qwen.cpp等c++推理框架。
汀丶人工智能
2024-05-28
实战经验分享:运用腾讯云BI打造个性化博客数据可视化看板
BI报表几乎是每个企业领导者决策必不可少的工具,今天通过一个实际的案例带大家体验腾讯云BI报表,希望的对BI报表选型的朋友提供一些帮助!
IT技术分享社区
2024-05-30
彻底搞清楚vue3的defineExpose宏是如何暴露方法给父组件使用
众所周知,当子组件使用setup后,父组件就不能像vue2那样直接就可以访问子组件内的属性和方法。这个时候就需要在子组件内使用defineExpose宏函数来指定想要暴露出去的属性和方法。这篇文章来讲讲defineExpose宏函数是如何暴露出去这些属性和方法给父组件使用。注:本文中使用的vue版本为3.4.19。
前端欧阳
2024-05-28
MPI消息传递接口协议和硬件卸载
MPI 提供了三种不同的通信方法,MPI 进程可以使用这些方法相互通信。下面讨论了这些通信方法:
ssbandjl
2024-05-29
大模型缺的脑子,终于在智能体上长好了
智能体是一种通用问题解决器,从软件工程的角度看来,智能体是一种基于大语言模型的,具备规划思考能力、记忆能力、使用工具函数的能力,能自主完成给定任务的计算机程序。
腾讯云开发者
2024-05-28
多版本服务并存的测试环境搭建
项目经常会出现多个迭代并行开发测试的场景,因此需要后台的存储资源共享但后台服务并存多个版本多个测试环境,以方便进行多迭代版本的并行开发测试。
kran
2024-05-27
凌晨好!
欢迎来到腾讯云开发者社区
登录
沙龙日历
全部 >
加入讨论
的问答专区 >
原创作者热度排行榜
更多 >
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
领券