发布

计算机工具

撰写SCI论文,所必备的工具解说以及遇到的问题
专栏成员
596
文章
83867
阅读量
27
订阅数
SCI学术论文图片怎么免费绘制:drawio,gitmind
zhangjiqun
2025-02-16
750
chat完成:飞机大战html代码,超级玛丽html代码
zhangjiqun
2025-02-02
780
长期记忆、短期记忆、遗忘机制及门控机制;
- **使用数据库存储**:将大量的知识、信息和历史交互数据存储在数据库中。例如,将常见问题及其答案、领域知识、用户的历史提问和回答等存储在关系型数据库或非关系型数据库中。当需要回答问题时,**系统可以从数据库中检索相关信息**。
zhangjiqun
2025-01-18
1240
latex怎么显示_; \begin{algorithm}[H]
在 LaTeX 中,要显示下划线 `_` ,需要在前面加上反斜杠 `\` 进行转义,即 `\_` 。
zhangjiqun
2025-01-17
870
Layer2:区块链扩容解决方案
Layer2是一种区块链扩容解决方案,旨在解决区块链网络,特别是以太坊等公链面临的**交易拥堵和高手续费**等问题。以下是关于Layer2的详细介绍:
zhangjiqun
2025-01-16
1370
IEEE MEMBER
- **Student Member(学生会员)**:相关专业的本科生或研究生可申请,交钱即可参加,有Student member和Graduate Student member两种,后者是从Student member到member的过度会费打折期。**学生会员升级工作每年进行两次,分别在6月和8月。学生会员毕业后,其学生会员资格随之终止**,根据实际情况升级至相应会员等级,学生会员的会员年限不得超过8年。
zhangjiqun
2025-01-15
1380
AMD 推出的科研 AI“Agent Laboratory”; Agent Laboratory的使用步骤
- **一站式科研流程**:由 LLM 驱动,涵盖**文献综述、实验、报告**撰写三个阶段。用户只需提供科研想法和笔记,就能快速获得**研究报告和代码**,相比以往自主研究方法节省 **84%的研究费用**,凸显其高效性和经济性。
zhangjiqun
2025-01-14
2020
大型概念模型(LCM):句子嵌入空间:SONAR嵌入空间
“Large Concept Models: Language Modeling in a Sentence Representation Space” 介绍了一种新的语言模型架构——大型概念模型(LCM),它在句子表示空间中进行建模,有别于传统的基于词元(token)的语言模型。
zhangjiqun
2025-01-13
1250
RAG技术:是将知识库的文档和问题共同输入到LLM中
RAG技术是先从知识库中检索出与问题相关的文档片段,然后将这些检索到的**文档片段与问题**一起输入到LLM中进行回答。具体过程如下:
zhangjiqun
2025-01-12
2750
LLM的实验平台有哪些:快速搭建测试大语言模型
- **简介**:基于画布和节点拖拽连接方式构建程序控制流和测试应用,支持多种大语言模型,如GPT、千问、千帆、星火等系列模型,提供直观的用户界面和灵活的API。
zhangjiqun
2025-01-11
1620
HBM2e是什么意思,TDP功耗是指热设计功耗
HBM2e是**高带宽内存第二代增强版**(High Bandwidth Memory 2 Enhanced)的缩写。它是一种基于3D堆栈工艺的高性能半导体存储器,是HBM2的扩展版本。以下是其具体介绍:
zhangjiqun
2025-01-10
3140
TextGrad的原理及实现:根据文本进行梯度下降,主要是在提示词工程
TextGrad把LLM的应用视为一个**计算图**,自然语言充当了实现不同组件间“梯度”传递的媒介。它借助从**语言模型的输出向所有可能的早期组件进行反向传播文本反馈的方式**,来对各种系统内的各类变量进行优化。
zhangjiqun
2025-01-09
2620
TextGrad不仅用于提示词工程还可用于其他场景
TextGrad不专门用于提示词工程。虽然它在提示词工程方面有很好的应用效果,但它的功能和应用场景远不止于此,具体如下:
zhangjiqun
2025-01-09
1510
联邦学习中数据集不均问题怎么解决
- 尽管数据集的范围是0 - 2,但可以通过一些简单的数学变换来扩充数据。例如,对于数值型数据,可以对每个数据点进行微小的随机扰动。如果数据是整数,可以在原始数据的基础上加上或减去一个小的整数(如 - 1、0、1),这样可以在不改变数据本质特征的情况下增加数据的多样性。
zhangjiqun
2025-01-08
1590
大型语言模型(LLM)中的tokens是什么
在大型语言模型(LLM)中,tokens是文本处理的基本单位,它可以是**一个单词、一个字符、一个标点符号,或者是一个特殊的标记**。以下是关于tokens的详细介绍及举例:
zhangjiqun
2025-01-08
4380
PEFT 技术及简单举例
PEFT(Parameter Efficient Fine-Tuning,参数高效微调)是一种用于优化大型预训练模型微调的技术,旨在提高模型在新任务上的性能,同时减少微调参数的数量和计算复杂度。
zhangjiqun
2025-01-07
1710
MOE怎样划分不同专家
- **随机划分**:将FFN中的神经元随机地均匀划分为多个子集,每个子集独立组成一个专家。例如在LLaMA-MoE模型的构建中,采用**非重叠随机拆分法**,将FFN层中的中间神经元均匀分割成**多个子集,每个子集对应一个专家网络**。
zhangjiqun
2025-01-06
1180
模型并行、数据并行、流水线并行以及混合并行的适用场景、优劣
- **适用场景**:**适用于模型规模相对较小,能够在单个计算设备(如 GPU)上完整运行**,但训练数据量巨大的情况。例如在大规模图像分类任务中,常见的卷积神经网络模型(如 ResNet、VGG 等)在处理大规模图像数据集(如 ImageNet 或更大规模的自定义数据集)时,数据并行能有效利用多个计算设备加速训练。
zhangjiqun
2025-01-05
1330
流水线并行 在推理过程中优势与实质
- **提高计算资源利用率**:流水线并行可以将模型的不同部分分配到不同的计算单元(如 GPU)上,使这些计算单元能够同时工作。例如,对于一个具有多个层的神经网络模型,将前几层放在一个 GPU 上,中间几层放在另一个 GPU 上,后几层放在第三个 GPU 上。在推理时,数据可以依次在这些 GPU 上流动进行处理,减少了单个计算单元的空闲时间,充分利用了多个计算单元的计算能力,提高了整体的计算吞吐量。
zhangjiqun
2025-01-04
1260
流水线并行举例说明;GPU 的细粒度问题
使用模型并行和流水线并行之后会涉及到一个模型切分细粒度的问题,先切分多头(并行执行),每一个多头在切分不同阶段(串行执行)。这种情况下GPU的细粒度是多少
zhangjiqun
2025-01-04
1190
点击加载更多
社区活动
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·干货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档