首页
学习
活动
专区
工具
TVP
发布

Datawhale专栏

专栏作者
504
文章
698113
阅读量
75
订阅数
一个开源的轻量级agent框架-Agere
agere是一个开源的轻量级agent框架,主要特点是通用性和完全的可定制性。它通过将一个复杂流程拆解为一系列独立的小步骤,来简化构建具有复杂逻辑的agent的流程。
Datawhale
2024-04-24
320
一文带你了解基于大模型的Agent
在当前信息时代,大型语言模型(Large Language Models,LLMs)的发展速度和影响力日益显著。大模型强大的推理以及生成能力成为了搭建智能体的最好的组件。本内容来源于Datawhale的开源的“生成大模型基础(so-large-lm)”,一个致力于探索和理解大型模型发展的前沿课程:https://github.com/datawhalechina/so-large-lm
Datawhale
2024-04-24
570
动手做一个最小Agent——TinyAgent!
大家好,我是不要葱姜蒜。在ChatGPT横空出世,夺走Bert的桂冠之后,大模型愈发地火热,国内各种模型层出不穷,史称“百模大战”。大模型的能力是毋庸置疑的,但大模型在一些实时的问题上,或是某些专有领域的问题上,可能会显得有些力不从心。因此,我们需要一些工具来为大模型赋能,给大模型一个抓手,让大模型和现实世界发生的事情对齐颗粒度,这样我们就获得了一个更好用的大模型。
Datawhale
2024-04-24
450
WanJuan-CC数据集:为大型语言模型训练提供高质量Webtext资源
如何在参差不齐的海量网页数据中提炼高质量内容?如何保证模型训练数据的质量和安全性,如何构建高效的处理策略?上海人工智能实验室的这篇论文提供了一种不错的参考方案。
Datawhale
2024-04-24
1030
超过GPT3.5?Mixtral 8*7B 模型结构分析
2023年12月11日,Mistral AI团队发布了一款高质量的稀疏专家混合模型Mixtral 8x7B。
Datawhale
2024-04-24
190
AI + X 组队学习来了!一起学Sora
AI+X系列:和学习生态伙伴联合发起,将人工智能(AI)与各个学科、领域、行业(X)结合, 激发无限潜力和创造力(X),让学习者拥有更多可能性(X)。
Datawhale
2024-04-24
260
Sora技术详解及影响分析!
从openai sora[1]的技术报告首段可以看出sora的野心远远不止视频生成,他们的目标是通过视频数据来学习一个世界模型或者世界模拟器,这才是真正令人兴奋和激动的部分。
Datawhale
2024-04-24
350
《开源大模型食用指南》发布,7个小时,一杯奶茶速通大模型!
《开源大模型食用指南》是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。项目的主要内容包括:
Datawhale
2024-04-24
1780
GPT-4变笨的原因揭秘
如果说今年早些时候那次「间歇式降智」与 OpenAI 重新设计 GPT-4 架构有关,前段时间的「变懒」传闻就更搞笑了,有人测出只要告诉 GPT-4「现在是寒假」,它就会变得懒懒散散,仿佛进入了一种冬眠状态。
Datawhale
2024-04-24
410
2024年AI七大事件预测:1. 微软OpenAI将决裂、2.AI…
在全球经济面临衰退,世界各地冲突不断的2023年里,科技股为主的纳斯达克指数却逆市大涨43%,几乎来到了2021年的历史最高点。
Datawhale
2024-04-24
370
动手做一个最小RAG——TinyRAG
接下来我会带领大家一步一步地实现一个简单的RAG模型,这个模型是基于RAG的一个简化版本,我们称之为Tiny-RAG。Tiny-RAG是一个基于RAG的简化版本,它只包含了RAG的核心功能,即Retrieval和Generation。Tiny-RAG的目的是为了帮助大家更好地理解RAG模型的原理和实现。
Datawhale
2024-04-24
310
大模型理论基础(so-large-lm)课程笔记!
在当前信息时代,大型语言模型(Large Language Models,LLMs)的发展速度和影响力日益显著。随着技术进步,我们见证了从基本的Transformer架构到更为复杂和高效的模型架构的演进,如Mixture of Experts (MOE) 和Retrieval-Augmented Generation (RAG)。这些进步不仅推动了人工智能领域的边界,也对理解和应用这些技术提出了新的要求。
Datawhale
2024-04-24
440
【独家】万字长文带你梳理Llama开源家族:从Llama-1到Llama-3
北京时间4月19日凌晨,Meta在官网上官宣了Llama-3,作为继Llama-1、Llama-2和Code-Llama之后的第三代模型,Llama-3在多个基准测试中实现了全面领先,性能优于业界同类最先进的模型。
Datawhale
2024-04-24
1620
王喆:工作近十年的方向思考
导读:大家好,我是《深度学习推荐系统》的作者王喆,很多同行可能读过这本系统性介绍推荐系统的书,但大多数人可能不知道我职业生涯的头四年都在做广告系统,之后才在推荐系统方向工作了四年,这两年又回到了广告方向。既然是重操旧业,就不免想对计算广告这个方向做一次全面的再思考。
Datawhale
2023-01-10
1.3K0
一文探索“预训练”的奥秘!
2022年下半年开始,涌现出一大批“大模型”的优秀应用,其中比较出圈的当属AI作画与ChatGPT,刷爆了各类社交平台,其让人惊艳的效果,让AI以一个鲜明的姿态,站到了广大民众面前,让不懂AI的人也能直观地体会到AI的强大。大模型即大规模预训练模型,本文就和大家聊一聊 预训练模型的起源与发展。
Datawhale
2023-01-10
8740
AI绘画爆火背后:扩散模型原理及实现
从AI绘图软件生成的作品打败一众人类艺术家,斩获数字艺术类冠军,到如今DALL.E、Imagen、novelai等国内外平台遍地开花。也许你也曾点开过相关网站,尝试让AI描绘你脑海中的风景,又或者上传了一张自己帅气/美美的照片,然后对着最后生成的糙汉哭笑不得。那么,在你感受AI绘图魅力的同时, 有没有想过 (不你肯定想过),它背后的奥妙究竟是什么?
Datawhale
2023-01-10
1.8K0
吴恩达的2022年终盘点:生成式AI、ViT、大模型
近日,吴恩达在圣诞节的《The Batch》特刊上发布了一年一度的年终盘点。在过去的一年,生成式AI迎来爆发式增长,由人工智能生成的图片在社交平台疯狂传播,引发大量争议的同时也推动了投资;视觉 Transformer(ViT) 的工作也出现爆炸性增长,在过去一年中,研究人员共计发表超过 17,000 篇 ViT 论文;AlphaCode、Codex 等的推出便利了开发者,大受欢迎;与此同时,研究人员也在不断拓宽语言模型的边界,在解决可信度、偏见和实时性等问题方面做出持续不断的努力。
Datawhale
2023-01-10
5400
从华科到清华这些年,我和焦虑成为朋友
2021年的秋天开启了我读硕士的第三个年头。当时的我还在某家公司做实习生。本来是可以转正的,但是出于各种考虑,我还是选择放弃了转正 offer,决定在秋招季多看看机会。结果没想到的是,往后的几个月,我会被当时的求职形势狠狠地“教育”了一番。
Datawhale
2023-01-10
5090
一个工程师的自我修养!
对计算机科学的掌握程度,决定了一个计算机行业从业者能走多远。吴军博士在《浪潮之巅(第四版)》对工程师做了五个级别的划分:
Datawhale
2023-01-10
3380
哈工大车万翔:自然语言处理范式正在变迁
最近几天被OpenAI推出的ChatGPT[1]刷屏了,其影响已经不仅局限于自然语言处理(NLP)圈,就连投资圈也开始蠢蠢欲动了,短短几天ChatGPT的用户数就超过了百万。通过众多网友以及我个人对其测试的结果看,ChatGPT的效果可以用惊艳来形容,具体结果我在此就不赘述了。不同于GPT-3刚推出时人们的反应,对ChatGPT大家发出更多的是赞叹之词。聊天、问答、写作、编程等等,样样精通。因此也有人惊呼,“通用人工智能(AGI)即将到来”、“Google等传统搜索引擎即将被取代”,所以也对传说中即将发布的GPT-4更加期待。
Datawhale
2023-01-09
5140
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档