首页
学习
活动
专区
工具
TVP
发布
首页标签监督学习

#监督学习

监督式学习,是一个机器学习中的方法,可以由训练资料中学到或建立一个模式,并依此模式推测新的实例。

机器学习分类

@小森

监督学习典型模型:Linear regression、Logistic regression、SVM、Neural network等

7710

AAAI 2024 | DiffShape:基于时序 Shapelets 的扩散模型

VachelHu

半监督时间序列分类可以有效地缓解标记数据缺乏的问题。然而,现有的方法通常忽略了模型的解释性,使得人类难以理解模型预测背后的原理。Shapelets是一组具有高度...

18410

Venn-Abers 预测器 - plus studio

plus sign

腾讯科技(深圳)有限公司 · 星火计划成员 (已认证)

Venn-Abers 预测器 https://arxiv.org/pdf/1211.0025.pdf

8010

探索LightGBM:监督式聚类与异常检测

人类群星闪耀时

监督式聚类和异常检测是在监督学习框架下进行的一种特殊形式的数据分析技术。在Python中,LightGBM提供了一些功能来执行监督式聚类和异常检测任务。本教程将...

9710

后Sora时代,CV从业者如何选择模型?卷积还是ViT,监督学习还是CLIP范式

机器之心

因为计算机视觉模型已变得越来越复杂,从早期的 ConvNets 到 Vision Transformers,可用模型的种类已大幅增加。同样,训练范式也从 Ima...

11910

EMNLP'23:大模型时代的数据标注—FreeAL

NewBeeNLP

本文跟大家介绍我们和网易伏羲合作发表在EMNLP'23主会的工作FreeAL: Towards Human-Free Active Learning in th...

20810

如何解决大语言模型的幻觉问题

Nowl

在人类生活中,幻觉表示虚假的但是我们分辨不清楚的事物,在大语言模型中,[幻觉]即代表模型生成的虚假的文本,这中情况很容易导致一些错误的发生

10910

机器学习第1天:概念与体系漫游

Nowl

在监督学习中,我们通常会告诉模型我们想要的结果,例如房价预测中给定房价,垃圾邮件分类中给定什么是垃圾邮件,这样模型就会向着这个结果去学习,监督学习常用在回归和分...

10710

【机器学习】--朴素贝叶斯简介及实现

沧洋

朴素贝叶斯分类是一种基于概率的分类算法,它通过计算每个特征对于类别的贡献来预测给定数据的类别。它是一种监督学习(Supervised Learning)算法,用...

8010

QIML Insight | 基于两阶段机器学习模型的因子择时方法

量化投资与机器学习微信公众号

3、市场风险预测:有了上述市场当前风险体制的标签,可以使用各种监督学习的分类技术对市场风险体制进行分类学习,以预测未来市场的风险体制。监督学习需要X变量,y就是...

21510

基于生成表征的自条件图像生成

用户1324186

上海交通大学 · 研究员 (已认证)

最近利用人类标注的类别条件、文字描述等的条件图像生成达到了令人印象深刻的效果,然而无条件生成还不能达到令人满意的效果。这一定程度上反映了有监督学习和无监督学习之...

15110

异常检测 MemSeg

为为为什么

监督学习分割网络关键在于生成异常数据,使用惯用套路,生成 mask,将其他图像叠加在 Mask 上,按照透明度融合在一起:

23210

异常检测 PatchSVDD

为为为什么

改进 deep SVDD,提高异常检测能力与添加瑕疵定位能力,输出异常位置的热力图。

16810

Nat. Commun. | 基于知识引导的分子预训练框架

DrugAI

今天为大家介绍的是来自Dan Zhao和Jianyang Zeng团队的一篇论文。目前为了克服分子特性预测中数据稀缺的挑战,人们对通过自监督学习技术预训练图神经...

12010

无监督学习 聚类

小小程序员

11310

支持向量机 支持向量机概述

小小程序员

15210

Nice Trick | 不想标注数据了!有伪标签何必呢,Mixup+Mosaic让DINO方法再继续涨点

集智书童公众号

数据增强在视觉感知和半监督学习中至关重要。除了像颜色抖动、缩放和翻转等光度变换和几何变换,混合训练数据的增强在半监督学习和目标检测中变得流行,例如CutOut,...

31110

深度强化学习整理

算法之名

传智播客 · Java架构师,讲师 (已认证)

强化学习来自于心理学里的行为主义理论,是在环境给予的奖励或惩罚信号的反馈下,逐步形成能获得最大利益的行为策略。与监督学习相比,强化学习不需要事先准备样本集,而是...

9510

何恺明新作:简单框架达成无条件图像生成新SOTA!与MIT合作完成

量子位

这种方式比较难以训练,所以一直和条件生成有很大性能差距——就像无监督学习比不过监督学习一样。

13210

RCG:何恺明新作,无条件图像生成新SOTA

公众号机器学习与AI生成创作

这种方式比较难以训练,所以一直和条件生成有很大性能差距——就像无监督学习比不过监督学习一样。

17610
领券