腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
翻译scikit-learn Cookbook
学习sklearn
专栏作者
举报
78
文章
52865
阅读量
15
订阅数
订阅专栏
申请加入专栏
全部文章(78)
机器学习(35)
神经网络(29)
深度学习(26)
scikit-learn(19)
人工智能(17)
编程算法(13)
python(11)
线性回归(7)
numpy(6)
决策树(5)
数据分析(5)
matlab(4)
spring(4)
对象存储(2)
c++(2)
node.js(2)
css(2)
批量计算(2)
http(2)
监督学习(2)
kernel(2)
data(2)
model(2)
point(2)
tensorflow(1)
javascript(1)
bash(1)
actionscript(1)
ide(1)
api(1)
linux(1)
bash 指令(1)
网络安全(1)
面向对象编程(1)
二叉树(1)
数据结构(1)
学习方法(1)
bit(1)
class(1)
classification(1)
compare(1)
error(1)
graph(1)
key(1)
lda(1)
max(1)
models(1)
object(1)
pandas(1)
predict(1)
regression(1)
scheme(1)
svm(1)
this(1)
using(1)
xlsx(1)
递归(1)
搜索(1)
搜索文章
搜索
搜索
关闭
Using Stochastic Gradient Descent for classification使用随机梯度下降来分类
对象存储
As was discussed in Chapter 2, Working with Linear Models, Stochastic Gradient Descent is a fundamental technique to fit a model for regression. There are natural connections between the two techniques, as the name so obviously implies.
到不了的都叫做远方
2019-12-05
487
0
Kernel PCA for nonlinear dimensionality reduction核心PCA非线性降维
kernel
数据分析
对象存储
Most of the techniques in statistics are linear by nature, so in order to capture nonlinearity,we might need to apply some transformation. PCA is, of course, a linear transformation.In this recipe, we'll look at applying nonlinear transformations, and then apply PCA for dimensionality reduction.
到不了的都叫做远方
2019-11-02
741
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档