首页
学习
活动
专区
工具
TVP
发布

皮皮鲁的AI星球

专栏作者
79
文章
179700
阅读量
34
订阅数
我整理了一份Flink流计算入门教程清单
作为技术出身的我,不太会写软文广告,今天就直接来个硬广。之前与人民邮电出版社合作的《Flink原理与实践》经过一年多时间的打磨和润色,这两天终于与大家见面了,恳请各位朋友多多支持。
PP鲁
2022-09-20
6070
神经机器翻译数据集WMT预处理流程简介
神经机器翻译(Neural Machine Translation,NMT)借助深度神经网络对不同语言的文本进行翻译,本文主要介绍机器翻译数据集WMT16 en-de的预处理过程。
PP鲁
2022-09-20
1.5K0
Learning Rate Schedule:CNN学习率调整策略
本文同时发布在我的个人网站:https://lulaoshi.info/blog/learning-rate-schedule.html
PP鲁
2022-09-20
1.3K0
注意力机制到底在做什么,Q/K/V怎么来的?一文读懂Attention注意力机制
Transformer[^1]论文中使用了注意力Attention机制,注意力Attention机制的最核心的公式为:
PP鲁
2022-09-20
4.4K0
BERT原理解读及HuggingFace Transformers微调入门
自BERT(Bidirectional Encoder Representations from Transformer)[1]出现后,NLP界开启了一个全新的范式。本文主要介绍BERT的原理,以及如何使用HuggingFace提供的 transformers 库完成基于BERT的微调任务。
PP鲁
2022-09-20
1.7K0
开源:删库、白嫖、恰饭与35岁危机
这周,IT圈一个有意思的事情是:faker.js的开源软件库作者故意加入了恶意代码,并一气之下将代码仓库删了。这个事件一度导致所有依赖faker.js的软件出现大量异常。有人分析作者Marak的主要诉求为无法维持生计,而很多大公司白嫖其工作成果,却无任何资金支持。
PP鲁
2022-09-20
2240
AlphaCode论文和背后原理快速解读,也许程序员短期内还不会被取代...
这两天科技媒体沸腾了!DeepMind继AlphaGo、AlphaFold之后,推出了Alpha系列又一神器:AlphaCode。据说这是一个可以自己写代码的AI,并且已经在实际比赛中击败了 46% 左右人类选手!
PP鲁
2022-09-20
6510
什么是词向量?如何得到词向量?Embedding 快速解读
我第一次接触 Embedding 是在 Word2Vec 时期,那时候还没有 Transformer 和 BERT 。Embedding 给我的印象是,可以将词映射成一个数值向量,而且语义相近的词,在向量空间上具有相似的位置。
PP鲁
2022-09-20
2K0
Python setup.py entry_points 详解
一个 Python 软件包中的 setup.py 文件包含这个 Python 包如何打包发布等重要信息。本文主要对这篇博客(https://amir.rachum.com/blog/2017/07/28/python-entry-points/)进行了翻译解读,以解释 Python setup.py 文件中 entry_point 用法。
PP鲁
2022-09-20
8400
TensorFlow被废了,谷歌家的新王储JAX到底是啥?
这几天各大科技媒体都在唱衰TensorFlow,鼓吹JAX。恰好前两个月我都在用JAX,算是从JAX新人进阶为小白,过来吹吹牛。
PP鲁
2022-09-20
6450
浅谈Linux的动态链接库
上一篇我们分析了Hello World是如何编译的,即使一个非常简单的程序,也需要依赖C标准库和系统库,链接其实就是把其他第三方库和自己源代码生成的二进制目标文件融合在一起的过程。经过链接之后,那些第三方库中定义的函数就能被调用执行了。早期的一些操作系统一般使用静态链接的方式,现在基本上都在使用动态链接的方式。
PP鲁
2020-09-15
8.6K0
Hello World背后的故事:如何在Linux上编译C语言程序
C语言的经典程序“Hello World”并不难写,很多朋友都可以闭着眼将它写出来。那么编译一个“Hello World”到底经历了怎样的过程呢?
PP鲁
2020-09-15
1.8K0
三分钟读懂Softmax函数
比如,在互联网广告和推荐系统中,曾广泛使用Sigmod函数来预测某项内容是否有可能被点击。Sigmoid函数输出值越大,说明这项内容被用户点击的可能性越大,越应该将该内容放置到更加醒目的位置。
PP鲁
2020-08-10
9.2K0
人工智能研究者应该选择哪款显卡?
我在自己的网站中专门介绍过GPU的一些硬件基础知识:https://lulaoshi.info/gpu/gpu-basic/gpu.html。英伟达为优化深度学习的矩阵运算,在较新的微架构中,专门设计了Tensor Core这样的混合精度核心,因此,人工智能训练最好选择带有Tensor Core的GPU。
PP鲁
2020-06-29
3K0
前馈神经网络
在生物神经网络中,一个神经元(Neuron,又被称为Unit)会和多个神经元相连,当神经元兴奋时,它会向相连的神经元发送化学物质,进而改变相连神经元的电位;如果某个神经元的电位超过了阈值(Threshold),这个神经元被激活为兴奋状态,再进而向其他神经元发送化学物质。机器学习领域的神经网络(Neural Network)模型借鉴了生物学的一些思想。
PP鲁
2020-06-29
1.4K0
正则化:防止模型过拟合
为了避免过拟合,一种手段是使用正则化(Regularizaiton)来限制模型的复杂程度。Regularization从英文直译过来是“规则化”,就是说,在原来的问题求解条件上加一些规则限制,避免模型过于复杂,出现过拟合的情况。
PP鲁
2020-06-09
2.4K0
Logistic Regression:互联网行业应用最广的模型
我的网站公示显示效果更好,欢迎访问:https://lulaoshi.info/machine-learning/linear-model/logistic-regression.html
PP鲁
2020-06-02
5270
机器学习模型的容量、欠拟合和过拟合
我的网站公示显示效果更好,欢迎访问:https://lulaoshi.info/machine-learning/linear-model/underfit-overfit.html
PP鲁
2020-05-26
1.1K0
最大似然估计:从概率角度理解线性回归的优化目标
我的网站公式显示效果更好:https://lulaoshi.info/machine-learning/linear-model/maximum-likelihood-estimation.html,欢迎访问。
PP鲁
2020-05-26
1.4K0
线性回归的求解:矩阵方程和梯度下降、数学推导及NumPy实现
我的网站公式显示效果更好:https://lulaoshi.info/machine-learning/linear-model/minimise-loss-function.html,欢迎访问。
PP鲁
2020-05-26
1.9K0
点击加载更多
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档