首页标签TensorFlow

#TensorFlow

开源软件库,用于各种感知和语言理解任务的机器学习

Tensortflow学习笔记

freesan44

w=tf.Variable(tf.random_normal(2,3,stddev=2, mean=0, seed=1))

10010

Tensorflow Lite Model Maker --- 图像分类篇+源码

XianxinMao

If your tasks are not supported, please first use TensorFlow to retrain a Tensor...

8900

GPT/GPT2/DialoGPT 详解对比与应用-文本生成与对话

大鹅

腾讯 · 后台开发 (已认证)

GPT 的全名:Generative Pre-Training,其论文标题是 Improving Language Understanding by Gener...

331120

图像分类-cifar100 实验研究

XianxinMao

为了解决 cifar100 val_acc 过低的问题,本质上是过拟合问题,所以特地去 papers with code 网站上看了下 cifar100 ben...

11900

图像分类-flower_photos 实验研究

XianxinMao

flower_photos 数据量比较小,所以 simple_cnn 可以在 trainset 上拟合到 0.99,意思就是数据复杂度 < 模型复杂度

11800

Tensorflow随笔(三)

XianxinMao

上图我们可以发现,对于simple_cnn来说,数据增强有很明显的作用,可以显著提高val_acc,也就是模型的泛化性。

6000

tensorflow踩坑合集2. TF Serving & gRPC 踩坑

风雨中的小七

这一章我们借着之前的NER的模型聊聊tensorflow serving,以及gRPC调用要注意的点。以下代码为了方便理解做了简化,完整代码详见Github-C...

15130

AI部署以及工业落地学习之路

老潘

火星 · AI算法工程师 (已认证)

最近在复盘今年上半年做的一些事情,不管是训练模型、部署模型搭建服务,还是写一些组件代码,零零散散是有一些产出。

13300

逃不过呀!不论是训练还是部署都会让你踩坑的Batch Normalization

老潘

火星 · AI算法工程师 (已认证)

BN是2015年论文Batch Normalization: Accelerating Deep Network Training by Reducing In...

10400

Tensorflow随笔(二)

XianxinMao

When training with methods such as tf.GradientTape(), use tf.summary to log the ...

4700

Tensorflow API(一)

XianxinMao

Return a list of physical devices visible to the host runtime.

6100

Tensorflow随笔(一)

XianxinMao

In machine learning, to improve something you often need to be able to measure i...

6500

Convolutional Neural Network (CNN)

XianxinMao

我自己写的代码和该教程略有不一样,有三处改动,第一个地方是用归一化(均值为0,方差为1)代替数值缩放([0, 1]),代替的理由是能提升准确率

5100

Introduction to the Keras Tuner

XianxinMao

The Keras Tuner is a library that helps you pick the optimal set of hyperparamet...

4400

Text classification with TensorFlow Hub: Movie reviews

XianxinMao

This notebook uses tf.keras, a high-level API to build and train models in Tenso...

2300

Tensorflow日常随笔(一)

XianxinMao

TensorFlow is an end-to-end open source platform for machine learning

9620

Building deep retrieval models

XianxinMao

In the featurization tutorial we incorporated multiple features into our models,...

5000

使用transformer BERT预训练模型进行文本分类 及Fine-tuning

大鹅

腾讯 · 后台开发 (已认证)

Bert 全称为 Bidirectional Encoder Representations from Transformers(Bert)。和 ELMo 不同...

33140

使用transformer BERT预训练模型进行文本分类 及Fine-tuning

大鹅

腾讯 · 后台开发 (已认证)

Bert 全称为 Bidirectional Encoder Representations from Transformers(Bert)。和 ELMo 不同...

56520

Taking advantage of context features

XianxinMao

In the featurization tutorial we incorporated multiple features beyond just user...

6700

扫码关注云+社区

领取腾讯云代金券