前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >【MATLAB】基本绘图 ( 保存图像 | saveas 函数 )

【MATLAB】基本绘图 ( 保存图像 | saveas 函数 )

作者头像
韩曙亮
发布于 2023-03-29 01:57:52
发布于 2023-03-29 01:57:52
1.8K00
代码可运行
举报
运行总次数:0
代码可运行

文章目录

一、saveas 函数


saveas 函数参考文档 : https://ww2.mathworks.cn/help/matlab/ref/saveas.html

使用 saveas 函数可以保存图像 ;

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
saveas(gcf, '<filename>', '<formattype>')

gcf 代表某个 figure 图形 ;

第二个参数是文件名称 , 默认保存在代码所在目录 ;

第三个参数是文件类格式, 这里的文件类型分为 位图格式 和 矢量图格式 ;

  • 位图格式有固定的宽高像素值 ;
  • 矢量图格式的图可以无限放大 , 不失真 ;

位图格式 :

矢量图格式 : 如果绘图中使用了其它图片 , 则不能保存矢量图格式 ;

二、图像保存示例


代码示例 :

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
% 生成 x 轴数据 , -10 ~ 10 , 步长 0.1
t = 0 : 0.1 : 2 * pi;

% x,y 轴变量
x = 3 * cos(t);
y = sin(t);

% 在第一行第一列绘制图形
subplot(2,1,1);
plot(x,y);

% 打开 坐标轴
axis on


% 在第一行第二列绘制图形
subplot(2,1,2);
plot(x,y);

% 关闭 坐标轴
axis off

% 将图像保存为图片格式
saveas(gcf, 'matlab', 'png');

执行结果 : 在代码所在的目录 , 生成了 " matlab.png " 图片 ;

生成的图片 :

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2021-04-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
拿什么拯救我的 4G 显卡
随着深度学习快速发展,同时伴随着模型参数的爆炸式增长,对显卡的显存容量提出了越来越高的要求,如何在单卡小容量显卡上面训练模型是一直以来大家关心的问题。
OpenMMLab 官方账号
2022/01/18
7380
拿什么拯救我的 4G 显卡
大模型成本优化实战:从分布式训练到量化剪枝,轻松降低AI计算开销
随着大模型(如GPT、BERT等)在自然语言处理、计算机视觉等领域的广泛应用,其训练、推理和部署成本成为了制约大规模应用的主要瓶颈。高性能计算资源(如GPU、TPU)的昂贵成本使得许多企业和研究机构难以负担。本文探讨了通过分布式训练、量化、剪枝等技术手段降低大模型成本的优化方案,并提供了可运行的示例代码模块,帮助读者在实际项目中应用这些技术。
Swift社区
2025/03/01
1440
大模型成本优化实战:从分布式训练到量化剪枝,轻松降低AI计算开销
使用FP8加速PyTorch训练的两种方法总结
在PyTorch中,FP8(8-bit 浮点数)是一个较新的数据类型,用于实现高效的神经网络训练和推理。它主要被设计来降低模型运行时的内存占用,并加快计算速度,同时尽量保持训练和推理的准确性。虽然PyTorch官方在标准发布中尚未全面支持FP8,但是在2.2版本中PyTorch已经包含了对FP8的“有限支持”并且出现了2个新的变量类型,torch.float8_e4m3fn和 torch.float8_e5m2 ,而H100也支持这种类型,所以这篇文章我们就来介绍如何使用FP8来提高训练效率
deephub
2024/06/03
7370
使用FP8加速PyTorch训练的两种方法总结
Pytorch 神经网络nn模块
文章目录 1. nn模块 2. torch.optim 优化器 3. 自定义nn模块 4. 权重共享 参考 http://pytorch123.com/ 1. nn模块 import torch N, D_in, Hidden_size, D_out = 64, 1000, 100, 10 torch.nn.Sequential 建立模型,跟 keras 很像 x = torch.randn(N, D_in) y = torch.randn(N, D_out) model = torch.nn.Sequ
Michael阿明
2021/02/19
3480
Pytorch 神经网络nn模块
如何更快地训练Vision Transformer
近期MetaAI发布了一篇博客,关于如何显著提升Vision Transformer的训练效率。
BBuf
2022/05/27
1.1K0
如何更快地训练Vision Transformer
为什么说神经网络可以逼近任意函数?
本文主要介绍神经网络万能逼近理论,并且通过PyTorch展示了两个案例来说明神经网络的函数逼近功能。
deephub
2020/07/24
1.4K0
为什么说神经网络可以逼近任意函数?
深度学习与CV教程(8) | 常见深度学习框架介绍
本系列为 斯坦福CS231n 《深度学习与计算机视觉(Deep Learning for Computer Vision)》的全套学习笔记,对应的课程视频可以在 这里 查看。更多资料获取方式见文末。
ShowMeAI
2022/06/03
1.4K0
深度学习与CV教程(8) | 常见深度学习框架介绍
让PyTorch训练速度更快,你需要掌握这17种方法
近日,Reddit 上一个帖子热度爆表。主题内容是关于怎样加速 PyTorch 训练。原文作者是来自苏黎世联邦理工学院的计算机科学硕士生 LORENZ KUHN,文章向我们介绍了在使用 PyTorch 训练深度模型时最省力、最有效的 17 种方法。
机器之心
2021/01/20
5660
2023 年了,大模型训练还要不要用 PyTorch 的 FSDP ?
ChatGPT 掀起的大模型训练浪潮让不少同学都对训练大模型跃跃欲试,在找训练 baseline 的时候肯定发现大模型训练的 codebase 更倾向于用 DeepSpeed(MMEngine v0.8.0 也已经支持拉,一键切换,肥肠方便!) 、ColossalAI (MMEngine 下个版本也会支持!) 等大模型训练框架,而鲜有问津 PyTorch 原生的 FSDP (FullyShardedDataParallel)。这到底是为啥嘞?是 FSDP 不够节省显存?训练速度太慢?还是说不好用?请耐心看完这篇文章,相信一定会有所收获。
OpenMMLab 官方账号
2023/08/21
3.9K0
2023 年了,大模型训练还要不要用 PyTorch 的 FSDP ?
使用FP8加速PyTorch训练的两种方法总结
我们定义了一个Vision Transformer (ViT)支持的分类模型(使用流行的timm Python包版本0.9.10)以及一个随机生成的数据集。我们选择了ViT-Huge的有6.32亿个参数的最大的模型,这样可以演示FP8的效果。
数据派THU
2024/05/30
3020
使用FP8加速PyTorch训练的两种方法总结
PyTorch深度学习模型训练加速指南2021
简要介绍在PyTorch中加速深度学习模型训练的一些最小改动、影响最大的方法。我既喜欢效率又喜欢ML,所以我想我也可以把它写下来。
AI算法与图像处理
2021/01/20
1.4K0
PyTorch深度学习模型训练加速指南2021
如何用更少的内存训练你的PyTorch模型?深度学习GPU内存优化策略总结
在训练大规模深度学习模型时,GPU 内存往往成为关键瓶颈,尤其是面对大型语言模型(LLM)和视觉 Transformer 等现代架构时。由于大多数研究者和开发者难以获得配备海量 GPU 内存的高端计算集群,掌握高效的内存优化技术至关重要。本文将系统介绍多种优化策略,这些方法在组合应用的情况下,可将训练过程中的内存占用降低近 20 倍,而不会影响模型性能和预测精度。此外,大多数技术可以相互结合,以进一步提升内存效率。
CoovallyAIHub
2025/03/06
1880
如何用更少的内存训练你的PyTorch模型?深度学习GPU内存优化策略总结
优化PyTorch速度和内存效率的技巧汇总
深度学习模型的训练/推理过程涉及很多步骤。在有限的时间和资源条件下,每个迭代的速度越快,整个模型的预测性能就越快。我收集了几个PyTorch技巧,以最大化内存使用效率和最小化运行时间。为了更好地利用这些技巧,我们还需要理解它们如何以及为什么有效。
炼丹笔记
2022/10/27
2.5K0
优化PyTorch速度和内存效率的技巧汇总
【他山之石】适合PyTorch小白的官网教程:Learning PyTorch With Examples
“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注。
马上科普尚尚
2020/12/03
5700
【他山之石】适合PyTorch小白的官网教程:Learning PyTorch With Examples
训练提速60%!只需5行代码,PyTorch 1.6即将原生支持自动混合精度训练。
PyTorch 1.6 nightly增加了一个子模块 amp ,支持自动混合精度训练。值得期待。来看看性能如何,相比Nvidia Apex 有哪些优势?
McGL
2020/09/03
1.2K0
PyTorch专栏(四):小试牛刀
【磐创AI 导读】:本篇文章讲解了PyTorch专栏的第三章中的PyTorch小试牛刀。查看专栏历史文章,请点击下方蓝色字体进入相应链接阅读。查看关于本专栏的介绍:PyTorch专栏开篇。想要更多电子杂志的机器学习,深度学习资源,大家欢迎点击上方蓝字关注我们的公众号:磐创AI。
磐创AI
2019/09/09
1.4K0
PyTorch专栏(四):小试牛刀
CUDA Out of Memory :CUDA内存不足的完美解决方法
大家好,我是默语。今天我们要讨论的是深度学习和GPU编程中非常常见的问题——CUDA内存不足。这类问题常见于使用TensorFlow、PyTorch等深度学习框架时,由于处理大规模数据集或模型超出GPU显存导致内存溢出。本文将详细介绍CUDA内存不足的常见原因、解决方案,并附带代码示例,帮助你在实践中有效避免和解决这一问题。
默 语
2024/11/22
3.4K0
DeepSeek开源周 Day02:从DeepEP开源趋势重新审视大模型Infra
今天DeepSeek开源周第二天,开放了DeepEP仓库,属实看了下源码,和昨天FlashMLA一样,C++权重(包括CUDA)还是占据了绝对部分,作为调包侠的我,看到之后望而却步,想看原理或者实现也是完全看不懂了!
致Great
2025/02/26
1760
DeepSeek开源周 Day02:从DeepEP开源趋势重新审视大模型Infra
比较CPU和GPU中的矩阵计算
GPU 计算与 CPU 相比能够快多少?在本文中,我将使用 Python 和 PyTorch 线性变换函数对其进行测试。
deephub
2022/11/11
1.6K0
比较CPU和GPU中的矩阵计算
优化Pytorch模型训练的小技巧
在本文中,我将描述并展示4种不同的Pytorch训练技巧的代码,这些技巧是我个人发现的,用于改进我的深度学习模型的训练。
deephub
2021/03/29
1.8K0
优化Pytorch模型训练的小技巧
推荐阅读
相关推荐
拿什么拯救我的 4G 显卡
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验