首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

在纵向模式下拍摄的图像拾取器(UIImagePickerController)的照片显示为拉伸-Xcode11/ SwiftUI

在纵向模式下拍摄的图像拾取器(UIImagePickerController)的照片显示为拉伸-Xcode11/ SwiftUI。

在Xcode11和SwiftUI中,使用UIImagePickerController来拍摄照片时,如果在纵向模式下拍摄的照片在显示时出现拉伸的情况,可以通过以下步骤解决:

  1. 确保在Info.plist文件中添加了相机和相册的权限请求描述,以便在用户首次访问时请求权限。
  2. 在SwiftUI的视图中,使用@State属性包装一个UIImage类型的变量,用于存储拍摄的照片。
代码语言:txt
复制
@State private var image: UIImage?
  1. 创建一个函数来打开图像拾取器,并设置其属性。
代码语言:txt
复制
func openImagePicker() {
    let imagePicker = UIImagePickerController()
    imagePicker.sourceType = .camera
    imagePicker.delegate = self
    // 设置allowsEditing为true,允许用户编辑照片
    imagePicker.allowsEditing = true
    // 设置照片的质量为高质量
    imagePicker.videoQuality = .typeHigh
    // 设置照片的方向为纵向
    imagePicker.cameraCaptureMode = .photo
    // 在iPad上以弹出窗口的形式显示图像拾取器
    imagePicker.modalPresentationStyle = .popover
    // 在iPad上设置弹出窗口的位置
    imagePicker.popoverPresentationController?.sourceView = self.view
    // 打开图像拾取器
    self.present(imagePicker, animated: true, completion: nil)
}
  1. 实现UIImagePickerControllerDelegate协议中的方法,以获取拍摄的照片。
代码语言:txt
复制
extension YourView: UIImagePickerControllerDelegate, UINavigationControllerDelegate {
    func imagePickerController(_ picker: UIImagePickerController, didFinishPickingMediaWithInfo info: [UIImagePickerController.InfoKey : Any]) {
        // 从info字典中获取编辑后的照片
        if let editedImage = info[.editedImage] as? UIImage {
            self.image = editedImage
        }
        // 关闭图像拾取器
        picker.dismiss(animated: true, completion: nil)
    }
}
  1. 在视图中使用Image来显示拍摄的照片。
代码语言:txt
复制
Image(uiImage: self.image ?? UIImage())
    .resizable()
    .aspectRatio(contentMode: .fit)

这样,拍摄的照片就会按照原始比例显示,并且不会出现拉伸的情况。

推荐的腾讯云相关产品:腾讯云移动直播(https://cloud.tencent.com/product/mlvb)

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

这个机器人太牛了,陌生物体抓取识别成功率高达100%

给杂货拆包是一件简单但乏味的工作:手伸进包里,摸索着找到一件东西,然后把它拿出来。简单瞄一眼之后,你会了解这是什么东西,它应该存放在哪里 如今,麻省理工学院和普林斯顿大学的工程师们已经开发出一种机器人系统,未来有一天,他们可能会帮你完成这项家务,并协助其他拣选和分拣工作,例如在仓库组织产品,或在宅区清除瓦砾。 该团队的“拾放”系统由一个标准的工业机器人手臂组成,研究人员配备了一个定制抓手和吸盘。他们开发了一种“未知物体”的抓取算法,使机器人能够评估一堆随机物体,并确定在杂物中抓取或吸附物品的最佳方式,而

08

[深度学习概念]·CNN卷积神经网络原理分析

本章将介绍卷积神经网络。它是近年来深度学习能在计算机视觉领域取得突破性成果的基石。它也逐渐在被其他诸如自然语言处理、推荐系统和语音识别等领域广泛使用。我们将先描述卷积神经网络中卷积层和池化层的工作原理,并解释填充、步幅、输入通道和输出通道的含义。在掌握了这些基础知识以后,我们将探究数个具有代表性的深度卷积神经网络的设计思路。这些模型包括最早提出的AlexNet,以及后来的使用重复元素的网络(VGG)、网络中的网络(NiN)、含并行连结的网络(GoogLeNet)、残差网络(ResNet)和稠密连接网络(DenseNet)。它们中有不少在过去几年的ImageNet比赛(一个著名的计算机视觉竞赛)中大放异彩。虽然深度模型看上去只是具有很多层的神经网络,然而获得有效的深度模型并不容易。有幸的是,本章阐述的批量归一化和残差网络为训练和设计深度模型提供了两类重要思路。

03

学界 | 看一遍人类动作就能模仿,能理解语义的谷歌机器人登上无监督学习的新高度

AI 科技评论按:机器学习能让机器人学会复杂的技能,例如抓住把手打开门。然而学习这些技能需要先人工编写一个奖励函数,然后才能让机器人开始优化它。相比之下,人类可以通过观察别人的做法来理解任务的目标,或者只是被告知目标是什么,就可以完成任务。目前,谷歌期望通过教会机器人理解语义概念,以使得机器人能够从人类的示范中学习动作,以及理解物体的语义概念,完成抓取动作。 以下为 AI 科技评论编译的这篇谷歌博客的部分内容。 问题的引入 人类与机器人不同,我们不需要编写目标函数即可以完成许多复杂的任务。我们可以这样做,是

08

【史上最强机械手】无需提前了解物体,100%识别,适用多种非结构化场景

新智元编译 来源:MIT 编译:克雷格 【新智元导读】最近,由MIT和普林斯顿大学研究人员开发一款名为“拾放(pick-and-place)”的系统。“拾放”系统由一个标准的工业机器人手臂组成,研究人员配备了一个定制的抓手和吸盘。 他们使用算法让机械手能够评估一堆随机物体,并确定在杂物中抓取或吸附物品的最佳方式,而不必在拾取物体之前了解物体。 拆包杂货是一项简单且单调的任务:你伸手去拿一个包,摸一下物品,然后把里面的东西拿出来,扫了一眼之后再决定把它存储在哪里。 现在,这个重复性的工作要被机械手代替

011
领券