首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >Ubuntu 22.04 RDP客户端/主机分辨率不匹配

Ubuntu 22.04 RDP客户端/主机分辨率不匹配
EN

Ask Ubuntu用户
提问于 2022-09-22 03:07:54
回答 1查看 885关注 0票数 2

让RDP在Ubuntu22.04上工作是相当简单的。但是在我的客户端机器上,我有一个4k监视器,而在主机上,我有一个1440 P监视器。使用Remmina,我无法找到使用客户端解析(4k)进行连接的方法。

由于屏幕是从主机屏幕镜像到RDP连接,它给我的印象是,在22.04的默认RDP支持下,我不能这样做?我尝试了RDP和VNC,两者都有相同的行为。

如果是的话,我有什么选择?

EN

回答 1

Ask Ubuntu用户

发布于 2023-03-18 13:54:32

您可以尝试以下任何一种设置。我尝试过这两种方法,它们都提供了更高分辨率的UI体验,但它们都有一些局限性。

Setup 1-使用xrdp作为服务器上的主机服务,从命令行(而不是图形界面)启动。

  1. (一次)修改服务器启动配置,使其引导到多用户. server,这将引导到终端命令行,而不是图形用户界面
  2. (一次)如果服务器上尚未安装xrdp,请安装xrdp。
  3. 从客户端进入服务器的ssh
  4. 使用命令在服务器上启动xrdp作为服务: systemctl start xrdp
  5. 从远程桌面客户端远程进入服务器,配置为具有高分辨率监视器的框上的全屏。

在本例中显示的UI是gnome桌面,尽管它的配置与直接在服务器上的图形会话中出现的桌面没有完全相同。

只要我将服务器框上的直接访问限制在终端会话上,我的客户端就能很好地工作。但是,如果我已经通过远程桌面连接到服务器,然后尝试直接在服务器上启动图形用户界面,则附加到服务器的监视器只显示一个黑色屏幕。(客户端会话继续运行。)

安装程序2-在mate桌面上使用x2go

  1. (一次)在服务器上安装x2go服务器并匹配桌面。要安装的特定软件包是x2goserver、x2goserver-xsession和ubuntu-mate-桌面。
  2. (一次)在具有高分辨率监视器的客户端框上安装x2go客户端
  3. (一次)在x2goclient中,配置从客户端到服务器的连接,为桌面环境选择mate,全屏
  4. 通过x2go客户端连接到服务器

mate桌面比默认的gnome桌面更简单,但我发现它完全符合我的目的。我在x2go中观察到的一个特点是,如果在x2go客户端会话中以图形方式启动,则火狐和铬都不能正常工作。解决方法是在服务器上的DBUS_SESSION_BUS_ADDRESS=unix:path=/run/user/1000/bus,客户端会话中打开一个终端窗口,使用以下命令手动设置DBUS_SESSION_BUS_ADDRESS环境变量: export,然后从终端命令行启动x2go或or。根据我的经验,出于任何原因,这个问题仅限于这两个浏览器。我测试过的其他图形程序没有类似的问题。

票数 0
EN
页面原文内容由Ask Ubuntu提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://askubuntu.com/questions/1431696

复制
相关文章
jupyter中运行pyspark
Python for Spark显然比Scala慢。然而,易于学习,并且受益于我最喜爱的库。在我看来,Python是大数据/机器学习领域中原型设计的完美语言。
Tim在路上
2020/08/04
2.4K0
spark编程python实例
本文介绍如何使用 PySpark 来读取和分析 CSV 数据。首先,我们介绍在 PySpark 中创建 SparkContext 的步骤,然后使用 SparkContext 来读取和分析 CSV 数据。我们使用 map 函数对数据进行处理,并使用 count 函数获取数据中的总购买次数。最后,我们打印出总购买次数。
王小雷
2018/01/02
1.7K0
spark编程python实例
Pyspark学习笔记(三)--- SparkContext 与 SparkSession
__SparkContext__是spark功能的主要入口。 其代表与spark集群的连接,能够用来在集群上创建RDD、累加器、广播变量。 每个JVM里只能存在一个处于激活状态的SparkContext,在创建新的SparkContext之前必须调用stop()来关闭之前的SparkContext.
TeeyoHuang
2021/05/10
3.7K0
Pyspark学习笔记(三)--- SparkContext 与 SparkSession
pyspark on hpc
本地内部集群资源有限,简单的数据处理跑了3天。HPC上有很多计算资源,出于先吃锅里的再吃碗里的思想,琢磨先充分利用共有资源。简单调研下,也不是很复杂的事情。
flavorfan
2021/12/10
1.7K0
pyspark on hpc
第2天:核心概念之SparkContext
SparkContext是所有Spark功能的入口。无论我们希望运行什么样的Spark应用,都需要初始化SparkContext来驱动程序执行,从而将任务分配至Spark的工作节点中执行。
会呼吸的Coder
2021/03/16
1.1K0
第2天:核心概念之SparkContext
大数据入门与实战-PySpark的使用教程
Apache Spark是用Scala编程语言编写的。为了用Spark支持Python,Apache Spark社区发布了一个工具PySpark。使用PySpark,您也可以使用Python编程语言处理RDD。正是由于一个名为Py4j的库,他们才能实现这一目标。 这里不介绍PySpark的环境设置,主要介绍一些实例,以便快速上手。
致Great
2019/03/19
4.1K0
大数据入门与实战-PySpark的使用教程
Eat pyspark 1st day | 快速搭建你的Spark开发环境
下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
超哥的杂货铺
2021/04/08
2.4K0
Eat pyspark 1st day | 快速搭建你的Spark开发环境
金色传说,开源教程!属于算法的大数据工具-pyspark
spark是目前大数据领域的核心技术栈,许多从事数据相关工作的小伙伴都想驯服它,变成"驯龙高手",以便能够驾驭成百上千台机器组成的集群之龙来驰骋于大数据之海。
Sam Gor
2021/01/18
1.2K0
金色传说,开源教程!属于算法的大数据工具-pyspark
Python大数据之PySpark(三)使用Python语言开发Spark程序代码
需求:[(‘Spark’, 2), (‘Flink’, 1), (‘hello’, 3), (‘you’, 1), (‘me’, 1), (‘she’, 1)]
Maynor
2023/09/29
5620
Python大数据之PySpark(三)使用Python语言开发Spark程序代码
Spark Streaming 2.2.0 初始化StreamingContext
为了初始化 Spark Streaming 程序,必须创建一个 StreamingContext 对象,它是 Spark Streaming 所有流操作的主要入口。StreamingContext 对象可以用 SparkConf 对象创建。
smartsi
2019/08/07
1.4K0
Python大数据之PySpark(五)RDD详解
rdd2=sc.textFile(“hdfs://node1:9820/pydata”)
Maynor
2023/10/04
6920
Python大数据之PySpark(五)RDD详解
Spark-Core核心RDD基础
spark中的RDD是一个核心概念,RDD是一种弹性分布式数据集,spark计算操作都是基于RDD进行的,本文介绍RDD的基本操作。
软件架构师Michael
2022/05/05
2880
PySpark——开启大数据分析师之路
近日由于工作需要,突击学了一下PySpark的简单应用。现分享其安装搭建过程和简单功能介绍。
luanhz
2020/09/08
2.1K0
PySpark——开启大数据分析师之路
Spark笔记15-Spark数据源及操作
数据输入源 Spark Streaming中的数据来源主要是 系统文件源 套接字流 RDD对列流 高级数据源Kafka 文件流 交互式环境下执行 # 创建文件存放的目录 cd /usr/loca/spark/mycode mkdir streaming cd streaming mkdir logfile cd logfile # 对这个子目录进行数据监控 from pyspark import SparkContext from pyspark.streaming import StreamingCo
皮大大
2021/03/02
8000
PySpark工作原理
Spark是一个开源的通用分布式计算框架,支持海量离线数据处理、实时计算、机器学习、图计算,结合大数据场景,在各个领域都有广泛的应用。Spark支持多种开发语言,包括Python、Java、Scala、R,上手容易。其中,Python因为入门简单、开发效率高(人生苦短,我用Python),广受大数据工程师喜欢,本文主要探讨Pyspark的工作原理。
Fayson
2020/02/18
2.3K0
PySpark工作原理
流数据_数据回流是什么意思
https://www.liaoxuefeng.com/wiki/897692888725344/923030465280480
全栈程序员站长
2022/09/20
1.2K0
流数据_数据回流是什么意思
【Python】PySpark 数据输入 ① ( RDD 简介 | RDD 中的数据存储与计算 | Python 容器数据转 RDD 对象 | 文件文件转 RDD 对象 )
RDD 英文全称为 " Resilient Distributed Datasets " , 对应中文名称 是 " 弹性分布式数据集 " ;
韩曙亮
2023/10/11
5010
【Python】PySpark 数据输入 ① ( RDD 简介 | RDD 中的数据存储与计算 | Python 容器数据转 RDD 对象 | 文件文件转 RDD 对象 )
pyspark streaming简介 和 消费 kafka示例
/spark/examples/src/main/python/streaming
编程黑洞
2023/03/06
1.1K0
pyspark streaming简介 和 消费 kafka示例
Windows 安装配置 PySpark 开发环境(详细步骤+原理分析)
这个比较简单,安装原生的 Python 或者 Anaconda 都可以,至于步骤这里就不多说了。
bboy枫亭
2020/09/22
15.8K0
Windows 安装配置 PySpark 开发环境(详细步骤+原理分析)
pyspark 原理、源码解析与优劣势分析(1) ---- 架构与java接口
Spark 框架主要是由 Scala 语言实现,同时也包含少量 Java 代码。Spark 面向用户的编程接口,也是 Scala。然而,在数据科学领域,Python 一直占据比较重要的地位,仍然有大量的数据工程师在使用各类 Python 数据处理和科学计算的库,例如 numpy、Pandas、scikit-learn 等。同时,Python 语言的入门门槛也显著低于 Scala。为此,Spark 推出了 PySpark,在 Spark 框架上提供一套 Python 的接口,方便广大数据科学家使用。本文主要从源码实现层面解析 PySpark 的实现原理,包括以下几个方面:
流川疯
2021/12/06
1.2K0
pyspark 原理、源码解析与优劣势分析(1) ---- 架构与java接口

相似问题

WHERE IN ($array) AND $array =?

20

Laravel: where语句与关系

245

与where子句的雄辩关系

12

Laravel与附加where语句的关系

12

基于与Laravel关系的where应用

13
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文