首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >MS 2013:基于表单中的复选框更改报表中的标签标题

MS 2013:基于表单中的复选框更改报表中的标签标题
EN

Stack Overflow用户
提问于 2017-02-23 05:06:58
回答 1查看 713关注 0票数 0

我在表格上有checkbox (Name:chkHead; Caption:Out of Office),在报告中有label(Name:lblHead; Caption: Name of office head)

详细图像:

当我单击表单中的报表按钮时,它将根据特定的查询生成报表。如果选中表单中的复选框,则标签标题必须是“负责人”,否则它将显示办公室负责人的姓名。

我正在使用MS Access 2013。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-02-23 05:34:42

  1. 创建两个标签-> 1.办公室主管名称2.负责人
  2. 单击窗体设计视图中的复选框,然后在“设计”选项卡下选择“属性工作表”
  3. 在右侧的“属性表”中,在“事件”下选择“on”,并在其中选择“代码生成器”。

如果Me!MyCheckBox = True,则为

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
1. Write the code similar to the below inside sub()

Me.Label2.Visible =真

Me.Label2.Visible = False

否则,如果Me!MyCheckBox = False,则

Me.Label2.Visible = False

Me.Label2.Visible =真

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/42416623

复制
相关文章
Pandas vs Spark:获取指定列的N种方式
本篇继续Pandas与Spark常用操作对比系列,针对常用到的获取指定列的多种实现做以对比。
luanhz
2021/04/12
11.5K0
用SQL语句实现:当A列大于B列时选择A列否则选择B列,当B列大于C列时选择B列否则选择C列。
数据库中有A B C三列,用SQL语句实现:当A列大于B列时选择A列否则选择B列,当B列大于C列时选择B列否则选择C列。
全栈程序员站长
2022/07/09
1.7K0
获取GridView中的某列值
    protected void GridView1_RowEditing(object sen
Java架构师必看
2021/03/22
10.3K0
Spark中SQL列和并为一行
但是在 spark 中没有 GROUP_CONCAT 命令,查找后发现命令 concat_ws :
机器学习和大数据挖掘
2019/07/02
1.7K0
如何在Hue中添加Spark Notebook
CDH集群中可以使用Hue访问Hive、Impala、HBase、Solr等,在Hue3.8版本后也提供了Notebook组件(支持R、Scala及python语言),但在CDH中Hue默认是没有启用Spark的Notebook,使用Notebook运行Spark代码则依赖Livy服务。在前面Fayson也介绍了《Livy,基于Apache Spark的开源REST服务,加入Cloudera Labs》、《如何编译Livy并在非Kerberos环境的CDH集群中安装》、《如何通过Livy的RESTful API接口向非Kerberos环境的CDH集群提交作业》、《如何在Kerberos环境的CDH集群部署Livy》、《如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业》、《如何打包Livy和Zeppelin的Parcel包》和《如何在CM中使用Parcel包部署Livy及验证》,本篇文章Fayson主要介绍如何在Hue中添加Notebook组件并集成Spark。
Fayson
2018/11/16
6.8K1
如何在CDH中启用Spark Thrift
CDH 自带的Spark 不支持Spark Thrift,因为spark-assembly jar中缺少Hive thrift相关的依赖包,导致CDH用户没法使用JDBC的方式连接Spark并使用Spark SQL。Apache Spark 1.6之后spark-assembly jar 中包含了 Hive 相关的依赖包了,而恰好 CDH5.13 的 spark也是 1.6,所以可以直接使用Apache Spark 1.6 之后的spark-assembly jar替换CDH的。
Fayson
2018/03/29
6K1
如何在CDH中启用Spark Thrift
sublime 列选择 原
2016年11月17日 09:27:24 zzh_my 阅读数:20295 标签: sublime text 更多
拓荒者
2019/03/08
2.6K0
golang 通过reflect 获取struct信息
本示例主要通过反射,了解struct或变量的相关信息,方便调试代码等。示例: package main import ( "fmt" "reflect" ) type Users struct { Id int Name string Age int Market map[int]st
IT工作者
2022/06/30
6490
如何在Hive中使用Struct类型
Hive中支持多种数据类型除了常用的TINYINT、SMALLINT、INT、BIGINT、BOOLEAN、FLOAT、DOUBLE、STRING、BINARY、TIMESTAMP、DECIMAL、DATE、VARCHAR、CHAR类型外,当然还包含一些复杂的数据类型(array、map、struct、union)。本篇文章Fayson主要介绍在Hive中使用Struct类型存储数据。
Fayson
2018/11/16
11.3K0
Spark Java UDAF 输入struct嵌套结构
虽然Spark3.0.0的官方文档1已对Spark Java UDAF进行了说明,并且有example代码。因此本文主要解决在实际开发过程中,遇到的2种问题:
mikeLiu
2020/08/11
2.1K1
如何在 Tableau 中对列进行高亮颜色操作?
在做数据分析时,如果数据量比较大,可以考虑使用颜色对重点关注的数据进行高亮操作,显眼的颜色可以帮助我们快速了解数据和发现问题。比如一个数据表可能会有十几到几十列之多,为了更好的看清某些重要的列,我们可以对表进行如下操作——
小马哥的牛棚
2020/08/20
5.9K0
通过域名获取主机IP -- struct addrinfo
参考书籍:《UNIX环境高级编程》 (APUE,男神的书,出第三版了,有需要的私信我)
看、未来
2020/09/11
4.7K0
python中的struct
我们知道python只定义了6种数据类型,字符串,整数,浮点数,列表,元组,字典。但是C语言中有些字节型的变量,在python中该如何实现呢?这点颇为重要,特别是要在网络上进行数据传输的话。
py3study
2020/01/10
5350
如何在gin中获取响应体内容?
实现思路: 对gin的responseWriter进行包装, 每次写往请求方写响应数据的时候,将响应数据返回出去。step1: 定义一个新的CustomResponseWriter,通过组合方式持有一个gin.ResponseWriter和response body缓存。type CustomResponseWriter struct { gin.ResponseWriter body *bytes.Buffer}func (w CustomResponseWriter) Write(b []byt
Johns
2021/04/10
11.7K0
如何在gin中获取响应体内容?
使用spark对hive表中的多列数据判重
本文处理的场景如下,hive表中的数据,对其中的多列进行判重deduplicate。 1、先解决依赖,spark相关的所有包,pom.xml spark-hive是我们进行hive表spark处理的关键。 <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <ver
用户1225216
2018/03/05
5.2K0
如何在Bash中获取数组长度?
在Bash脚本中,数组是一种常用的数据结构,用于存储多个值。在处理数组时,经常需要知道数组的长度,即数组中元素的个数。本文将详细介绍如何在Bash中获取数组长度的方法,以帮助您更好地处理数组操作。
网络技术联盟站
2023/06/17
1.4K0
如何在Bash中获取数组长度?
Python中struct.pack()和struct.unpack()用法
python中的struct主要是用来处理C结构数据的,读入时先转换为Python的字符串类型,然后再转换为Python的结构化类型,比如元组(tuple)啥的~。一般输入的渠道来源于文件或者网络的二进制流。
周小董
2019/03/25
16.4K2
Python中struct.pack()和struct.unpack()用法
如何在Power Query中批量添加自定义列
一般情况下,我们如果需要添加列,可以一列一列根据需要进行添加,那如果我们需要根据固定的需求进行批量添加,那如何操作呢?
逍遥之
2020/03/24
8.3K1
如何在Power Query中批量添加自定义列
如何在CDH中安装Kudu&Spark2&Kafka
在CDH的默认安装包中,是不包含Kafka,Kudu和Spark2的,需要单独下载特定的Parcel包才能安装相应服务。本文档主要描述在离线环境下,在CentOS6.5操作系统上基于CDH5.12.1集群,使用Cloudera Manager通过Parcel包方式安装Kudu、Spark2和Kafka的过程。
Fayson
2018/03/29
5.8K0
如何在CDH中安装Kudu&Spark2&Kafka
点击加载更多

相似问题

如何在聚合函数中选择spark sql查询中的所有列

217

聚合后获取Spark DataFrame的所有列

14

spark中多列的聚合

10

Spark Scala透视后多个聚合列按名称选择列

13

如何在spark中迭代选择列

13
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文