Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >从连接到启用802.11u的接入点的iOS设备可以获得哪些网络/设备信息?

从连接到启用802.11u的接入点的iOS设备可以获得哪些网络/设备信息?
EN

Server Fault用户
提问于 2014-02-05 14:08:26
回答 1查看 209关注 0票数 1

为了执行某些设备安全验证,我需要对从连接到iOS 802.11u-enabled接入点的设备/硬件/网络信息进行规范引用。

当然,有一些典型的网络细节:

  • MAC
  • 主机名(例如:“弗雷德的iPhone")

是否有其他可以获得的设备的详细信息,如UDID、IMEI,甚至当前连接的载波详细信息?如果是,请提供适当的参考资料。

EN

回答 1

Server Fault用户

发布于 2014-02-05 16:33:08

在我的公司,我们有许多接入点,都是由NAC网关管理的。

我们管理两种类型的设备:

  1. BYOD设备(带你自己的设备)
  2. 公司设备

我们实际获得的(1)信息是:

  • Wifi IP地址
  • Wifi MAC地址
  • 设备系列(如苹果iOS,而不是iPhone,iPad,iPod,ATV)
  • 主机名
  • 用户名(一旦连接到网络)

对于(2),方法有点不同,因为我们使用了一个在设备上安装代理的加入进程(实际上是空中观察)。从这里我们可以获得这些信息,除了前面我们已经拥有的信息:

  • 设备模型(如iPhone 4S GSM/CDMA 16 GB黑)
  • iOS版本
  • 电话号码(如果有的话,视设备而定)
  • 序列号
  • UDID
  • 电源(电池/插头和充放电百分比)
  • 存储容量(和使用/可用百分比)
  • 物理内存(和%已使用/可用)
  • 所有安装在设备上的应用程序
  • 安装证书
  • IMEI
  • 电信运营商名称
  • 电信运营商版本
  • SIM ID
  • 蓝牙MAC地址
  • MCC/跨国公司
  • 电子邮件地址

这些信息(2)被同步到NAC网关。

这只是我的experience...not,最终的答案。希望你会觉得有趣。

票数 1
EN
页面原文内容由Server Fault提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://serverfault.com/questions/573496

复制
相关文章
Pandas vs Spark:获取指定列的N种方式
本篇继续Pandas与Spark常用操作对比系列,针对常用到的获取指定列的多种实现做以对比。
luanhz
2021/04/12
11.5K0
用SQL语句实现:当A列大于B列时选择A列否则选择B列,当B列大于C列时选择B列否则选择C列。
数据库中有A B C三列,用SQL语句实现:当A列大于B列时选择A列否则选择B列,当B列大于C列时选择B列否则选择C列。
全栈程序员站长
2022/07/09
1.7K0
获取GridView中的某列值
    protected void GridView1_RowEditing(object sen
Java架构师必看
2021/03/22
10.3K0
Spark中SQL列和并为一行
但是在 spark 中没有 GROUP_CONCAT 命令,查找后发现命令 concat_ws :
机器学习和大数据挖掘
2019/07/02
1.7K0
如何在Hue中添加Spark Notebook
CDH集群中可以使用Hue访问Hive、Impala、HBase、Solr等,在Hue3.8版本后也提供了Notebook组件(支持R、Scala及python语言),但在CDH中Hue默认是没有启用Spark的Notebook,使用Notebook运行Spark代码则依赖Livy服务。在前面Fayson也介绍了《Livy,基于Apache Spark的开源REST服务,加入Cloudera Labs》、《如何编译Livy并在非Kerberos环境的CDH集群中安装》、《如何通过Livy的RESTful API接口向非Kerberos环境的CDH集群提交作业》、《如何在Kerberos环境的CDH集群部署Livy》、《如何通过Livy的RESTful API接口向Kerberos环境的CDH集群提交作业》、《如何打包Livy和Zeppelin的Parcel包》和《如何在CM中使用Parcel包部署Livy及验证》,本篇文章Fayson主要介绍如何在Hue中添加Notebook组件并集成Spark。
Fayson
2018/11/16
6.8K1
如何在CDH中启用Spark Thrift
CDH 自带的Spark 不支持Spark Thrift,因为spark-assembly jar中缺少Hive thrift相关的依赖包,导致CDH用户没法使用JDBC的方式连接Spark并使用Spark SQL。Apache Spark 1.6之后spark-assembly jar 中包含了 Hive 相关的依赖包了,而恰好 CDH5.13 的 spark也是 1.6,所以可以直接使用Apache Spark 1.6 之后的spark-assembly jar替换CDH的。
Fayson
2018/03/29
6K1
如何在CDH中启用Spark Thrift
sublime 列选择 原
2016年11月17日 09:27:24 zzh_my 阅读数:20295 标签: sublime text 更多
拓荒者
2019/03/08
2.6K0
golang 通过reflect 获取struct信息
本示例主要通过反射,了解struct或变量的相关信息,方便调试代码等。示例: package main import ( "fmt" "reflect" ) type Users struct { Id int Name string Age int Market map[int]st
IT工作者
2022/06/30
6490
如何在Hive中使用Struct类型
Hive中支持多种数据类型除了常用的TINYINT、SMALLINT、INT、BIGINT、BOOLEAN、FLOAT、DOUBLE、STRING、BINARY、TIMESTAMP、DECIMAL、DATE、VARCHAR、CHAR类型外,当然还包含一些复杂的数据类型(array、map、struct、union)。本篇文章Fayson主要介绍在Hive中使用Struct类型存储数据。
Fayson
2018/11/16
11.3K0
Spark Java UDAF 输入struct嵌套结构
虽然Spark3.0.0的官方文档1已对Spark Java UDAF进行了说明,并且有example代码。因此本文主要解决在实际开发过程中,遇到的2种问题:
mikeLiu
2020/08/11
2.1K1
如何在 Tableau 中对列进行高亮颜色操作?
在做数据分析时,如果数据量比较大,可以考虑使用颜色对重点关注的数据进行高亮操作,显眼的颜色可以帮助我们快速了解数据和发现问题。比如一个数据表可能会有十几到几十列之多,为了更好的看清某些重要的列,我们可以对表进行如下操作——
小马哥的牛棚
2020/08/20
5.9K0
通过域名获取主机IP -- struct addrinfo
参考书籍:《UNIX环境高级编程》 (APUE,男神的书,出第三版了,有需要的私信我)
看、未来
2020/09/11
4.7K0
python中的struct
我们知道python只定义了6种数据类型,字符串,整数,浮点数,列表,元组,字典。但是C语言中有些字节型的变量,在python中该如何实现呢?这点颇为重要,特别是要在网络上进行数据传输的话。
py3study
2020/01/10
5350
如何在gin中获取响应体内容?
实现思路: 对gin的responseWriter进行包装, 每次写往请求方写响应数据的时候,将响应数据返回出去。step1: 定义一个新的CustomResponseWriter,通过组合方式持有一个gin.ResponseWriter和response body缓存。type CustomResponseWriter struct { gin.ResponseWriter body *bytes.Buffer}func (w CustomResponseWriter) Write(b []byt
Johns
2021/04/10
11.7K0
如何在gin中获取响应体内容?
使用spark对hive表中的多列数据判重
本文处理的场景如下,hive表中的数据,对其中的多列进行判重deduplicate。 1、先解决依赖,spark相关的所有包,pom.xml spark-hive是我们进行hive表spark处理的关键。 <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.10</artifactId> <ver
用户1225216
2018/03/05
5.2K0
如何在Bash中获取数组长度?
在Bash脚本中,数组是一种常用的数据结构,用于存储多个值。在处理数组时,经常需要知道数组的长度,即数组中元素的个数。本文将详细介绍如何在Bash中获取数组长度的方法,以帮助您更好地处理数组操作。
网络技术联盟站
2023/06/17
1.4K0
如何在Bash中获取数组长度?
Python中struct.pack()和struct.unpack()用法
python中的struct主要是用来处理C结构数据的,读入时先转换为Python的字符串类型,然后再转换为Python的结构化类型,比如元组(tuple)啥的~。一般输入的渠道来源于文件或者网络的二进制流。
周小董
2019/03/25
16.4K2
Python中struct.pack()和struct.unpack()用法
如何在Power Query中批量添加自定义列
一般情况下,我们如果需要添加列,可以一列一列根据需要进行添加,那如果我们需要根据固定的需求进行批量添加,那如何操作呢?
逍遥之
2020/03/24
8.3K1
如何在Power Query中批量添加自定义列
如何在CDH中安装Kudu&Spark2&Kafka
在CDH的默认安装包中,是不包含Kafka,Kudu和Spark2的,需要单独下载特定的Parcel包才能安装相应服务。本文档主要描述在离线环境下,在CentOS6.5操作系统上基于CDH5.12.1集群,使用Cloudera Manager通过Parcel包方式安装Kudu、Spark2和Kafka的过程。
Fayson
2018/03/29
5.8K0
如何在CDH中安装Kudu&Spark2&Kafka
点击加载更多

相似问题

如何在聚合函数中选择spark sql查询中的所有列

217

聚合后获取Spark DataFrame的所有列

14

spark中多列的聚合

10

Spark Scala透视后多个聚合列按名称选择列

13

如何在spark中迭代选择列

13
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文