前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >网络测量之NetSight(NSDI-2014)

网络测量之NetSight(NSDI-2014)

作者头像
我是东东东
发布2018-08-01 17:16:53
8950
发布2018-08-01 17:16:53
举报
文章被收录于专栏:我是东东强我是东东强

全文概要

NSDI 2014年中,由斯坦福大学”SDN之父”,Nick Mckeown教授带领的实验室发表了题为《I Know What Yout Packet Did Last Hop: Using Packet Histories to Troubleshoot Networks》的论文。基于本文设计的NetSight系统,运行在端系统之上,并利用已有的OpenFlow交换机的功能特性,实现了Packet-Level的网络数据监测。本文尝试概述了该系统的核心思想,作为网络测量领域相关工作的一次备忘。

Paper


Proposed in NSDI.2014 -《I Know What Yout Packet Did Last Hop: Using Packet Histories to Troubleshoot Networks》

Idea


在本文提出的NetSight系统中,在网络中的每一个数据包流经的每一跳都会为该数据包产生一个称作Postcard的日志条目(包含Switch ID、输出端口号以及转发状态的版本号),并发送至服务器集群,在集群内部实现负载均衡(压缩->洗牌->解压),对于某个数据包,其Postcard最终会被发送至同一个服务器进行处理,在该服务器处,关于此数据包的全部Postcard会被根据网络拓扑信息组装成为Packet History并作持久化存储,它将可以回答所有关于此数据包在网络中的经历的问题。网络用户基于NetSight提供的API开发用于调试的各类应用程序,将其所关注的网络事件或行为通过文中提出的Packet History Filter(PHF)进行表达,并在已有的Packet History处执行查询匹配(分为实时的(Live)和历史的(Historical)),以获知网络事件是否发生。

Terminology


Packet History 定义如下:

The route a packet takes through a network plus the switch state and header mofification it encounters at each hop.

数据包历史,包含该数据包流经网络采用的路由(路径),和它在经过每一跳(交换机)时,交换机的状态以及在本跳受到的首部修改情况。 Packet History反映了该Packet在网络中的“种种遭遇”,它提供给我们如下信息:

  • What the packet looked like as it entered the network (Headers)
  • Where the packet was forwarded (Switches + Ports)
  • How it was changed (Header Modification)
  • Why is was forwarded that way (Matched Flow/Actions + Flow Table)

Packet History Filter(PHF):一种类似正则表达式的语言,可十分方便简洁地为所关注的数据包历史指定需匹配的 数据包路径交换机状态数据包首部字段

Postcard:每个数据包在流经每个交换机时,都会生成一个称作 Postcard 的事件记录,它是包括数据包首部、交换机ID、输出端口号以及交换机转发状态的版本号等信息的一个拷贝。最终,同一个数据包流经各个交换机时产生的Postcard都在同一台处理服务器处,根据事先知道的网络拓扑信息,重新组装成为一个关于此数据包的Packet History,用于匹配用户查询。

Postcard Filter(PF)PHF语言中的原子元素(最小元素),用于在某一跳处匹配一个数据包。PF实际上是以下字段过滤器的联合:数据包首部、交换机ID(数据路径ID,dpid)、输入端口号(inport)、输出端口号(outport)和该数据包“遭遇”的交换机状态(用一个版本号表示,version)。PF可写作如下形式:

1

--bpf [not] <BPF> --dpid [not] <switch ID> --inport [not] <input port> -- outport [not] <output port> --version [not] <version>

BPF是Berkeley Packet Filter表达式。[not]是可选项,表示当前字段不可取后面的值。一个PF至少应该包含上述字段的中的一个。

例如:现要匹配一个数据包,它的源IP为A,中途经过交换机S,其中输入端口不能是P。对应PF可写作如下:

1

--bpf "ip src A" --dpid S --inport not P

Challenge


  1. Path Visibility,即路径可见性,我们必须以某种方式观察到并记录每个数据包采用的路径
  2. State Visibility,即状态可见性,我们必须重新构建每个数据包在每一跳观察到的准确的交换机状态
  3. Modification Visibility,即(首部)修改可见性,我们必须知道数据包在何处以及如何被修改
  4. Collection Scale,即信息收集可扩展性,上述功能都必须在最大网络速率环境中正常运行
  5. Storage Scale,即信息存储可扩展性,在某些时候,提供Packet History查询功能需要存储几乎所有信息
  6. Processing Scale,即信息处理可扩展性,查询处理必须与信息收集与存储的速度相匹配

Application


ndb: Interactive Network Debugger


ndb是一种交互式的网络调试工具,允许网络应用开发者基于异常网络事件设置相应的PHF,一旦事件发生,返回得到的Packet History将会包含一系列的造成该异常事件的交换机转发事件,从而帮助诊断如下常见问题:

  1. Reachability Error(可达性错误)
  2. Race Condition(竞争条件)
  3. Incorrect Packet Modification(不正确的数据包修改)

netwatch: Live Invariant Monitor


netwatch允许运维人员以不变体(不变式,invariant)的形式指明其所关注的网络行为,并在某数据包违反该不变式时触发警告。 netwatch本质上是一个不变式的库,包含了各种用PHF写就的不变式,用于匹配违反不变式的数据包。一旦对应的PHF被推送至NetSight系统中并被下发配置完成后,回调(callback)就会将违反此不变式行为的Packet History返回。 netwatch现能支持以下网络不变式:

  1. Isolation(通信区域隔离)
  2. Loop Freedom(无环路径)
  3. Waypoint Routing(路径点路由)
  4. Max Path Length(最大路径长度)

netshark: Network-wide Path-Aware Packet Logger


netshark允许用户对整个Packet History设置过滤器,包括它们在每一跳的路径和首部字段值。 netshark接受一个来自用户定义的PHF,返回匹配该查询的Packet History,它还包括一个wireshark组件用于解析收集到的结果。用户能够观察到某一跳处的数据包属性(包头字段值、交换机ID、输入/输出端口号和其所匹配的流表的版本号),以及Packet History的属性(所属路径、所属路径长度等)。

nprof: Hierachial Network Profiler


nprof帮助用户分析任意链路集合,以理解造成当前链路利用率情况的流量特征和路由决定。 nprof会将收集到的Packet History与拓扑信息组合起来已提供一个生动的分层视图,表明是哪些交换机在发送流量给当前链路,以及流量大小。

Achitecture


NetSight使用一个Central Coordinator来管理多个Worker(NetSight Server)NetSight Application(应用程序)将基于PHF的钩子(Trigger)和查询发送至Coordinator,后者则将匹配得到的Packet History返回给前者。

Coordinator设置从SwitchNetSight ServerPostcard传输和从网络控制平面到CoordinatorState Change Record(状态变化记录)传输。

最后,Coordinator会对其所管理的Worker们执行周期性的存活检测、查询与钩子的广播,并在组装Packet History时与之交换拓扑信息。

Work Flow


Postcard Generation


Goal: Record all information relevant to a forwarding event and send for analysis.

当一个数据包经过一个交换机时,交换机通过复制(Duplicate)该包生成一个Postcard,随后将其裁剪(Truncate)至最小包大小(Minimun Packet Size),使用相关状态对其进行标记(Marking),并将其转发(Forwarding)至NetSight Servers进行分析。

Postcard Collection


Goal: To send all postcards for a packet to one server, so that its packet history can be assembled.

为了重建某一个数据包的HistoryNetSight需要在单个Server中收集到与该数据包相关的所有Postcard(一组Postcard)。而为了扩展集群的处理能力,NetSight需要确保这些Postcard组在集群服务器之间实现负载均衡,通过对数据包的Flow ID,即五元组(5-tuple:Src/Dest IP, Src/Dest Port, Protocol)进行哈希操作来确保局部性(同一个流的数据包的Postcard会被最终发往同一个服务器进行处理)。

为实现负载均衡而执行的洗牌(Shuffle)过程,是基于时间划分的,每个时间段称作一个Round,只有在每一个Round末尾,服务器会将在这个Round时间段内收集到的Postcard发送至其通过Shuffle过程确定的最终目的地服务器,在那里等待被装配。

而在Shuffle之前,利用相同流(Within a flow)和相邻流(Between flow)之间的数据包在头部字段的冗余,还可实现Postcard的压缩处理,进一步减小Shuffling过程中的带宽开销。

从上图中可以看到,最先接收Postcard并对其做压缩和转发的服务器,和最终接收Postcard并做装配(以得到同一个数据包的History)和存储的服务器,其实是同一个集群,这相当于让Postcards分别以原型和被压缩后的形式在网络中被转发了两次,那既然你前面说了要基于流的五元组使得同一个流的数据包的Postcards会被发送到同一个服务器作存储,那我岂不是一开始就让交换机根据五元组的哈希值来对Postcard进行转发,这不是也可以保证流数据的局部性吗?为什么还要那么复杂地再加一个Shuffle的过程,直接发到目的服务器处理和存储不就好了吗?

这个问题在论文后面的内容才有解释:数据包的五元组是可能被交换机修改的,比如经过NAT交换机时(交换机和路由器其实在网络差不多等价了,不用太在意二层还是三层,默认都有三层转发的功能),数据包的源IP就会被修改,如果仅仅根据五元组哈希值进行转发,经过NAT交换机之前的(包括正在NAT交换机中的)数据包的五元组就是原始五元组,会被转发到某台服务器 $S_1$ 上,但是经过NAT交换机之后的数据包的五元组被修改了,又会被转发到另一台服务器 $S_2$ 上,即会使得同一个数据包在不同跳生成的Postcard被转发到不同服务器上去处理和存储,这就违背了流数据的局部性原则,不利于利用冗余进行压缩以减小存储开销的目的。

为方便之后的装配和存储过程,对Postcard的转发有如下两个局部性要求:

  1. 同一个数据包的全部Postcards应该被转发至同一个服务器,便于将它们组装成该数据包的History,同时不同Postcard之间仅交换机元数据不同,存在大量数据冗余(如首部),也便于后期压缩以减少存储开销
  2. 同一个流的所有数据包的全部Postcards应该被转发至同一个服务器,不同数据包的Postcard也存在数据冗余(如五元组),便于后期压缩以减少存储开销

基于这个问题,NetSight给出的解法就是:增加一个额外的Shuffle过程,也就是在交换机生成Postcard直到Postcard最终被发往目的服务器进行处理和转发的整个过程中,包含两个基于哈希的转发过程。具体来说是这样:针对NAT可能修改五元组这种流标识的问题,利用IP IDOffsetTCP Sequence Number构成一个组合字段,称为Packet ID,这些头部字段显然不会被转发过程中任何一跳修改,NAT也不会修改,所以为Immutable Headers,那么第一个转发过程,即交换机发送Postcard到服务器时,就基于Packet ID的哈希值转发,显然这能够保证同一个数据包的全部Postcards会被发送到同一个服务器,这很好。但是,同一个流中的不同数据包的Packet ID显然不同,因此还是会被转发到不同服务器,于是加入第二个转发过程,即Shuffle过程,服务器现在接收到了某个数据包的全部Postcards,将它们关联起来用一个数据结构存储(类似链表),并根据拓扑信息将其排序,而第一跳Postcard的五元组,由于它一定未被NAT修改,还是原始的五元组,那么就根据第一跳Postcard的五元组的哈希值进行二次转发,是将这个Postcard对应数据包的全部Postcards都转发到该哈希值对应的服务器处,这样就能够保证同一个流的所有数据包的全部Postcards最终被转发到同一个服务器。

History Assembly


Goal: To assemble packet histories from out-of-order postcards.

在某台NetSight服务器上,由于从交换机发来数据不同的传播与排队时延(Propagation and Queuing Delay),同一个数据包的Postcards很有可能是乱序到达的,在装配成History之前,NetSight会利用拓扑信息而非时间戳来将属于各个数据包的Postcards排好序。

一旦某NetSight服务器从所有其它服务器上收到了某个数据包在全部Round时段的Postcards,它将会对这些Postcards执行解压缩,并将其合并至一个称作Path Table的数据结构中,该结构帮助将同一个数据包的全部Postcards组成成为一个组(Group)。为了标识某个数据包的全部PostcardsNetSight使用数据包中从不会被更改的头部字段,如IP IDFragment OffsetTCP Sequence Number等,组合成为一个新字段,叫作Packet ID,它可用来唯一标识某个流中的一个数据包。Path Table简单地采用Packet ID作为索引(Key),而对应的值(Value)则为此数据包对应的全部Postcard组成的列表。

NetSight服务器随后会提取这些已组织好的Postcard组,一次提取一组,即一个数据包的全部Postcard信息,将其组装成为该数据包的Packet History。对于每一组,NetSight使用Switch IDOutput Port,以及实际的拓扑信息,对其执行拓扑排序。而最终排序好的Postcard列表即该数据包的Packet History

Filter Trigger


Goal: To immediately notify applications of fresh packet histories matching a pre-installed PHF.

一旦某个数据包的Packet History被组装完成,NetSight会将其与所有由如netwatch等应用程序预先安装下发的(活跃的、实时的)Live PHF进行匹配,并在成功匹配某项后立即触发向对应应用程序的通知。

History Achival


Goal: To efficiently store the full set of the packet histories.

在每一个Round中生成的Packet History的数据流将被写入到一个文件。在写入持久化存储的过程中,NetSight会采用与之前提到的一样的压缩算法,都是利用了同一个数据包的Postcard之间的与同个流中的数据包之间的头部信息冗余,来实现压缩以减小存储开销。

Histort Queries


Goal: To enable applications to issure PHF queries against archived packet histories.

当一个应用程序下发对于某一具体时间范围内的历史性的Historical PHF查询需求时,该查询会在所有NetSight服务器上并行执行。在这里,由于压缩帮助提高了有效磁盘吞吐率,从而也缩短了查询完成时间。

Implementation


NetSight实现分为两个过程:

  1. 插入到OpenFlow ControllerSwitches之前的Control Channel Proxy(控制通道代理),用于记录配置更改,使用Python实现。
  2. NetSight Server,用于执行全部的PostcardHistory相关操作,使用C++实现。

Flow Table State Recorder


在SDN环境下,任何网络状态的更改都是由控制器参与和协调完成的,这就提供了一个监控与截获交换机配置更改的绝佳地点。NetSight在控制器与OpenFlow交换机的控制路径上,实现了一个透明代理,称作Flow Table State Recorder,每当控制器向交换机们下发新的流表项,Recorder都会截获此信息并存储到数据库中。

具体来说,Recorder工作流程如下:对于每条由控制器发送给交换机的OpenFlow规则,即OpenFlow流表项,Recorder都会将其截获并存储,同时在该规则对应的Action操作中追加一个新Action,令交换机除了对其所接收到匹配该规则的数据包进行正常转发之外,还为其生成一个Postcard并发送至NetSight服务器。这些追加的Action实际就是指示交换机创建一个匹配本条目的数据包的一份拷贝,并用当前交换机ID、输出端口号以及所匹配的流表项的版本号对其进行标记。其中,流表项的版本号就是一个简单的计数器,随着每条流修改信息的到来而递增。这些标记会覆盖原数据包的目的MAC地址字段,因此此数据包,实际就是Postcard无需像原数据包一样转发,只需发送到指定NetSight服务器处即可,因此目的MAC地址实际就没有作用了。一旦该Postcard被生成,随后会基于一个单独的VLAN字段值转发至对应的NetSight服务器。Postcard可采用两种网络转发模式,通过一个单独的网络处理即Out-of-band(带外)传输,和在普通网络中传输即In-band传输。当采用后者时,交换机会通过一个特殊的VLAN字段标记识别出Postcard,从而避免为Postcard再生成Postcard,造成不必要的带宽开销。

NetSight Server


作为实际的End-host(端系统)测量解决方案,本文提出的NetSight系统并没有涉及对交换机的修改,转而充分利用了OpenFlow交换机提供的已有特性,相比Flow Table State Recorder仅仅追加规则使得交换机能够生成per-packetPostcard,整个NetSight Server集群才是整个NetSight系统的核心,毕竟是它完成了全部Postcard的收集、组装、存储和查询的任务。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018-05-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 全文概要
  • Paper
  • Idea
  • Terminology
  • Challenge
  • Application
    • ndb: Interactive Network Debugger
      • netwatch: Live Invariant Monitor
        • netshark: Network-wide Path-Aware Packet Logger
          • nprof: Hierachial Network Profiler
          • Achitecture
          • Work Flow
            • Postcard Generation
              • Postcard Collection
                • History Assembly
                  • Filter Trigger
                    • History Achival
                      • Histort Queries
                      • Implementation
                        • Flow Table State Recorder
                          • NetSight Server
                          相关产品与服务
                          负载均衡
                          负载均衡(Cloud Load Balancer,CLB)提供安全快捷的流量分发服务,访问流量经由 CLB 可以自动分配到云中的多台后端服务器上,扩展系统的服务能力并消除单点故障。负载均衡支持亿级连接和千万级并发,可轻松应对大流量访问,满足业务需求。
                          领券
                          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档