2024-01-15

Linux TC 命令材料收集和整理

介绍

    tc 用于在 Linux 内核中配置流量控制。tc 是 Linux 自带的模块,一般情况下不需要另行安装,可以用 man tc 查看 tc 相关命令细节,要求内核 2.4.18 以上。

    流量控制(tc)是一个非常有用的 Linux 实用程序,它使您能够配置内核数据包调度程序。如果您正在寻找扰乱内核调度器的原因,或者仅仅是测试数据包丢失对应用程序的影响,以下就是其中的一些原因。首先,使用不同的选项并熟悉 Linux 的所有特性是很有趣的。此外,您可以利用 Linux 的有用工具来模拟 UDP 或 TCP 应用程序的数据包延迟和丢失,或者限制特定服务的带宽使用来模拟 Internet 连接(DSL、 Cable、 T1等)。

原理

    Linux操作系统中的流量控制器TC(Traffic Control)用于Linux内核的流量控制,主要是通过在输出端口处建立一个队列来实现流量控制。 接收包从输入接口进来后,经过流量限制丢弃不符合规定的数据包,由输入多路分配器进行判断选择:

  • 如果接收包的目的主机是本主机,那么将该包送给上层处理,否则需要进行转发,将接收包交到转发块(Forwarding Block)处理。
  • 转发块同时也接收本主机上层(TCP、UDP等)产生的包,通过查看路由表,决定所处理包的下一跳。
  • 然后,对包进行排列以便将它们送到输出接口。

一般只能限制网卡发送的数据包,不能限制网卡接收的数据包,所以可以通过改变发送次序来控制传输速率。

Linux流量控制主要是在输出接口排列时进行处理和实现的。

    Linux 中的 QoS 分为入口 (Ingress) 部分和出口 (Egress) 部分,入口部分主要用于进行入口流量限速 (Policing),出口部分主要用于队列调度 (Queuing Scheduling)。大多数排队规则 (qdisc) 都是用于输出方向的,输入方向只有一个排队规则,即 Ingress qdisc。

Ingress qdisc 本身的功能很有限,输入方向只有一个排队规则,即 Ingress qdisc(因为没有缓存只能实现流量的 Drop)但可用于重定向 Incoming packets。通过 Ingress qdisc 把输入方向的数据包重定向到虚拟设备ifb,而ifb的输出方向可以配置多种 qdisc,就可以达到对输入方向的流量做队列调度的目的。

Ingress

Ingress 限速只能对整个网卡入流量限速,无队列之分。

Ingress 流量的限速示例:

tc qdisc add dev eth0 ingress
tc filter add dev eth0 parent ffff: protocol ip prio 10 u32 match ipsrc 0.0.0.0/0 police rate 2048kbps burst 1m drop flowid :1

Egress

TC模块利用队列规定建立处理数据包的队列,并定义队列中的数据包被发送的方式,实现对流量的控制。

TC模块实现流量控制功能使用的队列规定分为两类,一类是无类队列规定,另一类是分类队列规定。无类队列规定相对简单,而分类队列规定则引出了分类和过滤器等概念,使其流量控制功能增强。

无类队列: 规定是对进入网络设备(网卡)的数据流不加区分统一对待的队列规定。使用无类队列规定形成的队列能够接收数据包以及重新编排、延迟或丢弃数据包。这类队列规定形成的队列可以对整个网络设备(网卡)的流量进行整形,但不能细分各种情况。常用的无类队列规定主要有 pfifo_fast(先进先出)、TBF(令牌桶过滤器)、SFQ(随机公平队列)、ID(前向随机丢包)等等。这类队列规定使用的流量整形手段主要是排序、限速和丢包。

分类队列: 规定是对进入网络设备的数据包根据不同的需求以分类的方式区分对待的队列规定。数据包进入一个分类的队列后,它就需要被送到某一个类中,也就是说需要对数据包做分类处理。对数据包进行分类的工具是过滤器,过滤器会返回一个决定,队列规定就根据这个决定把数据包送入相应的类进行排队。每个子类都可以再次使用它们的过滤器进行进一步的分类。直到不需要进一步分类时,数据包才进入该类包含的队列排队。除了能够包含其他队列规定之外,绝大多数分类的队列规定还能够对流量进行整形。这对于需要同时进行调度(如使用SFQ)和流量控制的场合非常有用。

基本概念

QDISC(排队规则)

    全称是queueing discipline,我们姑且称其为排队规则吧。它是协议栈和网络接口之间的一个缓冲层。你可以在qdisc上对数据包做一些你想做的操作,比如分类、整形、调度等。

    qdisc分为无类(classless)qdisc和有类(classful)qdisc。无类qdisc不再内部细分类,有类qdisc可进一步包含多个分类,每个class上可以进一步包含子qdisc,子qdisc也可以是有类qdisc,这样就形成了树状的分层结构。

    最简单的QDisc是pfifo它不对进入的数据包做任何的处理,数据包采用先入先出的方式通过队列。不过,它会保存网络接口一时无法处理的数据包。

CLASSLESS QDISC(不可分类QDISC)**

  • [p|b]fifo: 使用最简单的qdisc,纯粹的先进先出。只有一个参数:limit,用来设置队列的长度,pfifo是以数据包的个数为单位;bfifo是以字节数为单位。

  • pfifo_fast: 在编译内核时,如果打开了高级路由器(Advanced Router)编译选项,pfifo_fast就是系统的标准QDISC。它的队列包括三个波段(band)。在每个波段里面,使用先进先出规则。而三个波段(band)的优先级也不相同,band 0的优先级最高,band 2的最低。如果band0里面有数据包,系统就不会处理band 1里面的数据包,band 1和band 2之间也是一样。数据包是按照服务类型(Type of Service,TOS)被分配多三个波段(band)里面的。

  • red: Random Early Detection(随机早期探测)的简写。如果使用这种QDISC,当带宽的占用接近于规定的带宽时,系统会随机地丢弃一些数据包。它非常适合高带宽应用。

  • sfq: Stochastic Fairness Queueing的简写。它按照会话(session–对应于每个TCP连接或者UDP流)为流量进行排序,然后循环发送每个会话的数据包。

  • tbf: Token Bucket Filter的简写,适合于把流速降低到某个值。

不可分类QDISC配置: 如果没有可分类QDISC,不可分类QDISC只能附属于设备的根。它们的用法如下:

# 添加一个不可分类的 qdisc
tc qdisc add dev DEV root QDISC QDISC-PARAMETERS
# 删除一个不可分类 qdisc
tc qdisc del dev DEV root

一个网络接口上如果没有设置QDISC,pfifo_fast就作为缺省的QDISC。

CLASSFUL QDISC(分类QDISC)

  • CBQ: CBQ是Class Based Queueing(基于类别排队)的缩写。它实现了一个丰富的连接共享类别结构,既有限制(shaping)带宽的能力,也具有带宽优先级管理的能力。带宽限制是通过计算连接的空闲时间完成的。空闲时间的计算标准是数据包离队事件的频率和下层连接(数据链路层)的带宽。

  • HTB: HTB是Hierarchy Token Bucket的缩写。通过在实践基础上的改进,它实现了一个丰富的连接共享类别体系。使用HTB可以很容易地保证每个类别的带宽,它也允许特定的类可以突破带宽上限,占用别的类的带宽。HTB可以通过TBF(Token Bucket Filter)实现带宽限制,也能够划分类别的优先级。

  • PRIO: PRIO QDISC不能限制带宽,因为属于不同类别的数据包是顺序离队的。使用PRIO QDISC可以很容易对流量进行优先级管理,只有属于高优先级类别的数据包全部发送完毕,才会发送属于低优先级类别的数据包。为了方便管理,需要使用iptables或者ipchains处理数据包的服务类型(Type Of Service,ToS)。

CLASS(类别)

    有类qdisc可以有多个子类(class),有些qdisc预定义了子类(如prio),有些则需要用户添加类。一个类上又可以附加其他类。最末端没有子类的类称为叶子类,它上面附加了一个qdisc。当创建一个class的时候,默认会附加一个fifo qdisc,它只是一个简单的队列,不对数据包进行任何的操作。当在这个类上增加子类的时候,这个默认的qdisc被移除。你可以将这个默认的fifo qdisc替换成其他任意你想用的qdisc。

eg:

  .-------------------------------------------------------.
  |                                                       |
  |  HTB                                                  |
  |                                                       |
  | .----------------------------------------------------.|
  | |                                                    ||
  | |  Class 1:1                                         ||
  | |                                                    ||
  | | .---------------..---------------..---------------.||
  | | |               ||               ||               |||
  | | |  Class 1:10   ||  Class 1:20   ||  Class 1:30   |||
  | | |               ||               ||               |||
  | | | .------------.|| .------------.|| .------------.|||
  | | | |            ||| |            ||| |            ||||
  | | | |  fq_codel  ||| |  fq_codel  ||| |  fq_codel  ||||
  | | | |            ||| |            ||| |            ||||
  | | | '------------'|| '------------'|| '------------'|||
  | | '---------------''---------------''---------------'||
  | '----------------------------------------------------'|
  '-------------------------------------------------------'

以上3个是TC中最基本的3个概念,任何复杂的流量控制都是通过这个三元组递归实现的。

层级结构

    每个接口有一个egress ‘root qdisc’,默认是pfifo_fast。每个qdisc和class都分配一个句柄handle,句柄用于在后续的配置语句中进行引用。除了egress qdisc,一个接口也可以有一个ingress qdisc,负责管制入站的流量。但是ingress qdisc相比classful qdisc其可能性是非常有限。(所以才有所谓的控发不控收,对入站流量进行控制通常需要借助ifb[6]或者imq)。

    这些qdisc的handles有两个部分组成,一个major数和一个minor数:<major>:<minor>。习惯上将root qdisc命名为1:,等价于1:0。一个qdisc的minor数总是0。

    子类需要跟它们的parent有相同的major数。major数在一个egress或ingress内必须是唯一的,minor数在一个qdisc和它的class中必须是唯一的。

一个典型的层级结构如下:

          1:   root qdisc
           |
          1:1    child class
        /  |  \
       /   |   \
      /    |    \
      /    |    \
   1:10  1:11  1:12   child classes
    |      |     | 
    |     11:    |    leaf class
    |            | 
    10:         12:   qdisc
   /   \       /   \
10:1  10:2   12:1  12:2   leaf classes

内核只跟root qdisc进行通信,每当包需要入队或者出队的时候,都需要从root节点开始,最终到达叶子节点,从而决定入队到哪里,或者从哪里出队。

比如当一个包入队时,它可能会经过如下路径:1: -> 1:1 -> 1:12 -> 12: -> 12:2

当然也可能直接走如下路径:1: -> 12:2

这种情况,就是root qdisc上的过滤器决定把包直接送到12:2

注意:入队和出队时虽然节点的拓扑图是一样的,但是每个节点表示的含义却有所不同*(数据包的分类和调度-Linux TC的另一种解释_可编程数据包调度)*。入队时是根据过滤器和包的特征决定走哪条路径,而出队时则取决于qdisc本身的调度算法,比如FIFO、优先级队列、SFQ的顺序调度等。

FILTER(过滤器)

    过滤器,用于有类qdisc中,决定将包入队到哪个类中。每当一个包到达有子类的类时,就需要进行分类。其中一种分类的方法就是使用过滤器(另外两个是ToS和skb->priority)。所有附加到类上的过滤器会被依次调用,直到其中一个返回裁决。一个filter包含了一些条件,当一个包到达该节点时,会根据包的特征判断是否匹配。

    前面已经提到了过滤器用于将包分类到子类,那么具体是如何对包进行分类的呢?tc支持很多类型的分类器,它们根据数据包相关的不同信息来作出决策。其中最常用的就是u32分类器,它根据数据包中的字段做出决策(例如源IP地址等)。还有比如fw分类器,根据防火墙如何标记数据包来做出决策,你可以使用iptables标记目标数据包,然后通过fw分类器进行过滤。另外还有诸如route分类器cgroup分类器bpf分类器等,篇幅原因不再赘述。下面仅介绍最常见的u32分类器。

公共参数

分类器一般接收以下几个公共的参数:

  • protocol:分类器接受的协议,通常你只接受IP流量。必须。

  • parent:分类器附加到哪个handle上。这个handle必须是一个已经存在的类。必须。

  • prio|perf:分类器的优先级。数字越小的越先进行匹配尝试。

  • handle:这个handle对于不同的过滤器表示不同的含义。

    u32分离器 tc-u32(8) - Linux manual page

    u32过滤器最简单的格式是设置一组选择器对包进行匹配,匹配的包分到特定的子类中,或者执行一个action。u32分类器提供了多种不同的选择器,可以大致分成特殊选择器和通用选择器两类。

特殊选择器

    常用的有ip选择器和tcp选择器。特殊选择器简化了一些常用字段的设置,可以匹配包头中的各种字段,比如:

# 匹配ip源地址在192.168.8.0/24子网的包
tc filter add dev eth0 protocol ip parent 1:0 prio 10 u32 \
    match ip src 192.168.8.0/24 flowid 1:4
# 匹配TCP协议(0x6)、且目的端口为53的包。
tc filter add dev eth0 protocol ip parent 1:0 prio 10 u32 \
        match ip protocol 0x6 0xff \
        match tcp dport 53 0xffff \
        flowid 1:2

通用选择器

    特殊选择器总是可以改写成对应的通用选择器,通用选择器可以匹配 IP(或上层)头中的几乎任何位,不过相比特殊选择器较难编写和阅读。其语法如下:

match [ u32 | u16 | u8 ] PATTERN MASK at [OFFSET | nexthdr+OFFSET]

其中u32|u16|u8指定pattern的长度,分别为4个字节、2个字节、1个字节。PATTERN表示匹配的包的pattern,MASK告诉过滤器匹配哪些位,at表示从包的指定偏移处开始匹配。

来看一个例子:

tc filter add dev eth0 protocol ip parent 1:0 pref 10 u32 \
    match u32 00100000 00ff0000 at 0 flowid 1:10

选择器会匹配IP头第二个字节为0x10的包,at 0表示从头开始匹配,mask为00ff0000所以只匹配第二个字节,pattern为00100000即第二个字节为0x10。

再来看另一个例子:

tc filter add dev eth0 protocol ip parent 1:0 pref 10 u32 \
    match u32 00000016 0000ffff at nexthdr+0 flowid 1:10

nexthdr选项表示封装在IP包里的下一个头,即上层协议的头。at nexthdr+0表示从下一个头第一个字节开始匹配。因为mask为0000ffff,所以匹配发生在头的第三和第四个字节。在TCP和UDP协议中这两个字节是包的目的端口。数字是由大段格式给出的,所以pattern 00000016转换成十进制是22。即该选择器会匹配目的端口为22的包。

示例

示例一

sudo tc qdisc add dev eth0 root handle 1: prio bands 4
sudo tc qdisc add dev eth0 parent 1:4 handle 40: netem loss 10% delay 40ms
sudo tc filter add dev eth0 protocol ip parent 1:0 prio 4 u32 match ip dst 192.168.190.7 match ip dport 36000 0xffff flowid 1:4

我们一行行来看,第一行在设备eth0上添加了一个root qdisc,句柄为1:,qdisc类型为prio,bands数为4。

prio是一个有类的qdisc。它的作用跟默认的qdisc pfifo_fast类似。pfifo_fast有三个所谓的band,不同band的流量具有不同的优先级。每个band内,则应用FIFO规则。

prio qdisc,默认会创建3个子类,包含纯FIFO qdisc,默认根据ToS位进行分类。你可以使用过滤器来对流量进行分类,你也可以在子类上附加其他qdisc替换默认的FIFO。

接下来看第二个命令,parent 1:4表示在子类1:4上,handle 40:表示句柄为40:,netem表示添加一个netem qdisc,loss 10% delay 40ms则是netem的参数,表示丢包10%、延迟40ms。networking:netem是一个用于提供网络仿真功能的无类qdisc,可以模拟延迟、丢包、包重复、包失序等各种情况。

第三个命令则是添加了一个过滤器,parent 1:0表示在根节点上添加该过滤器,prio 4是过滤器的优先级,如果有很多过滤器会根据优先级的值按顺序进行尝试。u32表示使用u32分类器。match ip dst 192.168.190.7表示匹配ip地址为192.168.190.7的包,match ip dport 36000 0xffff表示匹配目的端口为36000的包,多个选择器之间是“与”的关系,flowid 1:4表示将匹配的包分类到1:4子类中。

所以最终的效果是,发往192.168.190.7且目的端口为36000的包,会分类到1:4子类,添加40ms的延迟,且有10%的丢包率。其他包则还是默认的行为,即根据ToS字段分类到1:1、1:2或1:3子类中,然后根据优先级依次发送。

画出该例子的分层结构图,大致如下:

          1:     root qdisc (prio)
         / | \ \
       /   |  \  \
       /   |   \   \
     1:1  1:2  1:3  1:4      classes
      |    |    |    |
                     40:     qdiscs
   pfifo pfifo pfifo netem
band  0    1    2    3

示例二

# tc 查看包 drop 情况
tc -s -d qd

# tc 列出目前所有的 Network Interface 的设定
tc qdisc ls

# tc 预设将所有的流量导向 band 2,为了避免其他封包被影响,先将所有的封包都走band 2(指令计数从0开始)
# handle 1: 指的是绑定到qdisc 的root
# bands 10: 可以创建10组band
tc qdisc add dev enp0s5 root handle 1: prio bands 10 priomap 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2 2


# tc 设定封包延迟
# 1. netem 是 tc 的工具之一,可用来增加延迟、掉封包、重复封包等模拟工具,netem delay 100ms 10ms表示每个封包延迟100ms(+- 10ms)
# 2. parent 1:1 表示在class id 1 底下,建立一个id 为1的子节点,因为当前的队列没有多层次的class设计,所以1:1 就对应到band 0
# 3. handle 10: 表示创建一个class id 为10 的节点
tc qdisc add dev enp0s5 parent 1:1 handle 10: netem delay 100ms 10ms

# 删除旧的qdisc 设定
tc qdisc del dev enp0s5 root


# 建立 htb
tc qdisc add dev enp0s5 root handle 1:0 htb

# 加入bandwidth 限制,限速 100 kbps,
# 如果单纯想要限制上传速度,也可以用 tc-tbf,但 htb 优点是用层状架构限速,leaf 会受到 root 的限制,例如分配一条带宽 10 Mbps,可以在之下分配 4 Mbps 给某网域 6 Mbps 给其他网域等。
tc class add dev enp0s5 parent 1: classid 1:1 htb rate 100kbps ceil 100kbps

NOTE: enp0s5 为网卡名,真实实验需要替换为自己的网卡名;

示例三

Network Delay

tc qdisc add dev eth0 root netem delay 200ms
  • qdisc: modify the scheduler (aka queuing discipline)

  • add: add a new rule

  • dev eth0: rules will be applied on device eth0

  • root: modify the outbound traffic scheduler (aka known as the egress qdisc)

  • netem: use the network emulator to emulate a WAN property

  • delay: the network property that is modified

  • 200ms: introduce delay of 200 ms

# delete all rules
tc qdisc del dev eth0 root

# displays the configuration of the network interface eth0
tc qdisc show  dev eth0

Note that if you have an existing rule you can change it by using “tc qdisc change” and if you don’t have any rules you add rules with “tc qdisc add”. Here are some other examples:

# Delay of 100ms and random +/- 10ms uniform distribution:
tc qdisc change dev eth0 root netem delay 100ms 10ms

# Delay of 100ms and random 10ms uniform variation with correlation value 25% (since network delays are not completely random):
tc qdisc change dev eth0 root netem delay 100ms 10ms 25%

# Delay of 100ms and random +/- 10ms normal distribution (other distribution options are pareto, and paretonormal):
tc qdisc add dev eth0 root netem delay 100ms 20ms distribution normal

Packet Loss and Packet Corruption

# packet loss of 10%
tc qdisc add dev eth0 root netem loss 10%

# corrupts 5% of the packets
tc qdisc change dev eth0 root netem corrupt 5%

# duplicates 1% of the sent packets
tc qdisc change dev eth0 root netem duplicate 1%

Bandwidth limit

# limit the egress bandwidth
tc qdisc add dev eth0 root tbf rate 1mbit burst 32kbit latency 400ms
  • tbf: use the token buffer filter to manipulate traffic rates

  • rate: sustained maximum rate

  • burst: maximum allowed burst

  • latency: packets with higher latency get dropped

使用iperf测试

服务端

# 作为服务端运行,报告回显间隔时间1s
iperf -s -i 1

客户端

The best way to demonstrate this is with an iPerf test. In my lab I get 95 Mbps of performance before applying any bandwidth rules:

# 限速前
iperf3 -c 172.16.106.51

Connecting to host 172.16.106.51, port 5201
[  5] local 172.28.206.105 port 49560 connected to 172.16.106.51 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec  27.2 MBytes   228 Mbits/sec    0   1.17 MBytes
[  5]   1.00-2.00   sec  30.0 MBytes   252 Mbits/sec    0   2.65 MBytes
[  5]   2.00-3.00   sec  31.2 MBytes   262 Mbits/sec    1   3.81 MBytes
[  5]   3.00-4.00   sec  26.2 MBytes   220 Mbits/sec    0   3.81 MBytes
[  5]   4.00-5.00   sec  26.2 MBytes   220 Mbits/sec    0   3.81 MBytes
[  5]   5.00-6.00   sec  27.5 MBytes   231 Mbits/sec    0   3.81 MBytes
[  5]   6.00-7.00   sec  30.0 MBytes   252 Mbits/sec    1   3.81 MBytes
[  5]   7.00-8.00   sec  26.2 MBytes   220 Mbits/sec    0   3.81 MBytes
[  5]   8.00-9.00   sec  27.5 MBytes   231 Mbits/sec    0   3.81 MBytes
[  5]   9.00-10.00  sec  27.5 MBytes   231 Mbits/sec    0   3.81 MBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec   280 MBytes   235 Mbits/sec    2             sender
[  5]   0.00-10.13  sec   280 MBytes   232 Mbits/sec                  receiver

iperf Done.

# 执行限速



# 限速后
iperf3 -c 172.16.106.51


Connecting to host 172.16.106.51, port 5201
[  5] local 172.28.206.105 port 48008 connected to 172.16.106.51 port 5201
[ ID] Interval           Transfer     Bitrate         Retr  Cwnd
[  5]   0.00-1.00   sec   251 KBytes  2.06 Mbits/sec    0   24.2 KBytes
[  5]   1.00-2.00   sec  87.2 KBytes   714 Kbits/sec    0   24.2 KBytes
[  5]   2.00-3.00   sec  87.2 KBytes   714 Kbits/sec    0   24.2 KBytes
[  5]   3.00-4.00   sec  87.2 KBytes   715 Kbits/sec    0   24.2 KBytes
[  5]   4.00-5.00   sec   174 KBytes  1.43 Mbits/sec    0   24.2 KBytes
[  5]   5.00-6.00   sec  87.2 KBytes   714 Kbits/sec    0   24.2 KBytes
[  5]   6.00-7.00   sec  87.2 KBytes   714 Kbits/sec    0   24.2 KBytes
[  5]   7.00-8.00   sec   177 KBytes  1.45 Mbits/sec    0   24.2 KBytes
[  5]   8.00-9.00   sec  87.2 KBytes   714 Kbits/sec    0   24.2 KBytes
[  5]   9.00-10.00  sec  87.2 KBytes   715 Kbits/sec    0   24.2 KBytes
- - - - - - - - - - - - - - - - - - - - - - - - -
[ ID] Interval           Transfer     Bitrate         Retr
[  5]   0.00-10.00  sec  1.18 MBytes   994 Kbits/sec    0             sender
[  5]   0.00-10.08  sec  1.13 MBytes   941 Kbits/sec                  receiver

iperf Done.

参考资料