Linux内核网络UDP数据包发送(四)——Linux netdevice 子系统
扫描二维码
随时随地手机看文章
Linux内核网络UDP数据包发送(二)——UDP协议层分析
Linux内核网络UDP数据包发送(三)——IP协议层分析1. 前言
在继续分析ce Code Pro", "DejaVu Sans Mono", "Ubuntu Mono", "Anonymous Pro", "Droid Sans Mono", Menlo, Monaco, Consolas, Inconsolata, Courier, monospace, "PingFang SC", "Microsoft YaHei", sans-serif;font-size: 14px;background-color: rgb(249, 242, 244);border-radius: 2px;padding: 2px 4px;line-height: 22px;color: rgb(199, 37, 78);">dev_queue_xmit
发送数据包之前,我们需要了解以下重要概念。Linux 支持流量控制(traffic control)的功能,此功能允许系统管理员控制数据包如何从机器发送出去。流量控制系统包含几组不同的 queue system,每种有不同的排队特征。各个排队系统通常称为 qdisc,也称为排队规则。可以将 qdisc 视为调度程序, qdisc 决定数据包的发送时间和方式。Linux 上每个 device 都有一个与之关联的默认 qdisc。对于仅支持单发送队列的网卡,使用默认的 qdisc pfifo_fast
。支持多个发送队列的网卡使用 mq 的默认 qdisc。可以运行 tc qdisc
来查看系统 qdisc 信息。某些设备支持硬件流量控制,这允许管理员将流量控制 offload 到网络硬件,节省系统的 CPU 资源。现在我们从 net/core/dev.c 继续分析 dev_queue_xmit
。2. dev_queue_xmit
and __dev_queue_xmit
dev_queue_xmit
简单封装了__dev_queue_xmit
:int dev_queue_xmit(struct sk_buff *skb)
{
return __dev_queue_xmit(skb, NULL);
}
EXPORT_SYMBOL(dev_queue_xmit);
__dev_queue_xmit
才是干脏活累活的地方,我们一点一点来看:static int __dev_queue_xmit(struct sk_buff *skb, void *accel_priv)
{
struct net_device *dev = skb->dev;
struct netdev_queue *txq;
struct Qdisc *q;
int rc = -ENOMEM;
skb_reset_mac_header(skb);
/* Disable soft irqs for various locks below. Also
* stops preemption for RCU.
*/
rcu_read_lock_bh();
skb_update_prio(skb);
开始的逻辑:- 声明变量
- 调用
skb_reset_mac_header
,准备发送 skb。这会重置 skb 内部的指针,使得 ether 头可以被访问 - 调用
rcu_read_lock_bh
,为接下来的读操作加锁 - 调用
skb_update_prio
,如果启用了网络优先级 cgroups,这会设置 skb 的优先级
txq = netdev_pick_tx(dev, skb, accel_priv);
这会选择发送队列。2.1 netdev_pick_tx
netdev_pick_tx
定义在net/core/flow_dissector.cstruct netdev_queue *netdev_pick_tx(struct net_device *dev,
struct sk_buff *skb,
void *accel_priv)
{
int queue_index = 0;
if (dev->real_num_tx_queues != 1) {
const struct net_device_ops *ops = dev->netdev_ops;
if (ops->ndo_select_queue)
queue_index = ops->ndo_select_queue(dev, skb,
accel_priv);
else
queue_index = __netdev_pick_tx(dev, skb);
if (!accel_priv)
queue_index = dev_cap_txqueue(dev, queue_index);
}
skb_set_queue_mapping(skb, queue_index);
return netdev_get_tx_queue(dev, queue_index);
}
如上所示,如果网络设备仅支持单个 TX 队列,则会跳过复杂的代码,直接返回单个 TX 队列。大多高端服务器上使用的设备都有多个 TX 队列。具有多个 TX 队列的设备有两种情况:- 驱动程序实现
ndo_select_queue
,以硬件或 feature-specific 的方式更智能地选择 TX 队列 - 驱动程序没有实现
ndo_select_queue
,这种情况需要内核自己选择设备
ndo_select_queue
。bnx2x 和 ixgbe 驱动程序实现了此功能,但仅用于以太网光纤通道FCoE。鉴于此,我们假设网络设备没有实现 ndo_select_queue
和没有使用 FCoE。在这种情况下,内核将使用__netdev_pick_tx
选择 tx 队列。一旦__netdev_pick_tx
确定了队列号,skb_set_queue_mapping
将缓存该值(稍后将在流量控制代码中使用),netdev_get_tx_queue
将查找并返回指向该队列的指针。让我们 看一下__netdev_pick_tx
在返回__dev_queue_xmit
之前的工作原理。2.2 __netdev_pick_tx
我们来看内核如何选择 TX 队列。net/core/flow_dissector.c:u16 __netdev_pick_tx(struct net_device *dev, struct sk_buff *skb)
{
struct sock *sk = skb->sk;
int queue_index = sk_tx_queue_get(sk);
if (queue_index < 0 || skb->ooo_okay ||
queue_index >= dev->real_num_tx_queues) {
int new_index = get_xps_queue(dev, skb);
if (new_index < 0)
new_index = skb_tx_hash(dev, skb);
if (queue_index != new_index