51Testing软件测试论坛

 找回密码
 (注-册)加入51Testing

QQ登录

只需一步,快速开始

微信登录,快人一步

手机号码,快捷登录

查看: 2070|回复: 0
打印 上一主题 下一主题

[原创] intel dpdk的Poll Model Driver机制简介

[复制链接]
  • TA的每日心情
    擦汗
    2022-8-30 09:02
  • 签到天数: 2 天

    连续签到: 2 天

    [LV.1]测试小兵

    跳转到指定楼层
    1#
    发表于 2019-2-28 16:49:54 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

    最近基于intell的dpdk框架开发高性能的Dns服务器,才开始接触dpdk。

            Linux内核的网络协议栈是基于中断的,网卡收到数据包后发出中断信号,CPU停止当前的处理工作,进入中断环境,执行相应网卡驱动的中断处理程序。 这种处理方式适合通用的处理平台,使CPU可以执行多样化的任务。而对于一些专门处理网络事务的设备,很多都配有1G, 10G, 甚至40G网卡,高负载时,网卡中断非常频繁,每次处理网卡中断都要涉及进程上下文的切换,花费很多额外的时间,这时便有了轮询的处理方法,由CPU主动收包,更适合大流量的处理。

            这里使用的是dpdk-16.07,  intell 82599网卡,ixgbe驱动。


    DMA环形缓冲区

            intell 82599网卡最多支持128的Rx队列,设备初始化时可以设置启用的队列数量,对每一个队列都会分配一个DMA缓冲区队列,大小为256。队列的每一个元素是一个结构体,存放一块预分配的内存的地址等信息。

            下面是intell 官方文档中关于接收队列的描述。Head指向下一个空闲的元素,Tail指向已使用的元素,Head和Tail之间蓝色区域为空闲的元素。收到一个数据包后Head逆时针移动一格, Head等于Tail时没有空闲的元素。


    网卡接收网络包流程

            网口收到数据包 -> 通过设定的规则确定发送到哪个队列 -> 从DMA环形缓冲区寻找空闲的预分配内存--> 通过DMA复制数据包到内存。

            如果已经设定好了DMA环形缓冲区,那么从收到网络包到复制到内存,不需要CPU的参与,网卡可以自动完成。 数据包复制到内存后便可以被CPU访问,如果采用中断的方式,这时会由设备产生中断信号,CPU执行中断处理程序,进入内核的网络协议栈处理。这里采用PMD轮询,不会产生中断信号。


    PMD机制

           进程中主动调用rte_eth_rx_burst函数收取数据包,最多收取nb_pkts个包,每个数据包都放在ret_mbuf的结构体中,这时数据包已经在内存中了,这里的收包只是把相应的rte_mbuf的指针放在rx_pkts中,返回收到包的个数。

    1. static inline uint16_t
    2. rte_eth_rx_burst(uint8_t port_id, uint16_t queue_id,
    3.                  struct rte_mbuf **rx_pkts, const uint16_t nb_pkts)
    4. {
    5.         struct rte_eth_dev *dev = &rte_eth_devices[port_id];

    6.     /*****此处省略****/

    7.         int16_t nb_rx = (*dev->rx_pkt_burst)(dev->data->rx_queues[queue_id],
    8.                         rx_pkts, nb_pkts);

    9.     /*****此处省略****/

    10.         return nb_rx;
    11. }
    复制代码

    实际调用的收包函数是dev->rx_pkt_burst,每种网卡都不相同,即使同一种网卡也会因为intell针对CPU的优化而采用不同的处理。这里为了简单以rx_recv_pkts为例。

    • 调用ixgbe_rx_scan_hw_ring, 把需要收取的包放在rxq的rx_stage中。
    • 如果rxq->rx_tail > rxq_rx_free_trigger,表明收取了数据包,再分配nb_rx个rte_mbuf结构补充进DMA环形缓冲区中。
    • 调用ixgbe_rx_fill_from_stage将rxq的rx_stage中保存的收取的包放在rx_pkts中返回。
    1. static inline uint16_t
    2. rx_recv_pkts(void *rx_queue, struct rte_mbuf **rx_pkts,
    3.              uint16_t nb_pkts)
    4. {
    5.         struct ixgbe_rx_queue *rxq = (struct ixgbe_rx_queue *)rx_queue;
    6.         uint16_t nb_rx = 0;

    7.         /* Any previously recv'd pkts will be returned from the Rx stage */
    8.         if (rxq->rx_nb_avail)
    9.                 return ixgbe_rx_fill_from_stage(rxq, rx_pkts, nb_pkts);

    10.         /* Scan the H/W ring for packets to receive */
    11.         nb_rx = (uint16_t)ixgbe_rx_scan_hw_ring(rxq);

    12.         /* update internal queue state */
    13.         rxq->rx_next_avail = 0;
    14.         rxq->rx_nb_avail = nb_rx;
    15.         rxq->rx_tail = (uint16_t)(rxq->rx_tail + nb_rx);

    16.         /* if required, allocate new buffers to replenish descriptors */
    17.         if (rxq->rx_tail > rxq->rx_free_trigger) {
    18.                 uint16_t cur_free_trigger = rxq->rx_free_trigger;

    19.                 if (ixgbe_rx_alloc_bufs(rxq, true) != 0) {
    20.                         int i, j;
    21.                         PMD_RX_LOG(DEBUG, "RX mbuf alloc failed port_id=%u "
    22.                                    "queue_id=%u", (unsigned) rxq->port_id,
    23.                                    (unsigned) rxq->queue_id);

    24.                         rte_eth_devices[rxq->port_id].data->rx_mbuf_alloc_failed +=
    25.                                 rxq->rx_free_thresh;

    26.                         /*
    27.                          * Need to rewind any previous receives if we cannot
    28.                          * allocate new buffers to replenish the old ones.
    29.                          */
    30.                         rxq->rx_nb_avail = 0;
    31.                         rxq->rx_tail = (uint16_t)(rxq->rx_tail - nb_rx);
    32.                         for (i = 0, j = rxq->rx_tail; i < nb_rx; ++i, ++j)
    33.                                 rxq->sw_ring[j].mbuf = rxq->rx_stage[i];

    34.                         return 0;
    35.                 }

    36.                 /* update tail pointer */
    37.                 rte_wmb();
    38.                 IXGBE_PCI_REG_WRITE(rxq->rdt_reg_addr, cur_free_trigger);
    39.         }

    40.         if (rxq->rx_tail >= rxq->nb_rx_desc)
    41.                 rxq->rx_tail = 0;

    42.         /* received any packets this loop? */
    43.         if (rxq->rx_nb_avail)
    44.                 return ixgbe_rx_fill_from_stage(rxq, rx_pkts, nb_pkts);

    45.         return 0;
    46. }
    复制代码
    这样CPU与网卡分工合作, CPU不断接收数据包然后处理, 网卡不断接收网络包然后复制到内存,构成一个生产者-消费者的模型,共同完成处理任务

    本帖子中包含更多资源

    您需要 登录 才可以下载或查看,没有帐号?(注-册)加入51Testing

    x
    分享到:  QQ好友和群QQ好友和群 QQ空间QQ空间 腾讯微博腾讯微博 腾讯朋友腾讯朋友
    收藏收藏
    回复

    使用道具 举报

    本版积分规则

    关闭

    站长推荐上一条 /1 下一条

    小黑屋|手机版|Archiver|51Testing软件测试网 ( 沪ICP备05003035号 关于我们

    GMT+8, 2024-11-14 12:44 , Processed in 0.059543 second(s), 24 queries .

    Powered by Discuz! X3.2

    © 2001-2024 Comsenz Inc.

    快速回复 返回顶部 返回列表