| /linux/net/sched/ |
| H A D | sch_mq.c | 22 struct net_device *dev = qdisc_dev(sch); in mq_offload() 50 struct net_device *dev = qdisc_dev(sch); in mq_destroy_common() 72 struct net_device *dev = qdisc_dev(sch); in mq_init_common() 122 struct net_device *dev = qdisc_dev(sch); in mq_attach() 145 struct net_device *dev = qdisc_dev(sch); in mq_dump_common() 181 struct net_device *dev = qdisc_dev(sch); in mq_queue_get() 201 struct net_device *dev = qdisc_dev(sch); in mq_graft() 217 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, *old, in mq_graft() 267 struct net_device *dev = qdisc_dev(sch); in mq_walk()
|
| H A D | sch_mqprio.c | 39 struct net_device *dev = qdisc_dev(sch); in mqprio_enable_offload() 84 struct net_device *dev = qdisc_dev(sch); in mqprio_disable_offload() 97 struct net_device *dev = qdisc_dev(sch); in mqprio_destroy() 207 struct net_device *dev = qdisc_dev(sch); in mqprio_parse_tc_entries() 348 struct net_device *dev = qdisc_dev(sch); in mqprio_init() 433 struct net_device *dev = qdisc_dev(sch); in mqprio_attach() 454 struct net_device *dev = qdisc_dev(sch); in mqprio_queue_get() 465 struct net_device *dev = qdisc_dev(sch); in mqprio_graft() 554 struct net_device *dev = qdisc_dev(sch); in mqprio_dump() 623 struct net_device *dev = qdisc_dev(sch); in mqprio_find() [all …]
|
| H A D | sch_fifo.c | 61 struct net_device *dev = qdisc_dev(sch); in fifo_offload_init() 75 struct net_device *dev = qdisc_dev(sch); in fifo_offload_destroy() 107 u32 limit = qdisc_dev(sch)->tx_queue_len; in __fifo_init() 110 limit *= psched_mtu(qdisc_dev(sch)); in __fifo_init() 123 bypass = sch->limit >= psched_mtu(qdisc_dev(sch)); in __fifo_init()
|
| H A D | sch_taprio.c | 122 struct net_device *dev = qdisc_dev(q->root); in taprio_calculate_gate_durations() 275 struct net_device *dev = qdisc_dev(q->root); in taprio_update_queue_max_sdu() 336 struct net_device *dev = qdisc_dev(sch); in find_entry_to_transmit() 544 struct net_device *dev = qdisc_dev(sch); in taprio_skb_exceeds_queue_max_sdu() 666 struct net_device *dev = qdisc_dev(q->root); in taprio_set_budgets() 711 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_from_txq() 781 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_tc_priority() 816 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_txq_priority() 922 struct net_device *dev = qdisc_dev(q->root); in advance_sched() 1243 struct net_device *dev = qdisc_dev(q->root); in setup_first_end_time() [all …]
|
| H A D | sch_teql.c | 78 struct net_device *dev = qdisc_dev(sch); in teql_enqueue() 102 struct net_device *m = qdisc_dev(q); in teql_dequeue() 168 struct net_device *dev = qdisc_dev(sch); in teql_qdisc_init() 299 struct net_device *slave = qdisc_dev(q); in teql_master_xmit() 372 struct net_device *slave = qdisc_dev(q); in teql_master_open() 425 if (new_mtu > qdisc_dev(q)->mtu) in teql_master_mtu()
|
| H A D | sch_multiq.c | 104 netdev_get_tx_queue(qdisc_dev(sch), q->curband))) { in multiq_dequeue() 136 netdev_get_tx_queue(qdisc_dev(sch), curband))) { in multiq_peek() 179 if (!netif_is_multiqueue(qdisc_dev(sch))) in multiq_tune() 186 qopt->bands = qdisc_dev(sch)->real_num_tx_queues; in multiq_tune() 250 q->max_bands = qdisc_dev(sch)->num_tx_queues; in multiq_init()
|
| H A D | sch_ingress.c | 81 struct net_device *dev = qdisc_dev(sch); in ingress_init() 115 struct net_device *dev = qdisc_dev(sch); in ingress_destroy() 247 struct net_device *dev = qdisc_dev(sch); in clsact_init() 296 struct net_device *dev = qdisc_dev(sch); in clsact_destroy()
|
| H A D | sch_tbf.c | 145 struct net_device *dev = qdisc_dev(sch); in tbf_offload_change() 163 struct net_device *dev = qdisc_dev(sch); in tbf_offload_destroy() 198 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, old, in tbf_offload_graft() 428 if (max_size < psched_mtu(qdisc_dev(sch))) in tbf_change() 430 max_size, qdisc_dev(sch)->name, in tbf_change() 431 psched_mtu(qdisc_dev(sch))); in tbf_change()
|
| H A D | sch_plug.c | 133 q->limit = qdisc_dev(sch)->tx_queue_len in plug_init() 134 * psched_mtu(qdisc_dev(sch)); in plug_init()
|
| H A D | sch_etf.c | 218 skb->dev = qdisc_dev(sch); in timesortedlist_drop() 242 skb->dev = qdisc_dev(sch); in timesortedlist_remove() 347 struct net_device *dev = qdisc_dev(sch); in etf_init() 451 struct net_device *dev = qdisc_dev(sch); in etf_destroy()
|
| H A D | sch_cbs.c | 347 qdev = qdisc_dev(q->qdisc); in cbs_dev_notifier() 365 struct net_device *dev = qdisc_dev(sch); in cbs_change() 405 struct net_device *dev = qdisc_dev(sch); in cbs_init() 436 struct net_device *dev = qdisc_dev(sch); in cbs_destroy()
|
| H A D | sch_htb.c | 1053 struct net_device *dev = qdisc_dev(sch); in htb_init() 1111 q->direct_qlen = qdisc_dev(sch)->tx_queue_len; in htb_init() 1156 struct net_device *dev = qdisc_dev(sch); in htb_attach_offload() 1180 struct net_device *dev = qdisc_dev(sch); in htb_attach_software() 1365 struct net_device *dev = qdisc_dev(sch); in htb_select_queue() 1415 struct net_device *dev = qdisc_dev(sch); in htb_offload_move_qdisc() 1580 err = htb_offload(qdisc_dev(sch), &offload_opt); in htb_destroy_class_offload() 1616 struct net_device *dev = qdisc_dev(sch); in htb_destroy() 1818 struct net_device *dev = qdisc_dev(sch); in htb_change_class() 1995 struct net_device *dev = qdisc_dev(sch); in htb_change_class()
|
| H A D | sch_api.c | 267 if (!qdisc_dev(root)) in qdisc_match_from_root() 274 hash_for_each_possible_rcu(qdisc_dev(root)->qdisc_hash, q, hash, handle, in qdisc_match_from_root() 286 hash_add_rcu(qdisc_dev(q)->qdisc_hash, &q->hash, q->handle); in qdisc_hash_add() 795 sch = qdisc_lookup_rcu(qdisc_dev(sch), TC_H_MAJ(parentid)); in qdisc_tree_reduce_backlog() 819 struct net_device *dev = qdisc_dev(sch); in qdisc_offload_dump_helper() 920 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_qdisc() 1853 if (!qdisc_dev(root) || !recur) in tc_dump_qdisc_root() 1856 hash_for_each(qdisc_dev(root)->qdisc_hash, b, q, hash) { in tc_dump_qdisc_root() 1960 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_tclass() 2373 if (!qdisc_dev(root) || !recur) in tc_dump_tclass_root() [all …]
|
| H A D | sch_ets.c | 114 struct net_device *dev = qdisc_dev(sch); in ets_offload_change() 159 struct net_device *dev = qdisc_dev(sch); in ets_offload_destroy() 175 struct net_device *dev = qdisc_dev(sch); in ets_offload_graft() 641 quanta[i] = psched_mtu(qdisc_dev(sch)); in ets_qdisc_change()
|
| H A D | sch_red.c | 189 struct net_device *dev = qdisc_dev(sch); in red_offload() 451 struct net_device *dev = qdisc_dev(sch); in red_dump_stats() 494 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, old, in red_graft_offload()
|
| H A D | sch_gred.c | 314 struct net_device *dev = qdisc_dev(sch); in gred_offload() 756 sch->limit = qdisc_dev(sch)->tx_queue_len in gred_init() 757 * psched_mtu(qdisc_dev(sch)); in gred_init() 759 if (qdisc_dev(sch)->netdev_ops->ndo_setup_tc) { in gred_init()
|
| H A D | sch_prio.c | 142 struct net_device *dev = qdisc_dev(sch); in prio_offload() 310 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, *old, in prio_graft()
|
| H A D | sch_generic.c | 409 dev = qdisc_dev(q); in qdisc_restart() 858 unsigned int qlen = qdisc_dev(qdisc)->tx_queue_len; in pfifo_fast_init() 1062 struct net_device *dev = qdisc_dev(qdisc); in __qdisc_destroy() 1396 struct net_device *dev = qdisc_dev(sch); in mq_change_real_num_tx()
|
| H A D | sch_fq.c | 487 skb->dev = qdisc_dev(sch); in fq_erase_head() 1127 if (offload_horizon <= qdisc_dev(sch)->max_pacing_offload_horizon) { in fq_change() 1174 q->quantum = 2 * psched_mtu(qdisc_dev(sch)); in fq_init() 1175 q->initial_quantum = 10 * psched_mtu(qdisc_dev(sch)); in fq_init()
|
| H A D | sch_dualpi2.c | 213 q->c_protection_init = (s32)psched_mtu(qdisc_dev(sch)) * in dualpi2_calculate_c_protection() 289 if (sch->qstats.backlog < 2 * psched_mtu(qdisc_dev(sch))) in must_drop() 683 u64 memlim = mul_u32_u32(limit, 2 * psched_mtu(qdisc_dev(sch))); in get_memory_limit()
|
| H A D | sch_codel.c | 171 q->params.mtu = psched_mtu(qdisc_dev(sch)); in codel_init()
|
| H A D | sch_netem.c | 734 skb->dev = qdisc_dev(sch); in netem_dequeue() 994 if (!qdisc_dev(root)) in check_netem_in_tree() 997 hash_for_each(qdisc_dev(root)->qdisc_hash, i, q, hash) { in check_netem_in_tree()
|
| H A D | sch_fq_codel.c | 480 q->quantum = psched_mtu(qdisc_dev(sch)); in fq_codel_init() 486 q->cparams.mtu = psched_mtu(qdisc_dev(sch)); in fq_codel_init()
|
| H A D | bpf_qdisc.c | 238 struct net_device *dev = qdisc_dev(sch); in bpf_qdisc_init_prologue()
|
| /linux/include/trace/events/ |
| H A D | qdisc.h | 84 __string( dev, qdisc_dev(q) ? qdisc_dev(q)->name : "(null)" ) 109 __string( dev, qdisc_dev(q)->name )
|