你这个问题至少涉及到两个基本概念,第一,延迟是如何产生的,第二,网速是如何限定的。这两个基本问题想要阐述清楚是非常复杂冗长的,择其要点简单说明一下,如果有兴趣你可以自己参看相关资料
网络延迟简单的说包含两个因素,一个因素是信号在介质中的传输速度造成的延迟,一般应用中假设铜介质的传输速度是光速的0.8左右,另一个因素是数据网络采用存储转发的工作模式造成的,因传输速度造成的延迟是固定的,可预测的,而由于存储转发模式造成的延迟是变动的,不可预测的,存储转发模式引入了队列概念,无法被即时处理的数据进入队列,而任何设备的存储器都不可能是无限大的,因此队列终究有溢出的时候,溢出的数据就会被直接丢弃。这种情况表现在应用层面最常见的就是PING的延迟跌宕(设备负载过大,数据进入转发队列),乃至丢包(队列溢出,数据被丢弃)
对于网速的限定而言,要么是IP控速,要么是MAC控速,路由器/应用层网关使用IP控速,通过统计包含特定IP头的数据包数量进行速率控制,交换机使用MAC控速,通过统计包含特定MAC的数据帧数量进行速率控制,显而易见,无论是数据包控速还是数据帧控速都不可避免的也要引入转发队列和丢弃概念(因为这就是存储转发的应用之一)
现在回到你的问题,理论而言,网速跟延迟没有严格的比例关系,但是在实际应用中我们经常会发现速率高的线路在访问特定远端设备(准确的说是远端IP栈)的时候要比速率低的线路访问同一个远端延迟要低一些。这个现象的存在受很多因素影响,但是主要因素在于控速机制。对应比较高的速率,设备在进行包/帧计数的时候容限更大,转发数据进入队列的机会更低,因存储转发产生的延迟并不明显。实际上如果你在同一条线路上,比如原4M AD升级为8M AD,访问远端的平均延迟不会有明显的变化。不要拿4M AD 跟20M 光纤做比较,线路性能和链路设备完全不同,不具备可比性