-
应用层,负责为应用程序提供统一的接口。
-
表示层,负责把数据转换成兼容接收系统的格式。
-
会话层,负责维护计算机之间的通信连接。
-
传输层,负责为数据加上传输表头,形成数据包。
-
网络层,负责数据的路由和转发。
-
数据链路层,负责 MAC 寻址、错误侦测和改错。
-
物理层,负责在物理网络中传输数据帧。
在 Linux 中,我们实际上使用的是另一个更实用的四层模型,
-
应用层,负责向用户提供一组应用程序,比如 HTTP、FTP、DNS 等。
-
传输层,负责端到端的通信,比如 TCP、UDP 等。
-
网络层,负责网络包的封装、寻址和路由,比如 IP、ICMP 等。
-
网络接口层,负责网络包在物理网络中的传输,比如 MAC 寻址、错误侦测以及通过网卡传输网络帧等。
传输层在应用程序数据前面增加了 TCP 头;
网络层在 TCP 数据包前增加了 IP 头;
而网络接口层,又在 IP 数据包前后分别增加了帧头和帧尾。
在链路层检查报文的合法性,找出上层协议的类型(比如 IPv4 还是 IPv6),再去掉帧头、帧尾,然后交给网络层。
网络层取出 IP 头,判断网络包下一步的走向,比如是交给上层处理还是转发。当网络层确认这个包是要发送到本机后,就会取出上层协议的类型(比如 TCP 还是 UDP),去掉 IP 头,再交给传输层处理。
传输层取出 TCP 头或者 UDP 头后,根据 < 源 IP、源端口、目的 IP、目的端口 > 四元组作为标识,找出对应的 Socket,并把数据拷贝到 Socket 的接收缓存中。
与接收流程相反
实际上,我们通常用带宽、吞吐量、延时、PPS(Packet Per Second)等指标衡量网络的性能。
-
带宽,表示链路的最大传输速率,单位通常为 b/s (比特 / 秒)。
-
吞吐量,表示单位时间内成功传输的数据量,单位通常为 b/s(比特 / 秒)或者 B/s(字节 / 秒)。吞吐量受带宽限制,而吞吐量 / 带宽,也就是该网络的使用率。
-
延时,表示从网络请求发出后,一直到收到远端响应,所需要的时间延迟。在不同场景中,这一指标可能会有不同含义。比如,它可以表示,建立连接需要的时间(比如 TCP 握手延时),或一个数据包往返所需的时间(比如 RTT)。PPS,是 Packet Per Second(包 / 秒)的缩写,表示以网络包为单位的传输速率。
-
PPS 通常用来评估网络的转发能力,比如硬件交换机,通常可以达到线性转发(即 PPS 可以达到或者接近理论最大值)。而基于 Linux 服务器的转发,则容易受网络包大小的影响。
除了这些指标,网络的可用性(网络能否正常通信)、并发连接数(TCP 连接数量)、丢包率(丢包百分比)、重传率(重新传输的网络包比例)等也是常用的性能指标。
分析网络问题的第一步,通常是查看网络接口的配置和状态。你可以使用 ifconfig 或者 ip 命令,来查看网络的配置
第一,网络接口的状态标志。ifconfig 输出中的 RUNNING ,或 ip 输出中的 LOWER_UP ,都表示物理网络是连通的,即网卡已经连接到了交换机或者路由器中。如果你看不到它们,通常表示网线被拔掉了。
第二,MTU 的大小。MTU 默认大小是 1500,根据网络架构的不同(比如是否使用了 VXLAN 等叠加网络),你可能需要调大或者调小 MTU 的数值。
第三,网络接口的 IP 地址、子网以及 MAC 地址。这些都是保障网络功能正常工作所必需的,你需要确保配置正确。
第四,网络收发的字节数、包数、错误数以及丢包情况,特别是 TX 和 RX 部分的 errors、dropped、overruns、carrier 以及 collisions 等指标不为 0 时,通常表示出现了网络 I/O 问题。其中:
-
errors 表示发生错误的数据包数,比如校验错误、帧同步错误等;
-
dropped 表示丢弃的数据包数,即数据包已经收到了 Ring Buffer,但因为内存不足等原因丢包;overruns 表示超限数据包数,即网络 I/O 速度过快,导致 Ring Buffer 中的数据包来不及处理(队列满)而导致的丢包;
-
carrier 表示发生 carrirer 错误的数据包数,比如双工模式不匹配、物理电缆出现问题等;
-
collisions 表示碰撞数据包数。
可以用 netstat 或者 ss ,来查看套接字、网络栈、网络接口以及路由表的信息。(推荐ss)
`$ ss -ltnp | head -n 3
State Recv-Q Send-Q Local Address:Port Peer Address:Port
LISTEN 0 128 127.0.0.53%lo:53 0.0.0.0:* users:(("systemd-resolve",pid=840,fd=13))
LISTEN 0 128 0.0.0.0:22 0.0.0.0:* users:(("sshd",pid=1459,fd=3))`
netstat 和 ss 的输出也是类似的,都展示了套接字的状态、接收队列、发送队列、本地地址、远端地址、进程 PID 和进程名称等。
$ netstat -s
$ ss -s
给 sar 增加 -n 参数就可以查看网络的统计信息,比如网络接口(DEV)、网络接口错误(EDEV)、TCP、UDP、ICMP 等等。
$ sar -n DEV 1
-
rxpck/s 和 txpck/s 分别是接收和发送的 PPS,单位为包 / 秒。
-
rxkB/s 和 txkB/s 分别是接收和发送的吞吐量,单位是 KB/ 秒。
-
rxcmp/s 和 txcmp/s 分别是接收和发送的压缩数据包数,单位是包 / 秒。
-
%ifutil 是网络接口的使用率,即半双工模式下为 (rxkB/s+txkB/s)/Bandwidth,而全双工模式下为 max(rxkB/s, txkB/s)/Bandwidth。
通常使用 ping ,来测试远程主机的连通性和延时,而这基于 ICMP 协议
ping 的输出,可以分为两部分。
第一部分,是每个 ICMP 请求的信息,包括 ICMP 序列号(icmp_seq)、TTL(生存时间,或者跳数)以及往返延时。
第二部分,则是三次 ICMP 请求的汇总。
C10K 就是单机同时处理 1 万个请求(并发连接 1 万)的问题,而 C1000K 也就是单机支持处理 100 万个请求(并发连接 100 万)的问题。
使用异步、非阻塞I/O的解决思路。即I/O多路复用
-
水平触发:只要文件描述符可以非阻塞的执行I/O,就会出发通知,也就是说,应用程序可以随时检查文件描述符的状态,然后再根据状态,进行操作
-
边缘触发:只有文件描述符的状态发生改变,才发送一次通知,这时程序需要尽可能多的执行I/O,直到无法继续读写,才可以停止,如果I/O没执行完,或者因为某种原因没来得及处理,那么这次通知也就丢失了
使用非阻塞I/O和水平触发通知,使用select或者poll
由于I/O是非阻塞的,一个线程就可以同时监控一批套接字的文件描述符
优点:对应用程序比较友好,而且API非常简单。
缺点:当请求数量多的时候,轮训就会比较耗时。
select使用固定长度的位相量,表示文件描述符的集合,因此会有最大描述符数量的限制,在32位系统中,默认限制是1024, 并且select内部,检查套接字状态时轮训的方法,再加上应用软件使用时的轮训,就变成的O(n^2)的关系了,
poll改进了select的方法,换成了不固定长度的数组,没有了最大描述符的限制,但应用程序使用poll时候,同样需要对文件描述符列表进行轮训
应用程序每次调用select和poll时,还需要把文件描述符的集合,从用户空间传入内核空间,由内核修改后,再传出到用户空间,增加了处理成本
特点:epoll使用红黑树,在内核管理文件描述符的集合,这样,就不需要应用程序在每次操作时传入、传出集合;使用事件驱动的机制,只关注有I/O事件发生的文件描述符,不需要轮训扫描整个集合
使用难度比较高
工作模式:
主进程执行bind()+listen()后,创建多个子进程
每个子进程中通过accept()或epoll_wait()来处理相同的套接字
惊群问题:当accept()或epoll_wait()调用时候,多个进程被同时唤醒,但实际只有一个进程来响应此次事件,其他的被唤醒的又会重新休眠
惊群问题 accept()在linux2.6中解决,而epoll的问题,则子linux4.5才通过EPOLLEXCLUSIVE解决
nginx通过为每个worker进程中,增加一个全局锁(accept_mutex),这些worker进程需要首先竞争到锁,只有竞争到锁的进程,才会加入到epoll中,确保了只有一个子进程被唤醒
nginx性能好的原因:它的这些worker进程,并不会经常的创建和销毁,在没任务时候回休眠,有任务唤醒。只有某些异常退出时,才会重新创建新的worker子进程。可以使用线程替换进程的方式
所有进程监听相同的接口,并且开启了SO_REUSEPORT选项,由内核负责将请求负载均衡到这些监听进程中去。内核确保了只有一个进程被唤醒,不会出现惊群问题。这个需要在linux3.9以上版本才可行
本质上还是构建在epoll的非阻塞I/O模型之上,只不过除了I/O模型之外还要从应用程序到内核,再到cpu以及内存,网络等各个层次的深度优化。
本质是:跳过内核协议栈的冗长路径,把网络包直接送到要处理的应用程序那里去,常见的机制有DPDK和XDP
DPDK:用户态网络的标准,它跳过内核协议栈,直接由用户态进程通过轮训的方式,来处理网络接收 在PPS非常高的场景中,查询时间比实际工作时间少了很多,绝大部分时间都在处理网络包 跳过内核协议栈后,省去了繁杂的硬中断,软中断,再到linux网络协议栈逐层处理的过程,应用程序可以针对应用的实际场景,有针对性的优化网络包的处理逻辑 通过大页,CPU绑定,内存对齐,流水线并发等多种机制,优化网络包的处理效率
XDP(eXpress Data Path):由linux内核提供的高性能网络数据路径,它允许网络包,在进入内核协议栈之前,就进行处理,也可以带来更高的性能。对内核要求linux4.8以上版本。并且不提供缓存队列。基于XDP的应用程序通常是专用的网络应用,常见的又IDS,DDoS防御,cilium容器网络插件。