关于wireshark过滤端口抓包端口复用的问题

学习笔记:Linux性能工具与内核优化_文海平 - 厚朴〖HOPE〗工作室 >> 厚朴教育 >>
学习笔记:Linux性能工具与内核优化_文海平
一、性能工具Linux基础&&&&* 1. 学会使用命令帮助&&&&* 2. 文件及目录管理&&&&* 3. 文本处理&&&&* 4. 磁盘管理&&&&* 5. 进程管理工具&&&&* 6. 性能监控&&&&* 7. 网络工具&&&&* 8. 用户管理工具&&&&* 9. 系统管理及IPC资源管理Linux工具进阶&&&&* 1. 程序构建一般源代码提供的程序安装需要通过配置、编译、安装三个步骤;1. 配置做的工作主要是检查当前环境是否满足要安装软件的依赖关系,以及设置程序安装所需要的初始化信息,比如安装路径,需要安装哪些组件;配置完成,会生成makefile文件供第二步make使用;2. 编译是对源文件进行编译链接生成可执行程序;3. 安装做的工作就简单多了,就是将生成的可执行文件拷贝到配置时设置的初始路径下;&& &&& &* 配置&./configure --prefix=/usr/local/snmp&& &&& &* 编译&&&&&& &&& &* makefile编写的要点&&make -f myMakefile 必须满足第一条规则,满足后停止,除第一条规则,其他无顺序&&&&&& &&& &* makefile中的全局自变量& &$@目标文件名 @^所有前提名,除副本 @+所有前提名,含副本 @<一个前提名 @?所有新于目标文件的前提名 @*目标文件的基名称&&&&&& &&& &* 更多选择 CMake&&&&&& &&& &* 编译依赖的库&make -f myMakefile LDFLAGS='-L/var/xxx/lib -L/opt/mysql/lib'&&&&CPPFLAGS='-I/usr/local/libcom/include -I/usr/local/libpng/include'CPPFLAGS -I标记非标准头文件存放路径LDFLAGS&&-L标记非标准库存放路径&&&&&& &&& &* g++编译g++ -o unixApp unixApp.o a.o b.o选项说明:-o:指明生成的目标文件-g:添加调试信息-E: 查看中间文件&& &&& &* 安装&make install&&&&* 2. 程序调试&& &&& &* 进程调试&&&&&& &&& &* gdb 程序交互调试&$gdb programmer&&&&&# 启动gdb&break main&&&&&&&&&# 设置断点&run&&&&&&&&&&&&&&&&# 运行调试程序&next&&&&&&&&&&&&&&&# 单步调试&print var1&&&&&&&&&# 在调试过程中,我们需要查看当前某个变量值的时候,使用print 命令打印该值&list&&&&&&&&&&&&&&&# 显示当前调试处的源代码&info b&&&&&&&&&&&&&# 显示当前断点设置情况&&&&&& &&& &* pstack 跟踪栈空间$pstrack &program-pid&&&&&& &&& &&* strace 分析系统调用(跟踪进程执行时的系统调用和所接收的信号)strace -o output.txt -T -tt -e trace=all -p 28979&& &&& &* 目标文件分析&&&&&& &&& &* nm&nm用来列出目标文件的符号清单&&&&&& &&& &* objdump&显示二进制文件的信息&&&&&& &&& &* readelf&&希望通过一种统一的接口来处理不同的目标文件&&&&&& &&& &* size 查看程序内存占用&&&&&& &&& &* file 文件类型查询&&&&&& &&& &* strings 查询数据中的文本信息strings &objfile&&&&&&& &&& &* fuser 显示文件使用者&&&&&& &&& &* xxd 十六进制显示数据&&&&&& &&& &* od&查看特殊格式的文件内容&&&&* 3.&性能优化&& &&& &* 分析系统瓶颈:IO瓶颈、CPU瓶颈、内存瓶颈还是程序导致的系统问题;top进入交互模式后:* 输入M,进程列表按内存使用大小降序排序,便于我们观察最大内存使用者使用有问题(检测内存泄漏问题);* 输入P,进程列表按CPU使用大小降序排序,便于我们观察最耗CPU资源的使用者是否有问题;top第三行显示当前系统的,其中有两个值很关键:* %id:空闲CPU时间百分比,如果这个值过低,表明系统CPU存在瓶颈;* %wa:等待I/O的CPU时间百分比,如果这个值过高,表明IO存在瓶颈;&& &&& &* 分析内存瓶颈系统实际可用的内存为free工具输出第二行的free+buffer+cached,如果是因为缺少内存,系统响应变慢很明显,因为这使得系统不停的做换入换出的工作;进一步的监视内存使用情况,可使用vmstat工具,实时动态监视操作系统的内存和虚拟内存的动态变化。&& &&& &* 分析IO瓶颈如果IO存在性能瓶颈,top工具中的%wa会偏高;iostat工具$iostat -d -x -k 1 1Linux 3.10.0-862.3.3.el7.x86_64 (localhost.localdomain)&&&&&&&&&08/08/2018&&&&&&_x86_64_&&&&&&&&(2 CPU)Device:&&&&&&&&&rrqm/s&&&wrqm/s&&&&&r/s& & & w/s& & & rkB/s&&&&wkB/s& avgrq-sz& &avgqu-sz&&&await& &r_await& &w_await&&svctm&&%utilsda& & & & & & & &0.00& & & &0.01& & & & & 0.21&&&&0.07&&&&&5.08&&&&&0.68& & & 41.84& & & & 0.00& & & & & &6.95& & & 7.46& & & & 5.40& & & &3.62&&&0.10sdb&&&&&&&&&&&&&&&0.00& & & &0.00& & & & & 0.00&&&&0.00&&&&&0.07&&&&&0.00& & & 52.00& & & & 0.00& & & & & &10.31& & 10.31& & & &0.00& & & 9.38&&&0.00dm-0& & & & & & 0.00& & & &0.00& & & & & &0.17&&&&0.07&&&&&4.56&&&&&0.64& & & 43.47& & & & 0.00& & & & & &7.86& & & 8.94& & & & 5.43& & & 4.11&&&0.10dm-1& & & & & & 0.00& & & &0.00& & & & & &0.00&&&&0.00&&&&&0.04&&&&&0.00& & & 45.41& & & & 0.00& & & & & & 4.45& & &4.45& & & & &0.00& & &4.30&&&0.00* 如果%iowait的值过高,表示硬盘存在I/O瓶颈。* 如果 %util 接近 100%,说明产生的I/O请求太多,I/O系统已经满负荷,该磁盘可能存在瓶颈。* 如果 svctm 比较接近 await,说明 I/O 几乎没有等待时间;* 如果 await 远大于 svctm,说明I/O 队列太长,io响应太慢,则需要进行必要优化。* 如果 avgqu-sz比较大,也表示有大量io在等待。&& &&& &* 分析进程调用:pstack和pstracepstack用来跟踪进程栈,这个命令在排查进程问题时非常有用,比如我们发现一个服务一直处于work状态(如假死状态,好似死循环),使用这个命令就能轻松定位问题所在;可以在一段时间内,多执行几次pstack,若发现代码栈总是停在同一个位置,那个位置就需要重点关注,很可能就是出问题的地方;而strace用来跟踪进程中的系统调用;这个工具能够动态的跟踪进程执行时的系统调用和所接收的信号。是一个非常有效的检测、指导和调试工具。系统管理员可以通过该命令容易地解决程序问题。&& &&& &* 优化程序代码优化自己开发的程序,建议采用以下准则:1. 二八法则:在任何一组东西中,最重要的只占其中一小部分,约20%,其余80%的尽管是多数,却是次要的;在优化实践中,我们将精力集中在优化那20%最耗时的代码上,整体性能将有显著的提升;这个很好理解。函数A虽然代码量大,但在一次正常执行流程中,只调用了一次。而另一个函数B代码量比A小很多,但被调用了1000次。显然,我们更应关注B的优化。2. 编完代码,再优化;编码的时候总是考虑最佳性能未必总是好的;在强调最佳性能的编码方式的同时,可能就损失了代码的可读性和开发效率;&&&&&& &&& &* gprof使用步骤1. 用gcc、g++、xlC编译程序时,使用-pg参数,如:g++ -pg -o test.exe test.cpp编译器会自动在目标代码中插入用于性能测试的代码片断,这些代码在程序运行时采集并记录函数的调用关系和调用次数,并记录函数自身执行时间和被调用函数的执行时间。2. 执行编译后的可执行程序,如:./test.exe。该步骤运行程序的时间会稍慢于正常编译的可执行程序的运行时间。程序运行结束后,会在程序所在路径下生成一个缺省文件名为gmon.out的文件,这个文件就是记录程序运行的性能、调用关系、调用次数等信息的数据文件。3. 使用gprof命令来分析记录程序运行信息的gmon.out文件,如:gprof test.exe gmon.out则可以在显示器上看到函数调用相关的统计、分析信息。上述信息也可以采用gprof test.exe gmon.out& gprofresult.txt重定向到文本文件以便于后续分析。&& &&& &* 其它工具调试内存泄漏的工具valgrindOProfile: Linux 平台上的一个功能强大的性能分析工具,需要重新编译内核Oprofile可以帮助用户识别诸如循环的展开、高速缓存的使用率低、低效的类型转换和冗余操作、错误预测转移等问题。它收集有关处理器事件的信息,其中包括TLB的故障、停机、存储器访问、位于 DCU(数据高速缓存单元)中的总线路数、一个 DCU 故障的周期数,以及不可高速缓存的和可高速缓存的指令的获取数量。Oprofile是一种细粒度的工具,可以为指令集或者为函数、系统调用或中断处理例程收集采样。Oprofile 通过取样来工作。使用收集到的评测数据,用户可以很容易地找出性能问题。工具:op_help: 列出可用的事件,并带有简短的描述opcontrol: 控制 Oprofile 的数据收集oprofpp: 检索有用的评测数据op_time: 为系统上的所有映像列出相关的评测值op_to_source: 产生带注解的源文件、汇编文件或源文件和汇编文件的混合op_merge: 合并属于同一个应用程序的采样文件op_import: 将采样数据库文件从外部格式(abi)转换为本地格式评测步骤:1. 启动 profiler(评测器):# opcontrol --setup --ctr0-event=CPU_CLK_UNHALTED&&&&--ctr0-count=600000 --vmlinux=/usr/src/linux-2.4.20/vmlinux&&&&&&&&For RTC mode users, use --rtc-value=2048# opcontrol --start2. 现在评测器已经运行,用户可以开始做他们做的事情:3. 用下面的选项来转储被评测的数据:# opcontrol --stop/--shutdown/--dumpsar:将sar的常驻监控工具打开后,能够收集比较全面的性能分析数据&sysstat可以连续对系统取样,获得大量的取样数据;取样数据和分析的结果都可以存入文件,所需的负载很小,可以从14个大方面对系统的活动进行报告,包括文件的读写情况、系统调用的使用情况、串口、CPU效率、内存使用状况、进程活动及IPC有关的活动等。*追溯过去的数据$sar -f /var/log/sysstat/sa28 \| head sar -r -f/var/log/sysstat/sa28*查看CPU利用率sar -u : 默认情况下显示的cpu使用率等信息就是sar -u;*查看平均负载sar -q: 查看平均负载指定-q后,就能查看运行队列中的进程数、系统上的进程大小、平均负载等;与其它命令相比,它能查看各项指标随时间变化的情况;* runq-sz:运行队列的长度(等待运行的进程数)* plist-sz:进程列表中进程(processes)和线程(threads)的数量* ldavg-1:最后1分钟的系统平均负载 ldavg-5:过去5分钟的系统平均负载* ldavg-15:过去15分钟的系统平均负载*查看内存使用状况sar -r: 指定-r之后,可查看物理内存使用状况;* kbmemfree:这个值和free命令中的free值基本一致,所以它不包括buffer和cache的空间.* kbmemused:这个值和free命令中的used值基本一致,所以它包括buffer和cache的空间.* %memused:物理内存使用率,这个值是kbmemused和内存总量(不包括swap)的一个百分比.* kbbuffers和kbcached:这两个值就是free命令中的buffer和cache.* kbcommit:保证当前系统所需要的内存,即为了确保不溢出而需要的内存(RAM+swap).* %commit:这个值是kbcommit与内存总量(包括swap)的一个百分比.*查看页面交换发生状况&sar -W* pswpin/s:每秒系统换入的交换页面(swap page)数量* pswpout/s:每秒系统换出的交换页面(swap page)数量怀疑CPU存在瓶颈,可用 sar -u 和 sar -q 等来查看怀疑内存存在瓶颈,可用sar -B、sar -r 和 sar -W 等来查看怀疑I/O存在瓶颈,可用 sar -b、sar -u 和 sar -d 等来查看-u 报告CPU的利用率-q 报告运行队列和交换队列的平均长度-B 报告附加的缓存的使用情况-r 报告没有使用的内存页面和硬盘块-W 报告系统交换活动状况-b 报告缓存的使用情况-d 报告磁盘的使用情况&& && & * 网络性能LinuxSolaris描述netstatnetstat多种网络栈和接口统计信息sar-统计信息历史ifconfigifconfig接口配置ipdladm网络接口统计信息nicstatnicstat网络接口吞吐量和使用率pingping测试网络连通性traceroutetraceroute测试网络路由pathcharpathchar确定网络路径特征tcpdumpsnoop/tcpdump网络数据包嗅探器WiresharkWireshark图形化网络数据包检查器DTrace, perfDTraceTCP/IP栈跟踪:连接、数据包、丢包、延时工具参考篇&&&&* 1. gdb 调试利器&&&&* 2. ldd 查看程序依赖库&&&&* 3. lsof 一切皆文件&&&&* 4. ps 进程查看器&&&&* 5. pstack 跟踪进程栈&&&&* 6. strace 跟踪进程中的系统调用&&&&* 7. ipcs 查询进程间通信状态&&&&* 8. top linux下的任务管理器&&&&* 9. free 查询可用内存&&&&* 10. vmstat 监视内存使用情况&&&&* 11. iostat 监视I/O子系统&&&&* 12. sar 找出系统瓶颈的利器&&&&* 13. readelf elf文件格式分析&&&&* 14. objdump 二进制文件分析&&&&* 15. nm 目标文件格式分析&&&&* 16. size 查看程序内存映像大小&&&&* 17. wget 文件下载&&&&* 18. scp 跨机远程拷贝&&&&* 19. crontab 定时任务二、内核优化参数:/proc/sys/net/ipv4/名称默认值建议值描述tcp_syn_retries51对于一个新建连接,内核要发送多少个&SYN&连接请求才决定放弃。不应该大于255,默认值是5,对应于180秒左右时间。(对于大负载而物理通信良好的网络而言,这个值偏高,可修改为2.这个值仅仅是针对对外的连接,对进来的连接,是由tcp_retries1决定的)tcp_synack_retries51对于远端的连接请求SYN,内核会发送SYN&+&ACK数据报,以确认收到上一个&SYN连接请求包。这是所谓的三次握手( threeway handshake)机制的第二个步骤。这里决定内核在放弃连接之前所送出的&SYN+ACK&数目。不应该大于255,默认值是5,对应于180秒左右时间。tcp_keepalive_time7200600TCP发送keepalive探测消息的间隔时间(秒),用于确认TCP连接是否有效。防止两边建立连接但不发送数据的***。tcp_keepalive_probes93TCP发送keepalive探测消息的间隔时间(秒),用于确认TCP连接是否有效。tcp_keepalive_intvl7515探测消息未获得响应时,重发该消息的间隔时间(秒)。默认值为75秒。&(对于普通应用来说,这个值有一些偏大,可以根据需要改小.特别是web类服务器需要改小该值,15是个比较合适的值)tcp_retries133放弃回应一个TCP连接请求前﹐需要进行多少次重试。RFC&规定最低的数值是3tcp_retries2155在丢弃激活(已建立通讯状况)的TCP连接之前﹐需要进行多少次重试。默认值为15,根据RTO的值来决定,相当于13-30分钟(RFC1122规定,必须大于100秒).(这个值根据目前的网络设置,可以适当地改小,我的网络内修改为了5)tcp_orphan_retries73在近端丢弃TCP连接之前﹐要进行多少次重试。默认值是7个﹐相当于&50秒&- 16分钟﹐视RTO&而定。如果您的系统是负载很大的web服务器﹐那么也许需要降低该值﹐这类&sockets&可能会耗费大量的资源。另外参的考tcp_max_orphans。(事实上做NAT的时候,降低该值也是好处显著的,我本人的网络环境中降低该值为3)tcp_fin_timeout602对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。默认值为&60&秒。tcp_max_tw_buckets18000036000系统在同时所处理的最大&timewait sockets&数目。如果超过此数的话﹐time-wait socket&会被立即砍除并且显示警告信息。之所以要设定这个限制﹐纯粹为了抵御那些简单的&DoS&***﹐不过﹐如果网络条件需要比默认值更多﹐则可以提高它(或许还要增加内存)。(事实上做NAT的时候最好可以适当地增加该值)tcp_tw_recycle01打开快速&TIME-WAIT sockets&回收。除非得到技术专家的建议或要求﹐请不要随意修改这个值。(做NAT的时候,建议打开它)tcp_tw_reuse01表示是否允许重新应用处于TIME-WAIT状态的socket用于新的TCP连接(这个对快速重启动某些服务,而启动后提示端口已经被使用的情形非常有帮助)tcp_max_orphans819232768系统所能处理不属于任何进程的TCP sockets最大数量。假如超过这个数量﹐那么不属于任何进程的连接会被立即reset,并同时显示警告信息。之所以要设定这个限制﹐纯粹为了抵御那些简单的&DoS&***﹐千万不要依赖这个或是人为的降低这个限制。如果内存大更应该增加这个值。(这个值Redhat AS版本中设置为32768,但是很多防火墙修改的时候,建议该值修改为2000)tcp_abort_on_overflow00当守护进程太忙而不能接受新的连接,就象对方发送reset消息,默认值是false。这意味着当溢出的原因是因为一个偶然的猝发,那么连接将恢复状态。只有在你确信守护进程真的不能完成连接请求时才打开该选项,该选项会影响客户的使用。(对待已经满载的sendmail,apache这类服务的时候,这个可以很快让客户端终止连接,可以给予服务程序处理已有连接的缓冲机会,所以很多防火墙上推荐打开它)tcp_syncookies01只有在内核编译时选择了CONFIG_SYNCOOKIES时才会发生作用。当出现syn等候队列出现溢出时象对方发送syncookies。目的是为了防止syn flood***。tcp_stdurg00使用&TCP urg pointer&字段中的主机请求解释功能。大部份的主机都使用老旧的&BSD解释,因此如果您在&Linux&打开它﹐或会导致不能和它们正确沟通。tcp_max_syn_backlog102416384对于那些依然还未获得客户端确认的连接请求﹐需要保存在队列中最大数目。对于超过&128Mb&内存的系统﹐默认值是&1024&﹐低于&128Mb&的则为&128。如果服务器经常出现过载﹐可以尝试增加这个数字。警告﹗假如您将此值设为大于&1024﹐最好修改include/net/tcp.h里面的TCP_SYNQ_HSIZE﹐以保持TCP_SYNQ_HSIZE*16(SYN Flood***利用TCP协议散布握手的缺陷,伪造虚假源IP地址发送大量TCP-SYN半打开连接到目标系统,最终导致目标系统Socket队列资源耗尽而无法接受新的连接。为了应付这种***,现代Unix系统中普遍采用多连接队列处理的方式来缓冲(而不是解决)这种***,是用一个基本队列处理正常的完全连接应用(Connect()和Accept() ),是用另一个队列单独存放半打开连接。这种双队列处理方式和其他一些系统内核措施(例如Syn-Cookies/Caches)联合应用时,能够比较有效的缓解小规模的SYN Flood***(事实证明)tcp_window_scaling11该文件表示设置tcp/ip会话的滑动窗口大小是否可变。参数值为布尔值,为1时表示可变,为0时表示不可变。tcp/ip通常使用的窗口最大可达到&65535&字节,对于高速网络,该值可能太小,这时候如果启用了该功能,可以使tcp/ip滑动窗口大小增大数个数量级,从而提高数据传输的能力(RFC 1323)。(对普通地百M网络而言,关闭会降低开销,所以如果不是高速网络,可以考虑设置为0)tcp_timestamps11Timestamps&用在其它一些东西中﹐可以防范那些伪造的&sequence&号码。一条1G的宽带线路或许会重遇到带&out-of-line数值的旧sequence&号码(假如它是由于上次产生的)。Timestamp&会让它知道这是个&'旧封包'。(该文件表示是否启用以一种比超时重发更精确的方法(RFC 1323)来启用对&RTT&的计算;为了实现更好的性能应该启用这个选项。)tcp_sack11使用&Selective ACK﹐它可以用来查找特定的遗失的数据报---&因此有助于快速恢复状态。该文件表示是否启用有选择的应答(Selective Acknowledgment),这可以通过有选择地应答乱序接收到的报文来提高性能(这样可以让发送者只发送丢失的报文段)。(对于广域网通信来说这个选项应该启用,但是这会增加对&CPU&的占用。)tcp_fack11打开FACK拥塞避免和快速重传功能。(注意,当tcp_sack设置为0的时候,这个值即使设置为1也无效)[这个是TCP连接靠谱的核心功能]tcp_dsack11允许TCP发送&两个完全相同&的SACK。tcp_ecn00TCP的直接拥塞通告功能。tcp_reordering36TCP流中重排序的数据报最大数量。&(一般有看到推荐把这个数值略微调整大一些,比如5)tcp_retrans_collapse10对于某些有bug的打印机提供针对其bug的兼容性。(一般不需要这个支持,可以关闭它)tcp_wmem:mindefaultmax4096163841310728192131072发送缓存设置min:为TCP socket预留用于发送缓冲的内存最小值。每个tcp socket都可以在建议以后都可以使用它。默认值为4096(4K)。default:为TCP socket预留用于发送缓冲的内存数量,默认情况下该值会影响其它协议使用的net.core.wmem_default 值,一般要低于net.core.wmem_default的值。默认值为16384(16K)。max:&用于TCP socket发送缓冲的内存最大值。该值不会影响net.core.wmem_max,&静态&选择参数SO_SNDBUF则不受该值影响。默认值为K)。(对于服务器而言,增加这个参数的值对于发送数据很有帮助,在我的网络环境中,修改为了 204800)tcp_rmem:mindefaultmax40968738017476032768131072接收缓存设置同tcp_wmemtcp_mem:mindefaultmax根据内存计算7864322864low:当TCP使用了低于该值的内存页面数时,TCP不会考虑释放内存。即低于此值没有内存压力。(理想情况下,这个值应与指定给 tcp_wmem 的第 2 个值相匹配 - 这第 2 个值表明,最大页面大小乘以最大并发请求数除以页大小 (131072 * 300 / 4096)。 )pressure:当TCP使用了超过该值的内存页面数量时,TCP试图稳定其内存使用,进入pressure模式,当内存消耗低于low值时则退出pressure状态。(理想情况下这个值应该是 TCP 可以使用的总缓冲区大小的最大值 (204800 * 300 / 4096)。 )high:允许所有tcp sockets用于排队缓冲数据报的页面量。(如果超过这个值,TCP 连接将被拒绝,这就是为什么不要令其过于保守 (512000 * 300 / 4096) 的原因了。 在这种情况下,提供的价值很大,它能处理很多连接,是所预期的 2.5 倍;或者使现有连接能够传输 2.5 倍的数据。 我的网络里为000 732000)一般情况下这些值是在系统启动时根据系统内存数量计算得到的。tcp_app_win3131保留max(window/2^tcp_app_win, mss)数量的窗口由于应用缓冲。当为0时表示不需要缓冲。tcp_adv_win_scale22计算缓冲开销bytes/2^tcp_adv_win_scale(如果tcp_adv_win_scale & 0)或者bytes-bytes/2^(-tcp_adv_win_scale)(如果tcp_adv_win_scale BOOLEAN&0)tcp_low_latency00允许&TCP/IP&栈适应在高吞吐量情况下低延时的情况;这个选项一般情形是的禁用。(但在构建Beowulf&集群的时候,打开它很有帮助)tcp_westwood00启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化;对于&WAN&通信来说应该启用这个选项。tcp_bic00为快速长距离网络启用&Binary Increase Congestion;这样可以更好地利用以&GB&速度进行操作的链接;对于&WAN&通信应该启用这个选项。ip_forward0-NAT必须开启IP转发支持,把该值写1ip_local_port_range:minmax3276861000102465000表示用于向外连接的端口范围,默认比较小,这个范围同样会间接用于NAT表规模。ip_conntrack_max6553565535系统支持的最大ipv4连接数,默认65536(事实上这也是理论最大值),同时这个值和你的内存大小有关,如果内存128M,这个值最大8192,1G以上内存这个值都是默认65536/proc/sys/net/ipv4/netfilter/&&文件需要打开防火墙才会存在名称默认值建议值描述ip_conntrack_max6553665536系统支持的最大ipv4连接数,默认65536(事实上这也是理论最大值),同时这个值和你的内存大小有关,如果内存128M,这个值最大8192,1G以上内存这个值都是默认65536,这个值受/proc/sys/net/ipv4/ip_conntrack_max限制ip_conntrack_tcp_timeout_established432000180已建立的tcp连接的超时时间,默认432000,也就是5天。影响:这个值过大将导致一些可能已经不用的连接常驻于内存中,占用大量链接资源,从而可能导致NAT ip_conntrack: table full的问题。建议:对于NAT负载相对本机的&NAT表大小很紧张的时候,可能需要考虑缩小这个值,以尽早清除连接,保证有可用的连接资源;如果不紧张,不必修改ip_conntrack_tcp_timeout_time_wait120120time_wait状态超时时间,超过该时间就清除该连接ip_conntrack_tcp_timeout_close_wait6060close_wait状态超时时间,超过该时间就清除该连接ip_conntrack_tcp_timeout_fin_wait120120fin_wait状态超时时间,超过该时间就清除该连接/proc/sys/net/core/名称默认值建议值描述netdev_max_backlog102416384每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目,对重负载服务器而言,该值需要调高一点。somaxconn&12816384用来限制监听(LISTEN)队列最大数据包的数量,超过这个数量就会导致链接超时或者触发重传机制。web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而nginx定义的NGX_LISTEN_BACKLOG默认为511,所以有必要调整这个值。对繁忙的服务器,增加该值有助于网络性能wmem_default129024129024默认的发送窗口大小(以字节为单位)rmem_default129024129024默认的接收窗口大小(以字节为单位)rmem_max129024873200最大的TCP数据接收缓冲wmem_max129024873200最大的TCP数据发送缓冲两种修改内核参数方法:1、使用echo value方式直接追加到文件里如echo &1& &/proc/sys/net/ipv4/tcp_syn_retries,但这种方法设备重启后又会恢复为默认值2、把参数添加到/etc/sysctl.conf中,然后执行sysctl -p使参数生效,永久生效参数优化:net.ipv4.tcp_syncookies=1表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookie来处理,可防范少量的ddos SYN攻击。默认为0,表示关闭。net.ipv4.tcp_tw_reuse=1表示开启重用。允许将TIME_WAIT套接字重新用于新的TCP连接。默认为0,表示关闭。重复利用端口和文件描述符资源,提升系统并发量。net.ipv4.tcp_tw_recycle=1表示开启TCP连接中TIME_WAIT套接字的快速回收。默认为0,表示关闭。net.ipv4.tcp_keepalive_time=7200表示当内核启用TCP keepalive启用时,发送keepalive心跳消息的频度。默认是2小时。net.ipv4.tcp_keepalive_intvl=75TCP保活心跳包发送的时间间隔(单位:秒)net.ipv4.tcp_keepalive_probes=9尝试探测的最大次数,如果发送的探测包次数超过该值仍然没有收到对方响应,则认为连接已失效并关闭连接。net.ipv4.ip_local_port_range=设置client建立连接,可使用端口的范围(每建立一条连接,都会随机为其分配一个端口)net.ipv4.tcp_max_syn_backlog=8192表示SYN队列的长度,默认为1024。增大队列长度为8192,可以容纳更多等待连接的TCP连接数 ——TCP半连接队列。net.ipv4.tcp_max_tw_buckets=180000表示系统同时保持TIME_WAIT套接字的最大数量,如果超过这个数字,TIME_WAIT套接字将立刻被清除并打印警告信息;默认为180000。net.core.netdev_max_backlog=1000当网络接口接收数据包的速率比内核处理速率快时,允许送到缓冲队列的数据包最大数目。net.core.somaxconn=128TCP连接队列的大小,用于存放已经建立好的TCP连接,等待服务端应用listener&accept进行处理,默认128 ——TCP连接队列。&&&net.ipv4.tcp_synack_retries=2为了打开对端的连接,内核需要发送一个SYN并附带一个回应前面一个SYN的ACK。也就是所谓三次握手中的第二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK包的数量。net.ipv4.tcp_syn_retries=2在内核放弃建立连接之前发送SYN包的数量。net.ipv4.tcp_fin_timeout=60对于本端断开的TCP连接,保持在FIN-WAIT-2状态的时间(秒)。对方可能会断开连接或一直不结束连接或不可预料的进程死亡,默认60秒。net.ipv4.tcp_window_scaling=1启用RFC 1323定义的window scaling,要支持超过64KB的TCP窗口,必须启用该值(1表示启用),TCP窗口最大至1GB,TCP连接双方都启用时才生效,默认为1启用。net.ipv4.tcp_timestamps=1TCP时间戳(会在TCP包头增加12个字节),以一种比重发超时更精确的方法(参考RFC 1323)来启用对RTT 的计算,为实现更好的性能应该启用这个选项。net.ipv4.ip_forward=0开启ip转发支持,内核开启NAT路由功能。默认值0关闭。net.ipv4.tcp_rmem= 4194304第一个值是为socket接收缓冲区分配的最少字节数;第二个值是默认值(该值会被rmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是接收缓冲区空间的最大字节数(该值会被rmem_max覆盖);net.ipv4.tcp_wmem= 4194304第一个值是为socket发送缓冲区分配的最少字节数;第二个值是默认值(该值会被wmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是发送缓冲区空间的最大字节数(该值会被wmem_max覆盖);net.core.wmem_default=8388608默认的TCP发送缓冲区大小(字节)&&net.core.rmem_default=8388608默认的TCP接收缓冲区大小(字节)net.core.rmem_max=TCP最大接收缓冲区大小(字节)net.core.wmem_max=TCP最大发送缓冲区大小(字节)三、Linux I/O栈四、Linux网络栈网络栈协议核心网络架构系统调用接口当用户进行网络调用时,通过系统调用接口多路复用到内核中。使用正常的文件操作进行网络I/O协议无关接口socket层是协议无关接口,其提供一组通用功能,以支持各种不同的协议。socket层不仅支持典型的TCP和UDP协议,还支持IP,原始以太网和其他传输协议,如流控制传输协议(SCTP)。网络栈使用socket通信。Linux中的socket结构struct sock是在linux/include/net/sock.h中定义的。网络协议Socket协议关联设备无关接口协议层下面是另一个无关的接口层,将协议连接到具有不同功能的各种硬件设备的驱动程序。该层提供了一组通用的功能,由较低级别的网络设备驱动程序使用,以允许它们使用较高级协议栈进行操作。设备驱动程序网络栈的底部是管理物理网络设备的设备驱动程序。该层的设备示例包括串行接口上的SLIP驱动程序或以太网设备上的以太网驱动程序。
文章录入:文海平 责任编辑:文海平
分享本文:
上一篇文章:下一篇文章:

我要回帖

更多关于 udp端口复用 的文章

 

随机推荐