[步骤] Linux Kdump 的开启 (临时版)

步骤一:理解 Kdump 的作用

开启 core dump 之后,如果出现了 C 语言程序的 crash,则会将 crash 的结果记录到一个文件里

步骤二:临时开启 Kdump

2.1 设置可生成 Kdump 大小的参数

2.1.1 显示当前允许生成 Kdump 的大小
# ulimit -a
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 31722
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 1024
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 31722
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited
2.1.2 将允许生成 Kdump 大小的参数设置为无限大
# ulimit -c unlimited
2.1.3 确认修改结果
# ulimit -a
core file size          (blocks, -c) unlimited
data seg size           (kbytes, -d) unlimited
scheduling priority             (-e) 0
file size               (blocks, -f) unlimited
pending signals                 (-i) 31722
max locked memory       (kbytes, -l) 64
max memory size         (kbytes, -m) unlimited
open files                      (-n) 1024
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
real-time priority              (-r) 0
stack size              (kbytes, -s) 8192
cpu time               (seconds, -t) unlimited
max user processes              (-u) 31722
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

2.2 设置 Kdump 生成的位置

# sysctl -w kernel.core_pattern=/tmp/corefile/core-%e-%p

步骤三:此时如果有 C 语言的程序 crash 了,则会被自动记录

[步骤] NFS 远程共享服务的搭建 (RHEL 7 版) (转载)

RHEL7-部署NFS文件共享服务

一、NFS概述
NFS 是Network File System的缩写,即网络文件系统。
一种使用于分散式文件系统的协定,由Sun公司开发,于1984年向外公布。、

功能是通过网络让不同的机器、不同的操作系统能够彼此分享个别的数据,让应用程序在客户端通过网络访问位于服务器磁盘中的数据,是在类Unix系统间实现磁盘文件共享的一种方法。

NFS 的基本原则是"容许不同的客户端及服务端通过一组RPC分享相同的文件系统",它是独立于操作系统,容许不同硬件及操作系统的系统共同进行文件的分享。

NFS在文件传送或信息传送过程中依赖于RPC协议。
RPC,远程过程调用 (Remote Procedure Call) 是能使客户端执行其他系统中程序的一种机制。

NFS本身是没有提供信息传输的协议和功能的,但NFS却能让我们通过网络进行资料的分享,这是因为NFS使用了一些其它的传输协议。而这些传输协议用到这个RPC功能的。可以说NFS本身就是使用RPC的一个程序。或者说NFS也是一个RPC SERVER。所以只要用到NFS的地方都要启动RPC服务,不论是NFS SERVER或者NFS CLIENT。这样SERVER和CLIENT才能通过RPC来实现PROGRAM PORT的对应。可以这么理解RPC和NFS的关系:NFS是一个文件系统,而RPC是负责负责信息的传输。

系统环境

系统平台: CentOS7或RHEL7
NFS Server IP: 192.168.1.63
防火墙已: 关闭或着允许NFS
iptables –F
iptables –X

SELINUX=disabled ==== setenforce 0

安装NFS服务
• nfs-utils :包括基本的NFS命令与监控程序
• rpcbind :支持安全NFS RPC服务的连接

[root@server ~]# yum -y install rpcbind nfs-utils

在这里插入图片描述
NFS系统守护进程
• nfsd:它是基本的NFS守护进程,主要功能是管理客户端是否能够登录服务器;
• mountd:它是RPC安装守护进程,主要功能是管理NFS的文件系统。
当客户端顺利通过nfsd登录NFS服务器后,在使用NFS服务所提供的文件前,还必须通过文件使用权限的验证。它会读取NFS的配置文件/etc/exports来对比客户端权限。
• rpcbind:主要功能是进行端口映射工作。
当客户端尝试连接并使用RPC服务器提供的服务(如NFS服务)时,rpcbind会将所管理的与服务对应的端口提供给客户端,从而使客户可以通过该端口向服务器请求服务。

NFS服务器的配置

NFS服务器的配置相对比较简单,只需要在相应的配置文件中进行设置,然后启动NFS服务器即可。
NFS的常用目录

/etc/exports #NFS服务的主要配置文件
/usr/sbin/exportfs #NFS服务的管理命令
/usr/sbin/showmount #客户端的查看命令
/var/lib/nfs/etab # 记录NFS分享出来的目录的完整权限设定值
/var/lib/nfs/xtab #记录曾经登录过的客户端信息。

NFS服务的配置文件为 /etc/exports,

这个文件是NFS的主要配置文件,不过系统并没有默认值,所以这个文件不一定会存在,可能要使用vim手动建立,然后在文件里面写入配置内容。
/etc/exports文件内容格式:
<输出目录> [客户端1 选项(访问权限,用户映射,其他)] [客户端2 选项(访问权限,用户映射,其他)]
输出目录:
输出目录是指NFS系统中需要共享给客户机使用的目录;
客户端:
客户端是指网络中可以访问这个NFS输出目录的计算机

客户端常用的指定方式
• 指定ip地址的主机:192.168.0.200
• 指定子网中的所有主机:192.168.0.0/24 192.168.0.0/255.255.255.0
• 指定域名的主机:nfs.cnhzz.com
• 指定域中的所有主机:.cnhzz.com
• 所有主机:

选项:
选项用来设置输出目录的访问权限、用户映射等。
NFS主要有3类选项:
访问权限选项
• 设置输出目录只读:ro ReadOnly
• 设置输出目录读写:rw Read and Write
用户映射选项
• all_squash:将远程访问的所有普通用户及所属组都映射为匿名用户或用户组(nfsnobody);
• no_all_squash:与all_squash取反(默认设置);
• root_squash:将root用户及所属组都映射为匿名用户或用户组(默认设置);
• no_root_squash:与rootsquash取反;
• anonuid=xxx:将远程访问的所有用户都映射为匿名用户,并指定该用户为本地用户(UID=xxx);
• anongid=xxx:将远程访问的所有用户组都映射为匿名用户组账户,并指定该匿名用户组账户为本地用户组账户(GID=xxx);
其它选项
• secure:限制客户端只能从小于1024的tcp/ip端口连接nfs服务器(默认设置);
• insecure:允许客户端从大于1024的tcp/ip端口连接服务器;
• sync:将数据同步写入内存缓冲区与磁盘中,效率低,但可以保证数据的一致性;
• async:将数据先保存在内存缓冲区中,必要时才写入磁盘;
• wdelay:检查是否有相关的写操作,如果有则将这些写操作一起执行,这样可以提高效率(默认设置);
• no_wdelay:若有写操作则立即执行,应与sync配合使用;
• subtree:若输出目录是一个子目录,则nfs服务器将检查其父目录的权限(默认设置);
• no_subtree:即使输出目录是一个子目录,nfs服务器也不检查其父目录的权限,这样可以提高效率;

NFS服务器的启动与停止
在对exports文件进行了正确的配置后,就可以启动NFS服务器了。

1、启动停止NFS服务器
为了使NFS服务器能正常工作,需要启动rpcbind和nfs两个服务,并且rpcbind一定要先于nfs启动。

[root@server ~]# systemctl start rpcbind nfs

    1

[root@server ~]# systemctl is-active rpcbind nfs
在这里插入图片描述
[root@server ~]# systemctl stop nfs
[root@停止NFS服务器
server ~]# systemctl stop rpcbind

实践操作
将NFS Server 的/home/test / 共享给192.168.1.0/24网段,权限读写

1.准备测试文件
[root@server ~]# mkdir /home/test
[root@server ~]# cp /etc/passwd /etc/hosts /home/test/
[root@server ~]# ls /home/test/
在这里插入图片描述
2.编辑nfs主配置文件
[root@server ~]# vim /etc/exports
在这里插入图片描述
/home/test 192.168.1.0/24(rw)

3.重启服务
[root@server ~]# systemctl restart
[root@server ~]# systemctl is-active rpcbind nfs
在这里插入图片描述
4.服务器端使用showmount命令查询NFS的共享状态
#查看共享的目录
[root@server ~]# showmount -e 192.168.1.63
在这里插入图片描述
#测试客户端与NFS服务器的共享状态
[root@server0 student]# showmount -e foundation0.ilt.example.com
Export list for foundation0.ilt.example.com:
/content 172.25.0.0/255.255.0.04、

客户端挂载NFS服务器共享的目录
[root@server2 ~]# mount 192.168.1.63:/home/test /mnt/

在这里插入图片描述
在这里插入图片描述
4、NFS的共享权限和访问控制
ls: 无法创建目录: 权限不够
[root@server2 ~]# touch /mnt/a.txt
在这里插入图片描述
是因为NFS 服务器端共享的目录本身的写权限没有开放给其他用户,在服务器端打开该权限.
去NFS服务器上面修改文件权限:
[root@server ~]# chmod 777 -R /home/test
在这里插入图片描述
用root去创建文件,文件的权限编程了nfsnobody用户了
[root@server2 ~]# touch /mnt/nihao.txt
[root@server2 ~]# mkdir /mnt/san
[root@server2 ~]# ll /mnt/
在这里插入图片描述
使用普通用户挂载、写入文件测试。
[root@server2 ~]# useradd lisi
[root@server2 ~]# su - lisi
[lisi@server2 ~]$ touch /mnt/lisi.txt
[lisi@server2 ~]$ touch /mnt/lisi01.txt
[lisi@server2 ~]$ ll /mnt/
在这里插入图片描述
卸载已挂载的NFS共享目录
[root@server2 ~]# umount /mnt/

启动自动挂载 vim /etc/fstab
[root@server2 ~]# echo “192.168.1.63:/home/test /media nfs4 defaults 0 0” >> /etc/fstab
在这里插入图片描述

相关命令
1、exportfs
如果我们在启动了NFS之后又修改了/etc/exports,是不是还要重新启动nfs呢?这个时候我们就可以用exportfs 命令来使改动立刻生效,该命令格式如下:
#exportfs [-aruv]
-a # 全部挂载或卸载 /etc/exports中的内容
-r #重新读取/etc/exports 中的信息,并同步更新/etc/exports、/var/lib/nfs/xtab
-u #卸载单一目录(和-a一起使用为卸载所有/etc/exports文件中的目录)
-v #在export的时候,将详细的信息输出到屏幕上。

具体例子:
[root@server ~]# exportfs -au #卸载所有共享目录
在这里插入图片描述
[root@server ~]# exportfs -rv #重新共享所有目录并输出详细信息
在这里插入图片描述
2、nfsstat
查看NFS的运行状态,对于调整NFS的运行有很大帮助。
在这里插入图片描述
3、rpcinfo
查看rpc执行信息,可以用于检测rpc运行情况的工具,
在这里插入图片描述
利用rpcinfo -p 可以查看出RPC开启的端口所提供的程序有哪些。
在这里插入图片描述
4、showmount
-a 显示已经于客户端连接上的目录信息
-e IP或者hostname 显示此IP地址分享出来的目录
在这里插入图片描述

最后注意两点,虽然通过权限设置可以让普通用户访问,但是挂载的时候默认情况下只有root可以去挂载,普通用户可以执行sudo。
NFS server 关机的时候一点要确保NFS服务关闭,没有客户端处于连接状态!通过showmount -a 可以查看,如果有的话用kill killall pkill 来结束,(-9 强制结束)
————————————————
版权声明:本文为CSDN博主「Gusixsixsix」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/Gusixsixsix/java/article/details/82801289

注明:所有转载内容皆直接从被转载文章网页的标题和内容的文本中复制而来

CC 4.0 BY-SA 版权协议网址:https://creativecommons.org/licenses/by-sa/4.0/deed.z
站主补充:
案例一:临时挂载某一个 NFS 目录的方法
# mount -o nolock,nfsvers=3,vers=3 -t nfs 192.168.100.1:/tmp /tmp

案例二:设置一个目录可以同时被两个 NFS 客户端永久挂载的方法
# vim /etc/exports
/tmp 192.168.100.1(rw,no_root_squash,no_subtree_check) 192.168.100.2(rw,no_root_squash,no_subtree_check)

[内容] Linux 硬盘性能调优的思路

内容一:提高硬盘吞吐量

1.1 显示硬盘现在设置的吞吐量

# cat /sys/block/<partition name>/queue/nr_requests
128

1.2 提高硬盘的吞吐量

# echo 512 > /sys/block/<partition name>/queue/nr_requests

(补充:这里以降硬盘的吞吐量提高到 512 为例)

内容二:修改硬盘的 I/O 调度算法

2.1 硬盘调度算法种类

1) CFQ:完全公平排队 I/O 调度程序,是通用型服务器、多媒体应用和桌面系统的最佳选择
2) NOOP:电梯式调度程序,倾向于牺牲读操作而提高写操作
3) Deadline:截至时间调度程序,防止写操作因为不能进行读操作而被牺牲的情况
4) AS:预料 I/O 调度程序,适用于写操作量需求较大的服务器,不适用于数据库服务器

2.2 显示当前硬盘被设置的 I/O 调度算法

2.2.1 显示系统当前所有硬盘默认的 I/O 调度算法
# dmesg | grep -i scheduler
2.2.2 显示某一个分区当前的 I/O 调度算法
# cat /sys/block/sda/queue/scheduler
noop anticipatory deadline [cfq]

(补充:这里中括号 “[]” 以内的调度算法名就是当前使用的调度算法)

2.3 临时修改某一个分区的 I/O 调度算法

# echo noop > /sys/block/<partition name>/queue/scheduler

(注意:此种修改方式会在重启后失效)

2.4 永久修改系统默认的 I/O 调度算法

# grubby --update-kernel=ALL --args="elevator=<scheduling algorithm name>"

(注意:此种修改方式需要重启才会生效)

[步骤] Linux 逻辑分区的显示 (dm 设备)

步骤一:发现 dm 设备

在系统中创建了逻辑卷之后,使用 iostat -d 命令就会看到 “dm-<数字>” 格式的条目

# iostat -d

(说明:dm-<数字> 格式的信息和其他的分区信息类似,只不过他是利用 Mapper Device 机制虚拟出来的分区信息)

步骤二:显示 dm 设备所在位置

1.2 显示 dm 设备对应的逻辑分区名

# dmsetup ls

(补充:此时就能在输出信息里看到 “<分区名> 253:<数字>” 格式的条目)

(说明:其中 “<分区名> 253:<数字>” 中的数字和 dm-<数字> 中的数字对应)

1.3 查找 dm 设备对应的逻辑分区位置

# ls -l /dev/mapper/<device name

(补充:此时就能在输出信息的结尾看到 “…… <分区名> -> .. /dm-<数字>” 格式的信息)

(说明 “…… <分区名> -> .. /dm-<数字>” 中的 <分区名> 和 <数字> 与 “<分区名> 253:<数字> ” 中的 <分区名> 和 <数字> 对应)

[步骤] 浏览器模块的添加 (SwitchyOmega) (Chrome 版)

步骤一:下载 SwitchyOmega_Chromium.crx

1.1 登录网址 https://github.com/FelisCatus/SwitchyOmega/releases
1.2 选择对应的 SwitchyOmega 版本
1.3 在页面的下方下载 SwitchyOmega_Chromium.crx

步骤二:解压 SwitchyOmega_Chromium.crx

2.1 将 SwitchyOmega_Chromium.crx 的后缀修改为 zip
2.2 解压 SwitchyOmega_Chromium.zip

步骤三:添加 SwitchyOmega 模块

3.1 在 Chrome 浏览器中输入网址:chrome://extensions/
3.2 打开页面右上角的“开发者模式”
3.3 点击“加载已解压的扩展程序”
3.4 选择刚刚解压好的 SwitchyOmega_Chromium 文件夹