小言_互联网的博客

机房冷风吹-linux基础环境搭建(基础篇)

362人阅读  评论(0)

机房冷风吹-Linux基础环境搭建(基础篇)

当一台服务器或者虚拟机装完系统之后,需要进行基础的环境搭建,调整硬盘,逻辑卷,yum源,时钟同步等等,本篇文章的目的就是用最基本的操作步骤,用最简单的命令,不用动脑直接复制粘贴,根据需求挑选自己需要的进行操作快速完成环境搭建。
本篇基于centos7,6版本的请相应调整命令

一、关闭防火墙

防火墙记得关,防火墙记得关,防火墙记得关,防火墙记得关,防火墙记得关,防火墙记得关!!!
部署的时候如果开着就会因为它,有的服务就奇奇怪怪的不好使了。

[root@zzxt ~]# systemctl stop firewalld
[root@zzxt ~]# systemctl disable firewalld
[root@zzxt ~]# systemctl status firewalld
● firewalld.service - firewalld - dynamic firewall daemon
   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
   Active: inactive (dead)
     Docs: man:firewalld(1)

二、关闭SElinux

部署的时候会更改系统文件,selinux会保护系统文件,关掉selinux以便部署。

[root@zzxt ~]# setenforce 0  ##临时关闭selinux
[root@zzxt ~]# getenforce   ##获取selinux状态
Permissive
[root@zzxt ~]# vi /etc/selinux/config  ##永久关闭selinux
##enforcing是强制模式会限制文件,permissive是宽容模式不限制文件,desabled关闭模式
SELINUX=disabled

三、存储操作

过程:分区-格式化-挂载

3.1 本地硬盘分区

须知:

MBR:MBR分区表(即主引导记录)大家都很熟悉。所支持的最大卷:2T,而且对分区有限制:最多4个主分区或3个主分区加一个扩展分区
GPT: GPT(即GUID分区表)。是源自EFI标准的一种较新的磁盘分区表结构的标准,是未来磁盘分区的主要形式。与MBR分区方式相比,具有如下优点。突破MBR 4个主分区限制,每个磁盘最多支持128个分区。支持大于2T的分区,最大卷可达18EB。

3.1.1 创建硬盘分区-fdisk

需登录root用户。
输入 fdisk -l 查看分区情况。
输入 fdisk /dev/sdb 创建分区(通过fdisk -l获取)。

  1. 输入n新建分区。
  2. 分区起始位置可以直接回车选择默认。
  3. 分区最后位置可以直接回车选择默认。
  4. 输入p打印分区情况,检查是否创建成功。
  5. 输入w保存分区。
[root@zzxt ~]# fdisk -l

磁盘 /dev/sda:21.5 GB, 21474836480 字节,41943040 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:dos
磁盘标识符:0x000a3a13

   设备 Boot      Start         End      Blocks   Id  System
/dev/sda1   *        2048     2099199     1048576   83  Linux
/dev/sda2         2099200    41943039    19921920   8e  Linux LVM

磁盘 /dev/sdb:1073 MB, 1073741824 字节,2097152 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节

[root@zzxt ~]# fdisk /dev/sdb
欢迎使用 fdisk (util-linux 2.23.2)。

更改将停留在内存中,直到您决定将更改写入磁盘。
使用写入命令前请三思。

Device does not contain a recognized partition table
使用磁盘标识符 0x3398f95d 创建新的 DOS 磁盘标签。

命令(输入 m 获取帮助):n   # 新建分区
Partition type:         # 回车默认是主分区
   p   primary (0 primary, 0 extended, 4 free)
   e   extended
Select (default p): p	# 回车默认
分区号 (1-4,默认 1)# 回车默认
起始 扇区 (2048-2097151,默认为 2048)# 回车默认
将使用默认值 2048
Last 扇区, +扇区 or +size{
   K,M,G} (2048-2097151,默认为 2097151)# 回车默认
将使用默认值 2097151
分区 1 已设置为 Linux 类型,大小设为 1023 MiB

命令(输入 m 获取帮助):p	# 打印设备情况

磁盘 /dev/sdb:1073 MB, 1073741824 字节,2097152 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:dos
磁盘标识符:0x3398f95d

   设备 Boot      Start         End      Blocks   Id  System
/dev/sdb1            2048     2097151     1047552   83  Linux

命令(输入 m 获取帮助):w	# 保存设置
The partition table has been altered!

Calling ioctl() to re-read partition table.
正在同步磁盘。

3.1.2 创建硬盘分区-parted

parted命令可以划分单个分区大于2T的GPT格式的分区,也可以划分普通的MBR分区,fdisk命令对于大于2T的分区无法划分。
parted是一个可以分区并进行分区调整的工具,他可以创建,破坏,移动,复制,调整ext2 linux-swap fat fat32 reiserfs类型的分区,可以创建,调整,移动Macintosh的HFS分区,检测jfs,ntfs,ufs,xfs分区。
需登录root用户。
输入 fdisk -l 查看分区情况。
输入 parted /dev/sdb 创建分区(通过fdisk -l获取)。

  1. 输入mklabel gpt,选用gpt格式的分区表。
  2. mkpart primary 0 2190gb,确定分区类型大小。
  3. print,打印信息。
  4. quit,保存退出。
[root@zzxt ~]# fdisk -l
**
磁盘 /dev/sdb:1073 MB, 1073741824 字节,2097152 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
**
[root@zzxt ~]# parted /dev/sdb
GNU Parted 3.1
使用 /dev/sdb
Welcome to GNU Parted! Type 'help' to view a list of commands.
(parted) mklabel gpt      #选择分区表格式                                                
(parted) print            #打印信息                                                
Model: VMware, VMware Virtual S (scsi)
Disk /dev/sdb: 1074MB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start  End  Size  File system  Name  标志

(parted) mkpart primary 0KB 1074MB		#确定分区类型大小
警告: You requested a partition from 0.00B to 1074MB (sectors 0..2097151).
The closest location we can manage is 17.4kB to 1074MB (sectors 34..2097118).
Is this still acceptable to you?
是/Yes//No? y
警告: The resulting partition is not properly aligned for best performance.
忽略/Ignore/放弃/Cancel? i                                                
(parted) print
Model: VMware, VMware Virtual S (scsi)
Disk /dev/sdb: 1074MB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags: 

Number  Start   End     Size    File system  Name     标志
 1      17.4kB  1074MB  1074MB               primary

(parted) quit                         #保存退出                                    
信息: You may need to update /etc/fstab.

[root@zzxt ~]# fdisk -l                                                  

磁盘 /dev/sdb:1073 MB, 1073741824 字节,2097152 个扇区
Units = 扇区 of 1 * 512 = 512 bytes
扇区大小(逻辑/物理):512 字节 / 512 字节
I/O 大小(最小/最佳):512 字节 / 512 字节
磁盘标签类型:gpt
Disk identifier: B2CBB080-88F0-45AD-A57F-181297FDC883


#         Start          End    Size  Type            Name
 1           34      2097118   1024M  Microsoft basic primary
[root@zzxt ~]# ls /dev/sd
sda   sda1  sda2  sdb   sdb1  

3.2 格式化-挂载硬盘

创建文件系统
mkfs.ext4 /dev/sdb1
创建挂载路径:
mkdir -p /data
挂在LV到用户路径:
mount -t ext4 /dev/sdb1 /data
永久挂载:vi /etc/fstab,在最后一行添加如下内容(下列内容均为示例,根据实际情况修改参数):
/dev/sdb1   /data         ext4 defaults    0       0

3.3 挂载存储

3.2.1 SAN/IPSAN-多路径

物理机连接存储,建议优先使用存储的多路径软件,如有多种存储链接,会有软件冲突,请使用multipath
multipath常用命令
multipath -r (修改multipath.conf配置文件之后重新加载)
multipath -ll (查看多路径状态)
multipath -v2 (格式化路径,检测路径,合并路径)
multipath -v3 (查看多路径详情blacklist、whitelist和设备wwid)
multipath -F (删除现有链路)

查看映射的存储盘
fdisk-l 可以看到很多块盘,都是没有进行聚合的物理盘。
下载依赖包
[root@zzxt ~]# yum install device-mapper
检查安装包情况
[root@zzxt ~]# rpm -aq|grep multipath
device-mapper-multipath-libs-0.4.9-111.el7.x86_64
device-mapper-multipath-0.4.9-111.el7.x86_64
重启系统
[root@zzxt ~]# reboot
将多路径模块添加至内核模块中
[root@zzxt ~]# modprobe dm-multipath
[root@zzxt ~]# modprobe dm-round-robin
检查内核添加情况
[root@zzxt ~]# lsmod |grep multipath
dm_multipath           27427  1 dm_round_robin
dm_mod                123303  10 dm_round_robin,dm_multipath,dm_log,dm_mirror
启动multipath服务
[root@zzxt ~]# systemctl start multipathd.service
设置开机自启动
[root@zzxt ~]# systemctl enable multipathd
查看需要设置多路径磁盘的wwid
[root@zzxt ~]# more /etc/multipath/wwids
如果查询不到,则需要一个个查询
[root@zzxt ~]# /usr/lib/udev/scsi_id -g -u /dev/sdb
创建multipath配置文件
[root@zzxt ~]# /sbin/mpathconf --enable
编辑multipath配置文件
[root@zzxt ~]# vim /etc/multipath.conf
defaults {
   																		#全局属性的默认设置。
find_multipaths yes														#默认值no,这将为黑名单外的所有设备创建多路径设备。如置为yes,则将为3种场景创建多路径设备:不在黑名单的两个路径的wwid相同;用户手动强制创建;一个路径的wwid与之前已经创建的多路径设备相同。
user_friendly_names no												#默认值为no
}
blacklist {
                         												#黑名单,multipath会忽略黑名单中的设备
wwid 3600508b1001c5ae72efe1fea025cd2e5      		#不使用多路径的本地盘wwid号
devnode "^sda"                                    						#不使用多路径的本地盘名称,跟设备名称的正则表达式
}
#blacklist_exceptions{}												#免除黑名单,加入黑名单内,但包含在这里的设备不会被忽略,是多路径管理的设备列表。
multipaths {
                                                             		#多路径相关配置
multipath {
                        												#单块存储盘配置,如有多块存储盘,如多个multipath{}配置
wwid           36000144000000010b0363b427faacc91 #---使用多路径的存储盘wwid号
alias                  zzx01                               					 #设备别名
path_grouping_policy    multibus
path_selector          "round-robin 0"
failback                manual
rr_weight              priorities
no_path_retry          5
}
multipath {
   
wwid                    36000144000000010b0363b427faacc92
alias                  zzx02
path_grouping_policy    multibus
path_selector          "round-robin 0"
failback                manual
rr_weight              priorities
no_path_retry          5
}
}
devices {
   																			#存储设备相关配置,每个device子节用于描述一个设备
device {
   
vendor                  "EMC"                                           		#存储厂家名称可通过multipath –v3获取到(必填) 
product                "unity400"                                            #存储产品型号
path_grouping_policy    multibus									#默认的路径组策略
getuid_callout          "/lib/udev/scsi_id --whitelisted --device=/dev/%n"			#获得唯一设备号使用的默认程序 
path_checker            readsector0									#决定路径状态的方法 
path_selector          "round-robin 0"								#选择那条路径进行下一个IO操作的方法 
hardware_handler        "0"
failback                15
rr_weight              priorities
no_path_retry          queue

}
}
保存文件后退出.
启动multipath
[root@zzxt ~]# multipath -v2
[root@zzxt ~]# systemctl restart multipathd.service

查看多路径配置情况
[root@zzxt ~]# multipath -ll
Oct 26 14:59:27 | /etc/multipath.conf line 100, invalid keyword: devices
Oct 26 14:59:27 | /etc/multipath.conf line 101, invalid keyword: device
Oct 26 14:59:27 | /etc/multipath.conf line 102, invalid keyword: vendor
Oct 26 14:59:27 | /etc/multipath.conf line 103, invalid keyword: product
Oct 26 14:59:27 | /etc/multipath.conf line 104, invalid keyword: path_grouping_policy
Oct 26 14:59:27 | /etc/multipath.conf line 105, invalid keyword: getuid_callout
Oct 26 14:59:27 | /etc/multipath.conf line 106, invalid keyword: path_checker
Oct 26 14:59:27 | /etc/multipath.conf line 107, invalid keyword: path_selector
Oct 26 14:59:27 | /etc/multipath.conf line 108, invalid keyword: hardware_handler
Oct 26 14:59:27 | /etc/multipath.conf line 109, invalid keyword: failback
Oct 26 14:59:27 | /etc/multipath.conf line 110, invalid keyword: rr_weight
Oct 26 14:59:27 | /etc/multipath.conf line 111, invalid keyword: no_path_retry
Oct 26 14:59:27 | unmatched '}' at line 114 of /etc/multipath.conf
Oct 26 14:59:27 | /etc/multipath.conf line 114, invalid keyword: }
zzx02 (36000144000000010b0363b427faacc92) dm-7 EMC     ,Invista         
size=100G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=1 status=active
  |- 7:0:0:5 sdg  8:96   active ready running
  |- 8:0:0:5 sdaq 66:160 active ready running
  |- 7:0:1:5 sdp  8:240  active ready running
  |- 8:0:1:5 sdaz 67:48  active ready running
  |- 7:0:2:5 sdy  65:128 active ready running
  |- 8:0:2:5 sdbi 67:192 active ready running
  |- 7:0:3:5 sdah 66:16  active ready running
  `- 8:0:3:5 sdbr 68:80  active ready running
zzx01 (36000144000000010b0363b427faacc91) dm-5 EMC     ,Invista         
size=100G features='1 queue_if_no_path' hwhandler='0' wp=rw
`-+- policy='round-robin 0' prio=1 status=active
  |- 7:0:0:4 sdf  8:80   active ready running
  |- 8:0:0:4 sdap 66:144 active ready running
  |- 7:0:1:4 sdo  8:224  active ready running
  |- 8:0:1:4 sday 67:32  active ready running
  |- 7:0:2:4 sdx  65:112 active ready running
  |- 8:0:2:4 sdbh 67:176 active ready running
  |- 7:0:3:4 sdag 66:0   active ready running
  `- 8:0:3:4 sdbq 68:64  active ready running

如果配置正确的话就会在/dev/mapper/目录下多出mpath0、mpath1(自动分配的名称)等之类设备,不过如果在配置的时候起了别名,会使用别名来代替自动分配的名称
[root@zzxt ~]# ll /dev/mapper/ 
lrwxrwxrwx 1 root root       7 Oct 26 14:59 zzx01 -> ../dm-5
lrwxrwxrwx 1 root root       7 Oct 26 14:27 zzx02 -> ../dm-7
用fdisk -l命令可以看到多路径软件创建的磁盘
[root@zzxt ~]# fdisk -l 
Disk /dev/mapper/zzx01: 107.4 GB, 107374182400 bytes, 209715200 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

Disk /dev/mapper/zzx02: 107.4 GB, 107374182400 bytes, 209715200 sectors
Units = sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes

之后再进行分区格式化操作,参考3.1

3.2.2 NAS-nfs

NAS存储我们用nfs文件共享的方式进行挂载,方法很简单

#创建挂载点
mkdir /nas

#添加自动挂载
echo “192.168.3.2:/nas /nas nfs defaults 0 0” >>/etc/fstab

#执行挂载
mount -a

#查看挂载情况:
df -h

挂载后不需要自己创建文件系统,因为nfs服务端已经创建过文件系统,直接进行使用就好。

四、LVM管理

做逻辑卷应该在硬盘分区之后在格式化之前

4.1创建PV

需登录root用户。
创建系统PV输入命令:pvcreate dev/sdb1。
查看系统PV输入命令pvscan。

[root@zzxt dev]# pvcreate /dev/sdb1
  Physical volume "/dev/sdb1" successfully created.
[root@zzxt dev]# pvscan 
  PV /dev/sda2   VG centos_zzxt     lvm2 [<19.00 GiB / 0    free]
  PV /dev/sdb1                      lvm2 [1023.00 MiB]
  Total: 2 [<20.00 GiB] / in use: 1 [<19.00 GiB] / in no VG: 1 [1023.00 MiB]

4.2创建VG

vgcreate vg00 /dev/sdb1。
vgdisplay查看系统VG。

[root@zzxt dev]# vgcreate vg00 /dev/sdb1
  Volume group "vg00" successfully created
[root@zzxt dev]# vgdisplay    
  --- Volume group ---
  VG Name               vg00
  System ID             
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  1
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                0
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               1020.00 MiB
  PE Size               4.00 MiB
  Total PE              255
  Alloc PE / Size       0 / 0   
  Free  PE / Size       255 / 1020.00 MiB
  VG UUID               yUSuXi-bz56-Xd3C-Zps6-e4Fn-yuGD-Pfr0j4
   

4.3创建LV

lvcreate --name lv01 --size 1020m /dev/vg00

[root@zzxt dev]# lvcreate --name lv01 --size 1020m /dev/vg00
  Logical volume "lv01" created.
[root@zzxt dev]# lvscan
  ACTIVE            '/dev/vg00/lv01' [1020.00 MiB] inherit

之后进行分区格式化挂载

[root@zzxt rpm-gpg]# mkfs.ext4 /dev/vg00/lv01
mke2fs 1.42.9 (28-Dec-2013)
文件系统标签=
OS type: Linux
块大小=4096 (log=2)
分块大小=4096 (log=2)
Stride=0 blocks, Stripe width=0 blocks
65280 inodes, 261120 blocks
13056 blocks (5.00%) reserved for the super user
第一个数据块=0
Maximum filesystem blocks=268435456
8 block groups
32768 blocks per group, 32768 fragments per group
8160 inodes per group
Superblock backups stored on blocks: 
        32768, 98304, 163840, 229376

Allocating group tables: 完成                            
正在写入inode表: 完成                            
Creating journal (4096 blocks): 完成
Writing superblocks and filesystem accounting information: 完成

[root@zzxt rpm-gpg]# mkdir /home/lvnew
[root@zzxt rpm-gpg]# mount -t ext4 /dev/vg00/lv01 /home/lvnew/
[root@zzxt rpm-gpg]# vi /etc/fstab
/dev/vg00/lv01 /home/lvnew ext4 defaults 0 0

4.4 lv扩容

硬盘新分区-分区格式化-创建pv-加入vg-扩容lv-扩容挂载点的文件系统

mkfs -t ext4 /dev/sdb2
pvcreate /dev/sdb2
vgextend vg00 /dev/sdb2              
lvdisplay 
lvextend -L 2G /dev/vg_test/lv_root     #扩展LV 2G为总大小 如果是增加4G 可写为 +4G
resize2fs /dev/vg_test/lv_root 2G
df -h

4.5 lv 缩小

卸载文件系统-检查坏块-缩小文件系统-缩小lv-重新挂载
缩小文件系统,建议缩小的空间低于剩余容量的50%

umount /home/lvnew
e2fsck -f /dev/vg00/lv01
resize2fs /dev/vg00/lv01 500M  #缩小到500m
lvreduce -L 500M /dev/vg00/lv01		#缩小到500m,如果是减少,可以是lvreduce -L -500M
mount  -t ext4 /home/lvnew

五、网络

使用命令 nm-connection-editor 命令可以进入图形界面配置,以下是命令行界面的配置
备注: linux6系统在配置网络之前请关闭NetworkManager守护进程,要不会无法进行更改配置。

5.1单网卡

动态ip
修改eth0的文件

[root@zzxt ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0  					#设备名
ONBOOT=yes  					#网络自启动
BOOTPROTO=dhcp 			# dhcp协议获取ip地址
DNSPEER=yes					#	不使用dhcp获取的dns地址,自己可以在/etc/resolv.conf中指定

静态ip
修改eth0的文件

[root@zzxt ~]# vi /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0						#设备名称
ONBOOT=yes						#是否开机自动启动
BOOTPROTO=static			#ip分配方式:none:不使用启动地址协议,bootp:BOOTP协议,dhcp:DHCP动态地址协议,static:静态地址协议
TYPE=Ethernet					#设备类型以太网
IPADDR=192.168.1.55
NETMASK=255.255.255.0
GATEWAY=192.168.1.254
USERCTL=no						#非root用户不运行控制该网络接口

修改完成后重启网络服务
systemctl restart network
输入ifconfig查看网络状态
ping网关看网络是否通畅

5.2双网卡

1、修改网卡配置
a、新建文件ifcfg-bond0

新建文件ifcfg-bond0
[root@zzxt ~]# vim /etc/sysconfig/network-scripts/ifcfg-bond0
DEVICE=bond0
ONBOOT=yes
BOOTPROTO=static
TYPE=Ethernet
USERCTL=no
IPADDR=192.168.1.55
NETMASK=255.255.255.0
GATEWAY=192.168.1.254

b、修改eth0的文件

[root@zzxt ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=none
TYPE=Ethernet
MASTER=bond0
SLAVE=yes
USERCTL=no

c、修改eth1的文件

[root@zzxt ~]# vim /etc/sysconfig/network-scripts/ifcfg-eth1
DEVICE=eth1
ONBOOT=yes 
BOOTPROTO=none
TYPE=Ethernet
MASTER=bond0
SLAVE=yes
USERCTL=no

2、加载bonding模块

vi /etc/modprobe.d/dist.conf 在文件的末尾加入
alias bond0 bonding
options bond0 mode=1 miimon=100

mode模式
0负载分担round-robin,需要接入交换机做端口聚合
1表示主备模式,即同时只有1块网卡在工作
2-6可以自行了解
miimon链路检查时间为100ms

3、将bond0设置为开机自动加载

vi /etc/rc.d/rc.local
在倒数第2行,增加一句
Ifenslave bond0 eth0 eth1

4、重启网卡

systemctl restart network

5、验证网卡绑定是否成功

输入ifconfig ,查看bond0,eth0,eth1三块网卡的MAC地址是否一样,如果一致,基本可以确定双网卡绑定已生效。

**备注:**有极小概率被指完成bond后带宽速率无法达到预想值,请直接配置三个网卡配置文件在ifcfg-bond0上加mode和miimon参数,然后省略下面的步骤直接重启网络测试一下

六、yum源

6.1 aliyum源

1.备份并删除原本的仓库文件

cd /etc/yum.repos.d/ 
mkdir allbak 
mv ./* allbak 

此时 /etc/yum.repos.d/底下就没有repo文件,此时无法使用yum工具,必须配置yum源,生成新的.repo文件
2.下载阿里云仓库文件

wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

3.清空原本yum缓存

yum clean all

4.生成新的阿里云的yum缓存,加速下载预热数据

yum makecache

6.2本地yum源

使用光盘做本地yum源

mount -o loop /dev/sr0 /mnt
 
vi /etc/yum.repos.d/mnt.repo
 
[mnt]
name=mnt
baseurl=file:///mnt
enabled=1

yum clean all
yum list |wc -l

导入key,不执行可能会报错
rpm --import /etc/pki/rpm-gpg/RPM-GPG-KEY-*

6.3局域网yum源

使用局域网的yum服务器做源,只需要写配置文件

vi /etc/yum.repos.d/rhel7.repo

[rhel-media]
name=rhel7
baseurl=http://192.168.3.2/   # 指向yum源服务器
enabled=1
gpgcheck=0
gpgkey=http://192.168.3.2/RPM-GPG-KEY-redhat-release  #key路径需要修改

yum clean all
yum list |wc -l

七、时钟同步

这里使用的是chrony服务
chrony 是网络时间协议(NTP)的通用实现。
chrony 包含两个程序:chronyd 是一个可以在启动时启动的守护程序。chronyc 是一个命令行界面程序,用于监视 chronyd 的性能并在运行时更改各种操作参数。
安装启动chrony

yum -y install chrony
systemctl enable chronyd
systemctl start chronyd

修改服务配置文件,注意两个地方

vim /etc/chrony.conf
server 0.centos.pool.ntp.org iburst  #修改自己想配置的时钟同步服务器
allow 192.168.0.0/16  				 #允许该网段向自己进行同步时间,如果本机想配置成为时钟同步服务器,请取消注释并配置

修改后生效

修改后重启服务
systemctl restart chronyd
查看时间同步状态
timedatectl status
查看时间同步源   
chronyc sources -v
时间同步源状态
chronyc sourcestats -v

八、创建应用用户

正常如果没有特殊要求的话useradd就可以满足,以下介绍一种非常稳妥的添加用户的方式,可以指定用户id用户组名和id,根据需求自己修改,个人很推荐这样添加用户。
需要登陆root用户,以下命令中的username为例子,根据实际情况修改username即可:

创建用户组

groupadd -g 500 username

创建用户

useradd -d /home/username -u 2000 -g username username

设置用户密码

/bin/echo "username"|/usr/bin/passwd --stdin username

拷贝用户环境文件

/bin/cp /etc/skel/.bash*/home/username -r

修改用户家目录权限以及属组

cd /home
chown username: username /home/username
chmod 755 /home/username

九、安装JDK

有时需要手动安装指定版本的jdk,需要自行下载
jdk下载地址
https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
以1.8.0_144版本为例,其他版本请相应修改版本号。

解压JDK安装包

登陆用户:root,解压jdk-8u144-linux-x64.tar.gz到/usr/local目录,执行以下命令:

cd /usr/local
tar xvf jdk-8u144-linux-x64.tar.gz
chown -R root:root /usr/local/jdk1.8.0_144

配置全局环境变量

登陆用户:root,编辑/etc/profile文件

输入 vi /etc/profile 编辑环境变量控制文件
Shift+g跳转到文件末尾
按o在此文件末尾添加一下内容:
export JAVA_HOME=/usr/local/jdk1.8.0_144
export PATH=$JAVA_HOME/bin:$PATH
输入 :wq 保存并退出
生效环境变量 source /etc/profile

普通用户如配置变量

登录普通用户
vi ~/.bash_profile
最后添加两句:
export JAVA_HOME=/usr/local/jdk1.8.0_144
export PATH=$JAVA_HOME/bin:$PATH
保存退出后生效:
source ~/.bash_profile

检查环境变量

登陆相应用户,执行java –version,检查版本为1.8.0_144即可。


转载:https://blog.csdn.net/losersnake/article/details/108077159
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场