- 最新动态
- 功能总览
- 产品介绍
- 计费说明
- 快速入门
- 用户指南
- 最佳实践
-
API参考
- 使用前必读
- API概览
- 如何调用API
- API
- 应用示例
- 公共参数
- 权限和授权项
-
历史API
- 接口使用说明(OpenStack Nova API)
- 查询API版本信息(OpenStack Nova API)
- 裸金属服务器生命周期管理(OpenStack Nova API)
- 裸金属服务器状态管理(OpenStack Nova API)
- 裸金属服务器元数据管理(OpenStack Nova API)
- 裸金属服务器IP地址查询(OpenStack Nova API)
- 裸金属服务器规格查询(OpenStack Nova API)
- 裸金属服务器网卡管理(OpenStack Nova API)
- 裸金属服务器云硬盘管理(OpenStack Nova API)
- 裸金属服务器一维标签管理(OpenStack Nova API)
- 附录
- 修订记录
- SDK参考
-
私有镜像制作指南
- 制作镜像简介
- 制作环境准备
-
Linux镜像制作流程
- 软件准备
- 工具准备
- 创建linux虚拟机
- 安装虚拟机
- 启动引导文件修改(仅UEFI启动场景涉及)
- 虚拟机环境配置
- 安装Cloud-Init
- 配置Cloud-Init
- 查看Cloud-Init服务状态
- 修改引导的硬件设备驱动
- 安装bms-network-config软件包
- 安装network服务
- 安装SDI卡驱动
- 安装Hi1822网卡驱动
- 安装IB驱动(可选)
- 安装FusionServer/TaiShanServer服务器iDriver驱动
- 安装多路径软件(可选)
- 安装一键式重置密码插件
- 安全性配置
-
配置裸金属服务器远程登录
- x86:Oracle Linux 7.3/Oracle Linux 7.4/Red Hat 7系列/CentOS 7.2/CentOS 7.4/CentOS 7.5/CentOS 7.6
- x86:Oracle Linux 6系列/Red Hat 6系列/CentOS 6系列
- x86:SUSE 11 SP4
- ARM:CentOS 7
- x86:SUSE 12系列/SUSE 15系列/CentOS 7.3/EulerOS/OpenEuler/Oracle Linux 7.2
- ARM:EulerOS/OpenEuler
- x86:Ubuntu 16.04/Ubuntu 18.04
- ARM:Ubuntu 16.04、Ubuntu 18.04
- x86:Ubuntu 14.04/Debian
- 配置根分区自动扩盘
- 昇腾服务器驱动和固件安装升级
- 清理文件
- Windows镜像制作流程
- 关闭虚拟机并获取镜像
- 镜像格式转换
- FAQ
- 附录
- 修订记录
-
常见问题
- 通用类
- 实例类
- 计费类
- 密钥对与密码类
- 登录类
-
网络与安全类
- 不同账号下裸金属服务器内网是否可以互通?
- 同一区域、不同可用区的两台裸金属服务器如何通信?
- 我创建的裸金属服务器是否在同一子网?
- 裸金属服务器是否可以关联多个安全组?
- 裸金属服务器可以和同一VPC内的弹性云服务器通信吗?
- 裸金属服务器的主网卡和扩展网卡在使用上有什么区别?
- 裸金属服务器可以绑定多个弹性公网IP吗?
- 是否可以手动设置弹性公网IP的地址?
- 已释放的弹性公网IP,再次申请会分配相同的EIP地址吗?
- 弹性公网IP、私有IP、虚拟IP之间有什么区别?
- 在只能使用SSH登录裸金属服务器的情况下,如何修改裸金属服务器的网络配置或重启网络?
- 如何处理CentOS 7系列扩展网卡无法ping通的问题?
- 如何处理业务端口被一键式重置密码插件占用?
- 如何处理裸金属服务器主网卡和扩展网卡共平面通信异常问题?
- 如何设置裸金属服务器的静态IP?
- 裸金属服务器绑定128个eth网络设备时,网络性能差,如何解决?
- 磁盘类
-
操作系统类
- 我能否自己安装或者升级操作系统?
- 裸金属服务器能否更换操作系统?
- 裸金属服务器操作系统是否有图形界面?
- 裸金属服务器操作系统自带上传工具吗?
- 裸金属服务器的公共镜像是否存在Swap分区?
- 如何设置裸金属服务器的静态主机名?
- 如何设置裸金属服务器镜像密码的有效期?
- 如何设置SSH服务配置项?
- Windows裸金属服务器的系统时间与本地时间相差8小时,如何处理?
- Windows Server 2012裸金属服务器如何修改SID值?
- CentOS 7系列裸金属服务器如何切换内核版本?
- 根分区自动扩盘的场景下,如何隔离日志空间大小?
- 误升内核的场景,如何回退至原始内核版本?
- 如何增加系统Swap交换分区的大小?
- 如何扩展快速发放裸金属服务器的根分区大小?
- Linux操作系统常用命令速查
- 重新挂载lvm卷后如何更新磁盘metadata信息
- Windows云盘裸机HA之后网络不通如何恢复?
- 故障排除
- 视频帮助
-
更多文档
- 用户指南(巴黎区域)
- API参考 (巴黎区域)
- 通用参考
链接复制成功!
配置增强高速网卡(Ubuntu系列)
下面以Ubuntu 16.04 LTS (Xenial Xerus x86_64)操作系统为例,举例介绍裸金属服务器增强高速网卡的bond配置方法:
Ubuntu系列其他操作系统的配置方法与Ubuntu 16.04 LTS (Xenial Xerus x86_64)类似。
增加网卡
- 以“root”用户,使用密钥或密码登录裸金属服务器。
- 进入裸金属服务器的命令行界面,查询网卡信息。
ip link
返回信息示例如下:
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1 link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo valid_lft forever preferred_lft forever inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 8888 qdisc mq master bond0 state UP group default qlen 1000 link/ether fa:16:00:9b:91:c3 brd ff:ff:ff:ff:ff:ff 3: eth1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 8888 qdisc mq master bond0 state UP group default qlen 1000 link/ether fa:16:00:9b:91:c3 brd ff:ff:ff:ff:ff:ff 4: p5p1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e4:1d brd ff:ff:ff:ff:ff:ff 5: p5p2: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e4:1e brd ff:ff:ff:ff:ff:ff 6: p4p1: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e3:a9 brd ff:ff:ff:ff:ff:ff 7: p4p2: <BROADCAST,MULTICAST> mtu 1500 qdisc noop state DOWN group default qlen 1000 link/ether 40:7d:0f:52:e3:aa brd ff:ff:ff:ff:ff:ff 8: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:9b:91:c3 brd ff:ff:ff:ff:ff:ff inet 192.168.254.85/24 brd 192.168.254.255 scope global bond0 valid_lft forever preferred_lft forever inet6 fe80::f816:ff:fe9b:91c3/64 scope link valid_lft forever preferred_lft forever 9: bond0.3157@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:9c:1e:79 brd ff:ff:ff:ff:ff:ff inet 192.168.100.14/24 brd 192.168.100.255 scope global bond0.3157 valid_lft forever preferred_lft forever inet6 fe80::f816:ff:fe9c:1e79/64 scope link valid_lft forever preferred_lft forever 10: bond0.3159@bond0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 8888 qdisc noqueue state UP group default qlen 1000 link/ether fa:16:00:0a:2e:8e brd ff:ff:ff:ff:ff:ff inet 192.168.101.153/24 brd 192.168.101.255 scope global bond0.3159 valid_lft forever preferred_lft forever inet6 fe80::f816:ff:fe0a:2e8e/64 scope link valid_lft forever preferred_lft forever
说明:
其中,“eth0”和“eth1”为承载VPC网络的网络设备,“p5p1”、“p5p2”、“p4p1”和“p4p2”为承载增强高速网络的网络设备。下面步骤将使用“p4p1”和“p4p2”配置增强高速网卡bond。
- 执行以下命令,查看“/etc/udev/rules.d/”目录下是否有“80-persistent-net.rules”配置文件。
ll /etc/udev/rules.d/ | grep 80-persistent-net.rules
- 执行以下命令,将“/etc/udev/rules.d/70-persistent-net.rules”文件拷贝一份(文件名为“/etc/udev/rules.d/80-persistent-net.rules”)。
cp -p /etc/udev/rules.d/70-persistent-net.rules /etc/udev/rules.d/80-persistent-net.rules
- 设置udev规则。
将2中查询到的除“lo”、“eth0”、“eth1”和“bond0”以外的网卡和MAC对应关系添加到“/etc/udev/rules.d/80-persistent-net.rules”文件中,使得裸金属服务器重启复位后,网卡名称和顺序不会发生改变。
说明:
网卡的MAC地址和名称中的字母,请使用小写字母。
vim /etc/udev/rules.d/80-persistent-net.rules
修改后的示例如下:
SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="f4:4c:7f:5d:b6:fc", NAME="eth0" SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="f4:4c:7f:5d:b6:fd", NAME="eth1" SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="40:7d:0f:52:e4:1d", NAME="p5p1" SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="40:7d:0f:52:e4:1e", NAME="p5p2" SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="40:7d:0f:52:e3:a9", NAME="p4p1" SUBSYSTEM=="net", ACTION=="add", DRIVERS=="?*", ATTR{address}=="40:7d:0f:52:e3:aa", NAME="p4p2"
修改完成后,按“Esc”,输入:wq保存并退出。
- 执行以下命令,将网卡配置文件“/etc/network/interfaces.d/50-cloud-init.cfg”拷贝为“/etc/network/interfaces.d/60-cloud-init.cfg”。
cp -p /etc/network/interfaces.d/50-cloud-init.cfg /etc/network/interfaces.d/60-cloud-init.cfg
说明:
如果没有“/etc/network/interfaces.d/50-cloud-init.cfg”文件,请拷贝“/etc/network/interfaces”文件,依次执行以下命令:
mkdir /etc/network/interfaces.d
cp -p /etc/network/interfaces /etc/network/interfaces.d/60-cloud-init.cfg
- 执行以下命令,编辑“/etc/network/interfaces.d/60-cloud-init.cfg”,配置“p4p1”设备和“p4p2”设备的网络配置文件“/etc/network/interfaces.d/60-cloud-init.cfg”。
vim /etc/network/interfaces.d/60-cloud-init.cfg
按如下格式编辑:
auto p4p1 iface p4p1 inet manual bond_mode 1 bond-master bond1 bond_miimon 100 mtu 8888 auto p4p2 iface p4p2 inet manual bond_mode 1 bond-master bond1 bond_miimon 100 mtu 8888 auto bond1 iface bond1 inet static bond_miimon 100 bond-slaves none bond_mode 1 address 10.10.10.103 netmask 255.255.255.0 hwaddress 40:7d:0f:52:e3:a9 mtu 8888
其中,
- “p4p1”和“p4p2”为承载增强高速网络配置的网卡名称。
- “hwaddress”为“p4p1”设备对应的MAC地址。
- “address”的取值为给增强高速网络“bond1”配置的IP(给增强高速网络规划的IP地址在没有与VPC网段冲突的情况下可任意规划,需要通过增强高速网络通信的裸金属服务器须将增强高速网络配置在同一个网段)。
- “netmask”的取值为给增强高速网络“bond1”配置的IP的掩码。
各个设备的其他参数可参考如上信息进行配置,如“mtu”配置为“8888”,“bond_miimon”配置为“100”,“bond_mode”配置为“1”等。
修改完成后,按“Esc”,输入:wq保存并退出。
- 执行以下命令,启动bond网卡。
ifup p4p1
ifup p4p2
说明:
其中,“p4p1”和“p4p2”分别为承载增强高速网络的网卡。
- 执行以下命令,查看网卡设备的状态和“bond1”配置文件是否生效。
ip link
ifconfig
- 参见上述步骤,完成其他裸金属服务器的配置。
- 待其他裸金属服务器配置完成后,互相ping对端增强高速网络配置的同网段IP,检查是否可以ping通。
ping 10.10.10.102,返回如下:
[root@bms-ubuntu ~]# ping 10.10.10.102 -I bond1 PING 10.10.10.102 (10.10.10.102) from 10.10.10.103 bond1: 56(84) bytes of data. 64 bytes from 10.10.10.102: icmp_seq=1 ttl=64 time=0.681 ms 64 bytes from 10.10.10.102: icmp_seq=2 ttl=64 time=0.035 ms 64 bytes from 10.10.10.102: icmp_seq=3 ttl=64 time=0.031 ms 64 bytes from 10.10.10.102: icmp_seq=4 ttl=64 time=0.030 ms ^C --- 10.10.10.102 ping statistics --- 4 packets transmitted, 4 received, 0% packet loss, time 3342ms
如果需要配置VLAN,则按照以下步骤配置。
- 根据需要配置的VLAN,配置相应VLAN子接口。假设VLAN为316,执行以下命令,编辑“/etc/network/interfaces.d/60-cloud-init.cfg”。
vim /etc/network/interfaces.d/60-cloud-init.cfg
按以下格式编辑:
auto p4p1 iface p4p1 inet manual bond_mode 1 bond-master bond1 bond_miimon 100 mtu 8888 auto p4p2 iface p4p2 inet manual bond_mode 1 bond-master bond1 bond_miimon 100 mtu 8888 auto bond1 iface bond1 inet static bond_miimon 100 bond-slaves none bond_mode 1 address 10.10.10.103 netmask 255.255.255.0 hwaddress 40:7d:0f:52:e3:a9 mtu 8888 auto bond1.316 iface bond1.316 inet static bond_miimon 100 bond-slaves none bond_mode 1 address 10.10.0.103 netmask 255.255.255.0 hwaddress 40:7d:0f:52:e3:a9 mtu 8888
- 执行以下命令,启动bond网卡VLAN子接口。
ifup bond1.316
- 待其他裸金属服务器配置完成后,互相ping对端增强高速网络VLAN子接口的同网段IP,检查是否可以ping通。