HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    centos创建快照(centos 快照)

    发布时间:2023-04-14 07:29:00     稿源: 创意岭    阅读: 88        

    大家好!今天让创意岭的小编来大家介绍下关于centos创建快照的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    开始之前先推荐一个非常厉害的Ai人工智能工具,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端

    官网:https://ai.de1919.com

    创意岭作为行业内优秀的企业,服务客户遍布全球各地,如需了解SEO相关业务请拨打电话175-8598-2043,或添加微信:1454722008

    本文目录:

    centos创建快照(centos 快照)

    一、vmware扩展硬盘空间请打开父虚拟磁盘

    VMX虚拟机环境下CentOS扩展home磁盘空间

    需要删除快照,如果快照删除过程中取消了,vmware点击扩展时会出错提示:

    “在部分链上无法执行所调用的函数。请打开父虚拟磁盘”

    这是因为之前的快照删除时,有一些文件没有删除干净,这个时候重新创建一个快照,然后删除快照,耐心等待删除完,就可以扩展。可能会有warning,不用管,直接输入 y。

    VolGroup根据自己df -h展示出来的磁文件系统名称替换,比如我的电脑是centos,想把扩展磁盘放到home目录的分区下,通过df -h查看到home的文件系统是 /dev/mapper/centos-home ,那就可以将VolGroup替换为/dev/mapper/centos-home,其他盘一样操作。

    二、centos中虚拟机克隆和快照的区别

    区别:虚拟机克隆只是把某个虚拟机复制出来多一个而已,而快照是把某个虚拟机某个时刻的状态刻录出来,当这个虚拟机坏了,你就可以通过快照回复它之前的时刻的状态了,就可以继续用。

    三、如何使用RHEL/CentOS 7安装创建和管理LXC

    CentOS7.0中一个最主要的改变,就是切换到了systemd。它用于替代红帽企业版Linux前任版本中的SysV和Upstart,对系统和服务进行管理。systemd兼容SysV和Linux标准组的启动脚本。Systemd是一个Linux操作系统下的系统和服务管理器。它被设计成向后兼容SysV启动脚本,并提供了大量的特性,如开机时平行启动系统服务,按需启动守护进程,支持系统状态快照,或者基于依赖的服务控制逻辑。先前的使用SysV初始化或Upstart的红帽企业版Linux版本中,使用位于/etc/rc.d/init.d/目录中的bash初始化脚本进行管理。而在RHEL7/CentOS7中,这些启动脚本被服务单元取代了。服务单元以.service文件扩展结束,提供了与初始化脚本同样的用途。要查看、启动、停止、重启、启用或者禁用系统服务,你要使用systemctl来代替旧的service命令。注:为了向后兼容,旧的service命令在CentOS7中仍然可用,它会重定向所有命令到新的systemctl工具。使用systemctl来启动/停止/重启服务要启动一个服务,你需要使用如下命令:#systemctlstarthttpd.service这会启动httpd服务,就我们而言,ApacheHTTP服务器。要停掉它,需要以root身份使用该命令:#systemctlstophttpd.service要重启,你可以使用restart选项,如果服务在运行中,它将重启服务;如果服务不在运行中,它将会启动。你也可以使用try-start选项,它只会在服务已经在运行中的时候重启服务。同时,reload选项你也可以有,它会重新加载配置文件。#systemctlrestarthttpd.service#systemctltry-restarthttpd.service#systemctlreloadhttpd.service我们例子中的命令看起来会像下面这样:检查服务状态要检查服务状态,你可以使用status选项,看这里:#systemctlstatushttpd.service输出结果就像这样:它会告诉你运行中的服务的方方面面。使用启用/禁用服务来控制开机启动你也可以使用enable/disable选项来控制一个服务是否开机启动,命令如下:#systemctlenablehttpd.service#systemctldisablehttpd.service

    四、ceph 块存储rbd的使用,使用普通户创建和挂载rbd

    ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool create rbd1-data 32 32

    pool 'rbd1-data' created

    ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool ls

    device_health_metrics

    mypool

    .rgw.root

    default.rgw.log

    default.rgw.control

    default.rgw.meta

    myrbd1

    cephfs-metadata

    cephfs-data

    rbd1-data

    在存储池启用rbd:

    ceph@ceph-deploy:~/ceph-cluster$ ceph osd pool application enable rbd1-data rbd

    enabled application 'rbd' on pool 'rbd1-data'

    初始化存储池:

    ceph@ceph-deploy:~/ceph-cluster$ rbd pool init -p rbd1-data

    创建存储池映像文件:

    映像文件的管理都是rbd命令来执行,rbd可对映像执行创建,查看,删除,以及创建快照,克隆映像,删除快照,查看快照,快照回滚等管理操作

    ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img1 --size 3G --pool rbd1-data --image-format 2 --image-feature layering

    ceph@ceph-deploy:~/ceph-cluster$ rbd create data-img2 --size 5G --pool rbd1-data --image-format 2 --image-feature layering

    查看存储池映像文件

    ceph@ceph-deploy:~/ceph-cluster$ rbd list --pool rbd1-data

    data-img1

    data-img2

    列出映像更多信息

    ceph@ceph-deploy:~/ceph-cluster$ rbd list --pool rbd1-data -l

    NAME      SIZE  PARENT  FMT  PROT  LOCK

    data-img1  3 GiB            2           

    data-img2  5 GiB            2

    ceph@ceph-deploy:~/ceph-cluster$ rbd --image data-img1 --pool rbd1-data info

    rbd image 'data-img1':

    size 3 GiB in 768 objects

    order 22 (4 MiB objects)

    snapshot_count: 0

    id: 3ab91c6a62f5

    block_name_prefix: rbd_data.3ab91c6a62f5

    format: 2

    features: layering

    op_features:

    flags:

    create_timestamp: Thu Sep  2 06:48:11 2021

    access_timestamp: Thu Sep  2 06:48:11 2021

    modify_timestamp: Thu Sep  2 06:48:11 2021

    ceph@ceph-deploy:~/ceph-cluster$ rbd --image data-img1 --pool rbd1-data info --format json --pretty-format

    {

        "name": "data-img1",

        "id": "3ab91c6a62f5",

        "size": 3221225472,

        "objects": 768,

        "order": 22,

        "object_size": 4194304,

        "snapshot_count": 0,

        "block_name_prefix": "rbd_data.3ab91c6a62f5",

        "format": 2,

        "features": [

            "layering"

        ],

        "op_features": [],

        "flags": [],

        "create_timestamp": "Thu Sep  2 06:48:11 2021",

        "access_timestamp": "Thu Sep  2 06:48:11 2021",

        "modify_timestamp": "Thu Sep  2 06:48:11 2021"

    }

    镜像(映像)特性的启用和禁用

    特性包括:

    layering支持分层快照特性  默认开启

    striping条带化

    exclusive-lock:支持独占锁  默认开启

    object-map 支持对象映射,加速数据导入导出及已用空间特性统计等  默认开启

    fast-diff 快速计算对象和快找数据差异对比  默认开启

    deep-flatten  支持快照扁平化操作  默认开启

    journaling  是否记录日志

    开启:

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable object-map --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable fast-diff --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature enable exclusive-lock --pool rbd1-data --image data-img1

    禁止:

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable object-map --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable fast-diff --pool rbd1-data --image data-img1

    ceph@ceph-deploy:~/ceph-cluster$ rbd feature disable exclusive-lock --pool rbd1-data --image data-img1

    客户端使用块设备:

    首先要安装ceph-comman,配置授权

    [root@ceph-client1 ceph_data]# yum install -y http://mirrors.aliyun.com/ceph/rpm-octopus/el7/noarch/ceph-release-1-1.el7.noarch.rpm

    [root@ceph-client1 ceph_data]# yum install ceph-common -y 

    授权,

    ceph@ceph-deploy:/etc/ceph$ sudo -i

    root@ceph-deploy:~# cd /etc/ceph/           

    root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.admin.keyring root@192.168.241.21:/etc/ceph

    ubuntu系统:

    root@ceph-client2:/var/lib/ceph# apt install -y ceph-common

    root@ceph-deploy:/etc/ceph# sudo scp ceph.conf ceph.client.admin.keyring ceph@192.168.241.22:/tmp

    ceph@192.168.241.22's password:

    ceph.conf                                                                                                                  100%  270  117.7KB/s  00:00   

    ceph.client.admin.keyring

    root@ceph-client2:/var/lib/ceph# cd /etc/ceph/

    root@ceph-client2:/etc/ceph# cp /tmp/ceph.c* /etc/ceph/

    root@ceph-client2:/etc/ceph# ll /etc/ceph/

    total 20

    drwxr-xr-x  2 root root 4096 Aug 26 07:58 ./

    drwxr-xr-x 84 root root 4096 Aug 26 07:49 ../

    -rw-------  1 root root  151 Sep  2 07:24 ceph.client.admin.keyring

    -rw-r--r--  1 root root  270 Sep  2 07:24 ceph.conf

    -rw-r--r--  1 root root  92 Jul  8 07:17 rbdmap

    -rw-------  1 root root    0 Aug 26 07:58 tmpmhFvZ7

    客户端映射镜像

    root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img1

    rbd: sysfs write failed

    RBD image feature set mismatch. You can disable features unsupported by the kernel with "rbd feature disable rbd1-data/data-img1 object-map fast-diff".

    In some cases useful info is found in syslog - try "dmesg | tail".

    rbd: map failed: (6) No such device or address

    root@ceph-client2:/etc/ceph# rbd feature disable rbd1-data/data-img1 object-map fast-diff

    root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img1

    /dev/rbd0

    root@ceph-client2:/etc/ceph# rbd -p rbd1-data map data-img2

    格式化块设备admin映射映像文件

    查看块设备

    root@ceph-client2:/etc/ceph# lsblk

    NAME  MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

    sda      8:0    0  20G  0 disk

    └─sda1  8:1    0  20G  0 part /

    sr0    11:0    1 1024M  0 rom 

    rbd0  252:0    0    3G  0 disk

    rbd1  252:16  0    5G  0 disk

    root@ceph-client2:/etc/ceph# mkfs.ext4 /dev/rbd1

    mke2fs 1.44.1 (24-Mar-2018)

    Discarding device blocks: done                           

    Creating filesystem with 1310720 4k blocks and 327680 inodes

    Filesystem UUID: 168b99e6-a3d7-4dc6-9c69-76ce8b42f636

    Superblock backups stored on blocks:

    32768, 98304, 163840, 229376, 294912, 819200, 884736

    Allocating group tables: done                           

    Writing inode tables: done                           

    Creating journal (16384 blocks): done

    Writing superblocks and filesystem accounting information: done

    挂在挂设备

    root@ceph-client2:/etc/ceph# mkdir /data/data1 -p

    root@ceph-client2:/etc/ceph# mount /dev/rbd1 /data/data1/

    验证写入数据:

    root@ceph-client2:/etc/ceph# cd /data/data1/

    root@ceph-client2:/data/data1# cp /var/log/ . -r

    root@ceph-client2:/data/data1# ceph df

    --- RAW STORAGE ---

    CLASS    SIZE    AVAIL    USED  RAW USED  %RAW USED

    hdd    220 GiB  213 GiB  7.4 GiB  7.4 GiB      3.37

    TOTAL  220 GiB  213 GiB  7.4 GiB  7.4 GiB      3.37

    --- POOLS ---

    POOL                  ID  PGS  STORED  OBJECTS    USED  %USED  MAX AVAIL

    device_health_metrics  1    1      0 B        0      0 B      0    66 GiB

    mypool                  2  32  1.2 MiB        1  3.5 MiB      0    66 GiB

    .rgw.root              3  32  1.3 KiB        4  48 KiB      0    66 GiB

    default.rgw.log        4  32  3.6 KiB      209  408 KiB      0    66 GiB

    default.rgw.control    5  32      0 B        8      0 B      0    66 GiB

    default.rgw.meta        6    8      0 B        0      0 B      0    66 GiB

    myrbd1                  7  64  829 MiB      223  2.4 GiB  1.20    66 GiB

    cephfs-metadata        8  32  563 KiB      23  1.7 MiB      0    66 GiB

    cephfs-data            9  64  455 MiB      129  1.3 GiB  0.66    66 GiB

    rbd1-data              10  32  124 MiB      51  373 MiB  0.18    66 GiB

    创建普通用户并授权

    root@ceph-deploy:/etc/ceph# ceph auth add client.huahualin mon "allow rw"  osd "allow rwx pool=rbd1-data"

    added key for client.huahualin

    root@ceph-deploy:/etc/ceph# ceph-authtool --create-keyring ceph.client.huahualin.keyring

    creating ceph.client.huahualin.keyring

    root@ceph-deploy:/etc/ceph# ceph auth  get client.huahualin -o ceph.client.huahualin.keyring

    exported keyring for client.huahualin

    使用普通用户创建rbd

    root@ceph-deploy:/etc/ceph# scp ceph.conf ceph.client.huahualin.keyring  root@192.168.241.21:/etc/ceph/

    普通用户映射镜像

    [root@ceph-client1 ~]# rbd --user huahualin --pool rbd1-data map data-img2

    /dev/rbd0

    使用普通用户挂载rbd

    [root@ceph-client1 ~]# mkfs.ext4 /dev/rbd0

    [root@ceph-client1 ~]# fdisk -l /dev/rbd0

    [root@ceph-client1 ~]# mkdir /data

    [root@ceph-client1 ~]# mount  /dev/rbd0 /data

    [root@ceph-client1 ~]# df -Th

    Filesystem              Type      Size  Used Avail Use% Mounted on

    devtmpfs                devtmpfs  475M    0  475M  0% /dev

    tmpfs                  tmpfs    487M    0  487M  0% /dev/shm

    tmpfs                  tmpfs    487M  7.7M  479M  2% /run

    tmpfs                  tmpfs    487M    0  487M  0% /sys/fs/cgroup

    /dev/mapper/centos-root xfs        37G  1.7G  36G  5% /

    /dev/sda1              xfs      1014M  138M  877M  14% /boot

    tmpfs                  tmpfs      98M    0  98M  0% /run/user/0

    192.168.241.12:6789:/  ceph      67G  456M  67G  1% /ceph_data

    /dev/rbd0              ext4      4.8G  20M  4.6G  1% /data

    挂载rbd后会自动加载模块libceph.ko

    [root@ceph-client1 ~]# lsmod |grep ceph

    ceph                  363016  1

    libceph              306750  2 rbd,ceph

    dns_resolver          13140  1 libceph

    libcrc32c              12644  4 xfs,libceph,nf_nat,nf_conntrack

    [root@ceph-client1 ~]# modinfo libceph

    filename:      /lib/modules/3.10.0-1160.el7.x86_64/kernel/net/ceph/libceph.ko.xz

    license:        GPL

    description:    Ceph core library

    author:        Patience Warnick <patience@newdream.net>

    author:        Yehuda Sadeh <yehuda@hq.newdream.net>

    author:        Sage Weil <sage@newdream.net>

    retpoline:      Y

    rhelversion:    7.9

    srcversion:    D4ABB648AE8130ECF90AA3F

    depends:        libcrc32c,dns_resolver

    intree:        Y

    vermagic:      3.10.0-1160.el7.x86_64 SMP mod_unload modversions

    signer:        CentOS Linux kernel signing key

    sig_key:        E1:FD:B0:E2:A7:E8:61:A1:D1:CA:80:A2:3D:CF:0D:BA:3A:A4:AD:F5

    sig_hashalgo:  sha256

    如果镜像空间不够用了,我们可以做镜像空间的拉伸,一般不建议减小

    查看rdb1-data存储池的镜像

    [root@ceph-client1 ~]# rbd ls -p rbd1-data -l

    NAME      SIZE  PARENT  FMT  PROT  LOCK

    data-img1  3 GiB            2           

    data-img2  5 GiB            2 

    比如data-img2空间不够了,需要拉伸,将data-img2扩展到8G

    [root@ceph-client1 ~]# rbd resize --pool rbd1-data --image data-img2 --size  8G

    Resizing image: 100% complete...done.

    可以通过fdisk -l查看镜像空间大小,但是通过df -h就看不到

    [root@ceph-client1 ~]# lsblk

    NAME            MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT

    sda              8:0    0  40G  0 disk

    ├─sda1            8:1    0    1G  0 part /boot

    └─sda2            8:2    0  39G  0 part

      ├─centos-root 253:0    0  37G  0 lvm  /

      └─centos-swap 253:1    0    2G  0 lvm  [SWAP]

    sr0              11:0    1 1024M  0 rom 

    rbd0            252:0    0    8G  0 disk /data

    [root@ceph-client1 ~]# fdisk -l /dev/rbd0

    Disk /dev/rbd0: 8589 MB, 8589934592 bytes, 16777216 sectors

    Units = sectors of 1 * 512 = 512 bytes

    Sector size (logical/physical): 512 bytes / 512 bytes

    I/O size (minimum/optimal): 4194304 bytes / 4194304 bytes

    将挂载设置开机启动

    [root@ceph-client1 ~]# vi /etc/rc.d/rc.local

    rbd --user huahualin --pool rbd1-data map data-img2

    mount /dev/rbd0 /data

    [root@ceph-client1 ~]# chmod a+x  /etc/rc.d/rc.local

    [root@ceph-client1 ~]# reboot

    以上就是关于centos创建快照相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    excel快照功能(excel保存快照在哪)

    kms激活命令(office kms激活命令)

    杭州女网红saya(杭州女网红瞒着CEO男友)

    嘉兴园林景观设计院(嘉兴园林景观设计院怎么样)

    免费签名logo设计(签名logo设计在线生成)