Proxmoxのクラスターストレージ。 パート3。 ニュアンス

こんにちは



記事の3番目の部分は、前の2つの付録の一種で、Proxmoxクラスターでの作業について説明しました。 このパートでは、Proxmoxでの作業で発生した問題とその解決方法について説明します。



許可されたiSCSI接続



iSCSIに接続するときにcreditsyalを指定する必要がある場合は、 Proxmoxをバイパスしてこれを行うことをお勧めします。 なんで?





手動での接続が簡単



root@srv01-vmx:~# iscsiadm -m discovery -t st -p 10.11.12.13 root@srv01-vmx:~# iscsiadm -m node --targetname "iqn.2012-10.local.alawar.ala-nas-01:pve-cluster-01" --portal "10.11.12.13:3260" --op=update --name node.session.auth.authmethod --value=CHAP root@srv01-vmx:~# iscsiadm -m node --targetname "iqn.2012-10.local.alawar.ala-nas-01:pve-cluster-01" --portal "10.11.12.13:3260" --op=update --name node.session.auth.username --value=Admin root@srv01-vmx:~# iscsiadm -m node --targetname "iqn.2012-10.local.alawar.ala-nas-01:pve-cluster-01" --portal "10.11.12.13:3260" --op=update --name node.session.auth.password --value=Lu4Ii2Ai root@srv01-vmx:~# iscsiadm -m node --targetname "iqn.2012-10.local.alawar.ala-nas-01:pve-cluster-01" --portal "10.11.12.13:3260" --login
      
      





これらのコマンドは、クラスターのすべてのノードで必要なターゲットを提供するすべてのポータルに対して実行する必要があります。 または、これらのコマンドを1つのノードで実行し、残りの接続用の構成ファイルを配布できます。 ファイルは、ディレクトリ「 / etc / iscsi / nodes 」および「 / etc / iscsi / send_targets 」にあります。



新しいGFS2-FSノードでのマウント



GFS2ファイルシステムを新しいノードにマウントするには、もう1つのログを追加する必要がありますファイルシステム )。 これは次のように行われます。必要なFSがマウントされているクラスターのノードで、コマンドが実行されます。



 root@pve01:~# gfs2_jadd -j 1 /mnt/cluster/storage01
      
      





-j 」パラメーターは、 FSに追加するログの数を指定します。



このコマンドは失敗する可能性があります。



 create: Disk quota exceeded
      
      





エラーの原因:



GFS2ボリューム内には実際には1つのファイルシステムではなく、2つのファイルシステムがあります。 別のファイルシステムはビジネス用です。 必要に応じて、オプション「 -o meta 」を追加してマウントできます。 このFS内の変更は、データファイルシステムの破壊につながる可能性があります。 ログをFSに追加すると、 メタファイルシステムはディレクトリ「 / tmp / TEMP_RANDOM_DIR 」にマウントされ、その後ログファイルがその中に作成されます。 不明な理由により、カーネルは、オブジェクトを作成するためのマウントされたクォータがマウントされたmeta-FSを超えていると時々信じます。そのため、このエラーが発生します。 GFS2にデータを再マウントして( このFSにあるすべての仮想マシンを停止する必要があるので)この状況から抜け出し、add logコマンドを再度実行してください。 また、ログを追加する最後の失敗した試行からmeta-FSをアンマウントする必要があります。



 cat /proc/mounts | grep /tmp/ | grep -i gfs2 | awk '{print $2}' | xargs umount
      
      





コンテナ内にデータソースをマウントする



コンテナー仮想化テクノロジーは、ホストが仮想マシンと通信するためのほぼ無限の可能性があるため、優れています。



コンテナが起動すると、 vzctlは次の一連のスクリプト( 存在する場合 )を実行しようとします。





停止すると、次のスクリプトが実行されます。





ここで、「 CTID 」はコンテナ番号です。 「 vps。* 」スクリプトは、コンテナの操作中に実行されます。 スクリプト「 * .start 」および「 * .stop 」はコンテナのコンテキストで実行され、残りはすべてホストのコンテキストで実行されます。 したがって、コンテナにデータマウントを追加することで、コンテナの開始/停止プロセスをスクリプト化できます。 以下に例を示します。



コンテナ内にデータディレクトリをマウントする


コンテナが大量のデータを処理する場合、このデータをコンテナ内に保存せず、ホストからマウントしようとします。 このアプローチには、2つの肯定的な側面があります。



  1. コンテナは小さく、すぐにProxmoxによってバックアップされます。 コンテナの機能をすばやく復元/複製する機会がいつでもあります。
  2. コンテナデータは、それが提供するすべての設備(マルチレベルバックアップ、ローテーション、統計など)を備えた成人用バックアップシステムによって集中的にバックアップできます。


ファイル「 CTID.mount 」の内容:



 #!/bin/bash . /etc/vz/vz.conf #        OpenVZ.  ,     ${VE_ROOT} -     . . ${VE_CONFFILE} #       DIR_SRC=/storage/src_dir #   ,      DIR_DST=/data #   ,     $DIR_SRC mkdir -p ${VE_ROOT}/${DIR_DST} #      mount -n -t simfs ${DIR_SRC} ${VE_ROOT}/{$DIR_DST} -o /data #    
      
      





コンテナ内にファイルシステムをマウントする


ホストには、コンテナに指定する必要があるものがあります。 ファイル「 CTID.mount 」の内容:



 #!/bin/bash . /etc/vz/vz.conf . ${VE_CONFFILE} UUID_SRC=3d1d8ec1-afa6-455f-8a27-5465c454e212 # UUID ,      DIR_DST=/data mkdir -p ${VE_ROOT}/${DIR_DST} mount -n -U ${UUID_SRC} ${VE_ROOT}/{$DIR_DST}
      
      





コンテナ内のファイルにファイルシステムをマウントする


なぜこれが必要なのですか? トリッキーな製品( たとえば、 Splunk )がsimfsを使用したくない場合 、または特定の条件下でGFS2の速度に満足できない場合。 たとえば、小さなファイルのヒープに何らかのキャッシュがあります。 GFS2は、大量の小さなファイルでは非常に速く動作しません。 次に、 GFS2ext3 )とは異なるファイルシステムをホスト上に作成し、コンテナーに接続できます。



ループデバイスをファイルからコンテナにマウントします



まず、ファイルを作成します。



 root@srv01:/storage# truncate -s 10G CTID_ext3.fs
      
      





ファイル内のFSをフォーマットします。



 root@srv01:/storage# mkfs.ext3 CTID_ext3.fs mke2fs 1.42 (29-Nov-2011) CTID_ext3.fs is not a block special device. Proceed anyway? (y,n) y ...
      
      





ファイル「 CTID.mount 」の内容:



 #!/bin/bash . /etc/vz/vz.conf . ${VE_CONFFILE} CFILE_SRC=/storage/CTID_ext3.fs #   ,      DIR_DST=/data mkdir -p ${VE_ROOT}/${DIR_DST} mount -n ${CFILE_SRC} -t ext3 ${VE_ROOT}/{$DIR_DST} -o loop
      
      





停止時にコンテナ内の外部データをアンマウントする


コンテナが停止すると、システムはそれに接続されているすべてのファイルシステムを自動的にアンマウントしようとします。 しかし、特にエキゾチックな構成では、彼女はこれを行うことができません。 したがって、 念のため、単純なスクリプト「 CTID.umount 」の例を次に示します。



 #!/bin/bash . /etc/vz/vz.conf . ${VE_CONFFILE} DIR=/data if mountpoint -q "${VE_ROOT}${DIR}" ; then umount ${VE_ROOT}${DIR} fi
      
      





クラスター化されていないファイルシステムを使用するクラスターで作業する



何らかの理由でクラスターFSを使用する必要がない場合( 作業の安定性に適さない、パフォーマンスに適さないなど )、単一のリポジトリーで作業する場合、このオプションは可能です。 これには次のものが必要です。





手続き



各クラスターノードには、 CLVMで独自の論理ボリュームがあり、フォーマットします。



主記憶域を作成します。 クラスターのすべてのノードに同じ名前のディレクトリを作成します( たとえば、「/ storage」 )。 論理ボリュームをその中にマウントします。 Proxmox管理パネルで、タイプ「 Directory 」のストレージを作成し 、「 STORAGE 」などの名前を付けて、共有されていないことを伝えます。



バックアップストレージを作成します。 クラスターのすべてのノードに同じ名前のディレクトリを作成します( 例: "/ storage2" )。 Proxmox管理パネルで、「 Directory 」タイプのリポジトリを作成し 、「 STORAGE2 」などの名前を付けて、共有されていないことを伝えます。 ノードの1つが落下/シャットダウンした場合、そのボリュームをクラスターのそのノードの「 / storage2ディレクトリにマウントします。



結果として私たちには何がありますか:





なぜ「 」で、なぜ「 理論的に 」:



仮想マシンは、「 / storage 」ディレクトリにある「 STORAGE 」リポジトリに存在します。 デッドノードからのディスクは、「 / storage2ディレクトリにマウントされ、 Proxmoxはコンテナを参照しますが、そこからコンテナを起動することはできません。 このストレージにある仮想マシンを上げるには、次の3つのアクションを実行する必要があります。



  1. 火災の被害者に、彼らの新しい家が「 / storage 」ディレクトリではなく、 / storage2ディレクトリであることを知らせるため。 これを行うには、ディレクトリ「 / etc / pve / nodes / dead_name / openvz 」の各ファイル「 * .conf 」で、 VE_PRIVATE変数の内容を「 / storage / private / CTID 」から「 / storage2 // private / CTID 」に変更します。
  2. その無生物ノードからの仮想コンピューターが、現在この稼働中のノードに配置されていることをクラスターに伝えます。 これを行うには、すべてのファイルをディレクトリ「 / etc / pve / nodes / dead_name / openvz 」からディレクトリ「 / etc / pve / nodes / live_node / openvz 」に転送するだけです。 おそらくこれには何らかの正しいAPI命令がありますが、私たちはこれを気にしませんでした:)
  3. 焦げたコンテナごとにクォータをリセットします(念のため)。



     vzquota drop CTID
          
          







それだけです コンテナを実行できます。



デッドノードからのコンテナがスペースをほとんど占有しない場合、または非常に高速なディスクがある場合、または待つ余裕がある場合、必要なコンテナを「 / storage2 / private 」から「 / storage / private



クラスターがバラバラになった場合



クラスターは不機嫌な生き物であり、ポーズになることもあります。 たとえば、ネットワークの大規模な問題の後、または大規模な停電によるものです。 ポーズは次のようになります。クラスターストレージにアクセスすると、現在のセッションがブロックされ、フェンスドメインのステータスをポーリングすると、「 待機状態メッセージ 」という形式のアラームメッセージが表示され、接続エラーがdmesgに注がれます。



クラスターを復活させようとしても成功しない場合、最も簡単なことは、クラスターのすべてのノードのフェンスドメインへの自動エントリを無効にし( ファイル "/ etc / default / redhat-c​​luster-pve" )、すべてのノードを順番に再起動することです。 ノードが単独で再起動できないという事実に備えなければなりません。 すべてのノードが再起動したら、 フェンスドメインに手動で接続し、 CLVMを起動します。 以前の記事では、これを行う方法を書いています。



おそらくそれだけです。



次のパートでは、クラスター内の作業を自動化する方法について説明します。



ご清聴ありがとうございました!






All Articles