クラスタLustreFSまたは文字列上の世界

#include


多くの場合、サーバーのパフォーマンスの基礎はファイルシステムの速度です。 RAID0ディスクアレイを作成することで増やすことができます-書き込み/読み取りは両方のディスクでビット単位で行われますが、遅かれ早かれディスクスロットが終了し、RAID0の信頼性には多くの要望が残ります-ディスクの1つが離れると、システム全体がクラッシュします。 RAID10は再びディスクの数に依存します。



別の方法として、ネットワークfsを使用します。 NFSは最も広く使用されていましたが、スピードと非自明性を備えた戦闘タスクには、アクセス権の設定は実際には不適切です。

「GPFSとLustreFSの比較は、IBMとSUNの比較に似ています。」

インターネットから匿名。

世界のTOP-300スーパーコンピューターでは、最初の50人の半分がLustreFSを使用しています。これはセットアップが非常に簡単です。 シンプルなソリューションが適切なソリューションです。 設定は、3つの同一のs1 s2 s3サーバー、オペレーティングシステム-CentOS 5.4で実行されました。



構造はfsテーブルがMGS / MDTセクションに保存されるようなもので、ファイルごとのバランスを取る役割も果たします。 構造はRAID0に似ており、1つの(非MGS / MDT)デバイスに障害が発生した場合、システムは機能し続け、失われた戦闘機が戻ったときに完全に動作可能な状態に戻ります。

セクションはノードに結合され、サーバー、ファイルストレージなどがノードとして使用できます。

s1の2つのセクションを解放します:sda4〜50MBの構造とsda3の残りのスペース 他のサーバーでは、sda3のみで十分です。

int main()


1.リポジトリを作成します。

bash# cd /etc/yum.repos.d/

bash# cat lustre

[lustre]

name=RHEL/CentOS-$releasever lustre

baseurl=http://quattorsrv.lal.in2p3.fr/packages/lustre/

gpgcheck=0

enabled=1








2.カーネルとパッケージをインストールします

bash# yum install kernel-lustre.x86_64 lustre.x86_64







3.新しいカーネルで再起動します

bash# reboot







4. luster-modulesとluster-ldiskfsをインストールします

bash# yum install lustre-modules.x86_64 lustre-ldiskfs.x86_64







5. fsを操作するためのユーティリティは、 www.sun.com / software / products / luster / get.jspからダウンロードする必要がありますが、標準のユーティリティは私には機能しませんでした。 必要なファイルは1つだけです

bash# rpm -Uhv e2fsprogs-1.41.6.sun1-0redhat.rhel5.x86_64.rpm







6. MGSおよびMDTディスク(構造下)を作成し、マウントしてfstabに書き込みます

root@s1# mkfs.lustre --fsname=spfs --reformat --mdt --mgs /dev/sda4;

root@s1# mdkir /mgs-mds; mount -t lustre /dev/sda4 /mgs-mds;

root@s1# echo "/dev/sda4 /mgs-mds lustre defaults,_netdev 0 0" >> /etc/fstab;








7.データ、マウント、/ etc / fstabへの書き込みでOSTパーティションを作成します

root@s1# mkfs.lustre --fsname=spfs --reformat --ost --mgsnode=192.168.0.1@tcp0 /dev/sda3

root@s1# mkdir /ost; mount -t lustre /dev/sda3/ost

root@s1# echo "/dev/sda3 /ost lustre defaults,_netdev 0 0" >> /etc/fstab








8. s2にログインし、手順1〜5を繰り返します



9.データを含むOSTパーティションを作成し、マウントし、/ etc / fstabに書き込みます

root@s2# mkfs.lustre --fsname=spfs --reformat --ost --mgsnode=192.168.0.1@tcp0 /dev/sda3

root@s2# mkdir -p /ost; mount -t lustre /dev/sda3 /ost

root@s2# echo "/dev/sda3 /ost lustre defaults,_netdev 0 0" >> /etc/fstab








10. s3、s4、... snに対して手順8〜9を繰り返します。



11.稼働中のシステムをマウントします

root@s2# mkdir -p /work

root@s2# echo "192.168.0.1@tcp0:/spfs /work lustre defaults 0 0" >> /etc/fstab

root@s2# mount /work






0を返す



All Articles