Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
日本ヒューレット・パッカード
Open Source/Linux技術文書
LifeKeeper for Linux
インストレーションガイド
HPE MSA2040 iSCSI Storageマルチパス編
(第1版)
日本ヒューレット・パッカード株式会社
2016年2月22日
2
目次
[本ドキュメントについて] .....................................................................................................3
1.環境 ......................................................................................................................................4
2.設定手順 ...............................................................................................................................4
2-1. MSA2040 iSCSIと DL380p Gen8でマルチパス共有ディスクの構成を構築 ....................5
2-2.ノード 1とノード 2に Red Hat Enterprise Linux 6.6をインストール .......................5
2-3.SPP(Service Pack for ProLiant)の適用 ....................................................................6
2-4. MSA2040(iSCSIモデル) Storageの設定 ........................................................................6
2-5.ノード 1で Device Mapper Multipath のインストール・設定 .....................................12
2-6.ノード 2で Device Mapper Multipath のインストール・設定 .....................................14
2-7.ネットワークの確立 .......................................................................................................15
2-8.ノード(ホスト名)の名前解決設定 .............................................................................16
2-9./etc/fstabファイルの編集 ...........................................................................................16
2-10. LifeKeeper for Linux で使用するポート .................................................................16
2-11.SELinuxの無効化 ..........................................................................................................16
2-12.LifeKeeperのインストール .........................................................................................17
2-13.License Keyのインストール .......................................................................................23
2-14.LifeKeeperの起動と停止 .............................................................................................24
2-15.LifeKeeper GUIの起動 ................................................................................................25
2-16.クラスターの設定 .........................................................................................................27
2-17.ファイルシステムリソースの作成 ...............................................................................33
3
[本ドキュメントについて] 本ドキュメントの内容については充分チェックをしておりますが、その正確性を保証す
る物ではありません。また、将来、予告なしに変更することがあります。
本ドキュメントの使用で生じるいかなる結果も利用者の責任となります。日本ヒュー
レット・パッカード株式会社は、本ドキュメントの内容に一切の責任を負いません。
本ドキュメントの技術情報は、ハードウェア構成、OS、アプリケーションなど使用環境
により大幅に数値が変化する場合がありますので、十分なテストを個別に実施されるこ
とを強くお薦め致します。
本ドキュメント内で表示・記載されている会社名・サービス名・商品名等は各社の商標
又は登録商標です。
本ドキュメントで提供する資料は、日本の著作権法、条約及び他国の著作権法にいう著
作権により保護されています。
4
本ドキュメントは、HPE MSA 2040ストレージと2台のProLiantサーバーでマルチパス共有ディ
スクを構成した環境に対して、LifeKeeper for Linux v9.0.1クラスターを導入し、マルチ
パス共有ディスクをファイルシステムリソースとしてリソース登録するためのガイドです。
注)当資料が対象とするバージョン以外のOS、Device Mapper Multipath、LifeKeeper for
Linuxをご使用の場合は、インストールや設定の手順が異なる場合があります。その場合は、
ご使用のバージョンのマニュアルやRelease Notes等に記載された手順に従ってください。
1.環境 実際に使用した環境は、以下になります。
H/W環境
サーバー:HPE ProLiant DL380p Gen8
CPU:Intel(R) Xeon(R) CPU E5-2690 v2 @3 GHz
メモリ:64GB
RAIDコントローラ:SmartアレイP420i/1GB FBWCコントローラ
iSCSI用ネットワークアダプター:HPE ETHERNET 10GB2ポート 530T ネットワーク
ストレージシステム:HPE MSA2040 iSCSI
S/W環境
O/S:Red Hat Enterprise Linux 6.6 kernel-2.6.32-504.el6.x86_64
クラスターソフトウェア:LifeKeeper for Linux v9.0.1
iSCSIイニシエーター:iscsi-initiator-utils-6.2.0.873-13.el6.x86_64
iSCSI用ネットワークドライバ:
Broadcom NetXtreme II 5771x/578xx 10/20-Gigabit Ethernet Driver bnx2x 1.78.19-0
DMMP ソフトウェア: device-mapper-multipath-0.4.9-80.el6.x86_64
2台のサーバー(DL380p Gen8)でクラスターを構成します。各サーバーのOSや設定は同一にし
ます。それぞれのサーバー上の OS,ホストを、本ドキュメントではクラスターに所属するホ
ストを示すノード1、ノード2と表記します。
2.設定手順 実際の手順の流れは以下になります。
1) MSA2040 iSCSIとDL380p Gen8でマルチパス共有ディスクの構成を構築
2) ノード1とノード2にRed Hat Enterprise Linux 6.6をインストール
3) SPP(Service Pack for ProLiant)の適用
4) MSA2040(iSCSIモデル) Storageの設定
5) ノード1でDevice Mapper Multipathのインストール・設定
6) ノード2でDevice Mapper Multipathのインストール・設定
7) ネットワークの確立
8) ノード(ホスト名)の名前解決設定
9) /etc/fstabファイルの編集
10) LifeKeeper for Linux で使用するポート
11) SELinuxの無効化
12) LifeKeeperのインストール
13) License Keyのインストール
14) LifeKeeperの起動と停止
15) LifeKeeper GUIの起動
5
16) クラスターの設定
17) ファイルシステムリソースの作成
各項目の具体的な作業内容を以降に記述します。
2-1. MSA2040 iSCSI と DL380p Gen8でマルチパス共有ディスクの構成を構築
サーバー(DL380p Gen8)とストレージ(HPE MSA2040)を使用して、各サーバーからの
NIC4,NIC5のネットワークからそれぞれコントローラ A、コントローラ Bに1本ずつクロス
のネットワークケーブルで接続し、マルチパス構成を組みます。MSA2040 と接続するサー
バー側のネットワークカードには、10G bpsのデバイスを使用しています。
2-2.ノード 1とノード 2に Red Hat Enterprise Linux 6.6をインストール
ノード1とノード2にRed Hat Enterprise Linux 6.6をインストールします。この時、今回の
構成で必要となる以下のパッケージをインストールしてください。
bzip2-1.0.5-7.el6_0.x86_64.rpm
iproute-2.6.32-32.el6.x86_64.rpm
iputils-20071127-17.el6_4.2.x86_64.rpm
patch-2.6-6.el6.x86_64.rpm
redhat-lsb-4.0-7.el6.x86_64.rpm
sg3_utils-1.28-6.el6.x86_64.rpm
sg3_utils-libs-1.28-6.el6.x86_64.rpm
device-mapper-multipath-0.4.9-80.el6.x86_64.rpm
device-mapper-multipath-libs-0.4.9-80.el6.x86_64.rpm
iscsi-initiator-utils-6.2.0.873-13.el6.x86_64.rpm
6
2-3.SPP(Service Pack for ProLiant)の適用
以下のサイトを参考にして、各ノードにSPPを適用してください。SPPに含まれているドライ
バーよりも新しいバージョンのドライバーが個別に提供されている場合は、新しいバージョ
ンのドライバーを適用することを推奨します。
http://h50146.www5.hp.com/products/software/oe/linux/mainstream/support/doc/gener
al/mgmt/index.html#psp
SPP適用後、ノードを停止します。
# shutdown –h now
2-4. MSA2040(iSCSI モデル) Storageの設定
Storage Management Utility(SMU)にログインして、MSA2040 Storageの設定を行います。コ
ントローラネットワークポートに割り当てられた初期IPアドレスや、SMUへのログインに必
要なアカウントについては、「HPE MSA2040ユーザーガイド」をご確認ください。
A) SMUにブラウザーからアクセスしてログインします。
7
B) ログイン後は、以下の画面が表示されます。
C) ディスクのグループ化(RAID構築)を行う為”POOLS”タブに移動し、Actionメニュー
から“Add Disk Group”を選択します。
8
D) “Add Disk Group”画面が表示されます。RAIDレベルなどディスクグループを作成する
際の設定情報を選択し、右下の“Add”をクリックします。
E) 作成したディスクグループを使用して、ボリュームを作成します。Actionメニューから、
“Create Volumes”を選択します。
9
F) “Create Volumes”画面が表示されます。作成するボリューム数やVolume Nameを入力
し“OK”をクリックします。
G) “Volumes”タブに移動し、作成したボリュームを確認してください。
10
H) OSから作成したボリュームが認識されるように、iSCSIターゲットとしての設定を行い
ます。“Set Up Host Port”を選択します。
I) Portの設定を行います。OSのiSCSI Initiatorと通信可能なIPアドレスを割り当ててく
ださい。今回は、A1に192.168.1.2、A2に192.168.2.2、B1に192.168.3.2、B2に192.168.4.2
を割り当て、ノード側のNICからping による疎通が行えることを確認しています。
11
J) 認識したInitiatorを”Host”からとボリュームを選択して、“Map”をクリックしてマッ
ピングします。
K) 各ノードにログインしてiSCSI Initiatorの設定を行います。iscsi-initiator-utils
パッケージがインストールされているかどうか確認し、不足している場合は、追加イン
ストールを行ってください。
# rpm -qa | grep iscsi-initiator
iscsi-initiator-utils-6.2.0.873-13.el6.x86_64
L) 各ノードでiscsid を起動し、再起動の度に実行されるように設定します。
# /etc/init.d/iscsid start
# chkconfig iscsid on
M) iscsiadm コマンドを使用して、ターゲットボリュームを検出します。ノード毎に接続
しているポートに対して実行してください。
# iscsiadm -m discovery -t sendtargets -p 192.168.1.2
# iscsiadm -m discovery -t sendtargets -p 192.168.2.2
# iscsiadm -m discovery -t sendtargets -p 192.168.3.2
# iscsiadm -m discovery -t sendtargets -p 192.168.4.2
N) SMU に戻り“Map”画面が表示します。認識したInitiatorとボリュームを選択して、
“Map”をクリックしてマッピングします。マッピングが完了してから、“OK”を押し
ます。
O) OSを再起動して、割り当てられたボリュームがOSで認識されたことを確認してください。
12
2-5.ノード 1で Device Mapper Multipath のインストール・設定
ホストに割り当てられたディスクは、各CSI Initiatorで認識している為、同じディスクが
各SCSI Initiator経由で重複して認識されます。この重複したデバイスをOSでマルチパス・
デバイスとして認識させるため、Device Mapper Multipath(DMMP)パッケージのインストー
ル・およびDMMPの設定を行います。以下を実行してください。
A) ノード1にrootでログインします。
B) device-mapper-multipathとdevice-mapper-multipath-libsの2つがインストールされ
ているか確認して、入っていなければインストールしてください。
確認:
# rpm -qa | grep multipath
device-mapper-multipath-0.4.9-80.el6.x86_64
device-mapper-multipath-libs-0.4.9-80.el6.x86_64
インストール:
# rpm –ivh device-mapper-multipath-0.4.9-80.el6.x86_64.rpm
# rpm –ivh device-mapper-multipath-libs-0.4.9-80.el6.x86_64.rpm
C) multipath.conf ファイルのテンプレートを /etcにコピーします。
# cp /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc
D) /etc/multipath.confファイルが作成されるので、MSA2040用に編集します。今回は、以
下のように編集していますが、実際の環境に合わせて編集してください。
defaults {
user_friendly_names yes
}
blacklist {
wwid 3600508b1001cec660720fc77b78ad145 5 <-- 非共有ディスクを WWID
で登録
}
devices {
device {
vendor "HP"
product "MSA 2040 SAN"
path_grouping_policy group_by_prio
getuid_callout "/lib/udev/scsi_id --whitelisted
--device=/dev/%n"
prio alua
path_selector "round-robin 0"
path_checker tur
hardware_handler "0"
failback immediate
rr_weight uniform
rr_min_io_rq 1
no_path_retry 18
13
}
}
E) multipathdデーモンを起動し、再起動後も自動的に起動するよう設定します。
# service multipathd start
# chkconfig multipathd on
F) MSA2040 に作成したLUN(volume)に対応したmultipath deviceが、/dev/mapper下に生
成されている事を確認します。今回の環境では、multipath device名に、システム定義
によるuser_friendly_name(mpatha、mpathb、mpathc・・・mpath + アルファベットの
形式)を使用しています。
# ls /dev/mapper/ -l
合計 0
crw-rw---- 1 root root 10, 58 1月 21 17:11 2016 control
lrwxrwxrwx 1 root root 7 1月 21 17:20 2016 mpatha -> ../dm-2
lrwxrwxrwx 1 root root 7 1月 21 17:11 2016 vg_pd061-lv_root -> ../dm-0
lrwxrwxrwx 1 root root 7 1月 21 17:11 2016 vg_pd061-lv_swap -> ../dm-1
G) multipath device(/dev/mapper/mpatha等)毎に、2本のpath、即ち2個のblock device
(/dev/sdb等)が構成されている事を確認します。
# multipath -l
mpatha (3600c0ff000262be6bbf2615602000000) dm-2 HP,MSA 2040 SAN
size=33G features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=1 status=active
| `- 2:0:0:6 sdf 8:80 active ready running
`-+- policy='round-robin 0' prio=1 status=enabled
`- 3:0:0:6 sdae 65:224 active ready running
H) multipath deviceを構成しているblock deviceの1つとmultipath deviceに対してパー
ティションを作成します。
# fdisk /dev/mapper/mpatha
I) パーティションが正常に作成されているか確認します。
# ll /dev/mapper/ | grep mpatha
lrwxrwxrwx 1 root root 7 1月 21 17:20 2016 mpatha -> ../dm-2
lrwxrwxrwx 1 root root 7 1月 21 17:20 2016 mpathap1 -> ../dm-3
J) 該当デバイスに対してファイルシステムを作成します。下記はext4ファイルシステムを
作成する例です。
# mkfs.ext4 /dev/mapper/mpathap1
K) マウントポイントを作成します。
# mkdir /data
L) ファイルシステムをmountし、正常にマウント出来る事を確認します。
# mount /dev/mapper/mpathap1 /data
M) 正常にファイルを作成できることを確認します。
14
N) 動作確認終了後はアンマウントします。
# umount /data
2-6.ノード 2で Device Mapper Multipath のインストール・設定
ノード2でDevice Mapper Multipathのインストール・設定を行います。以下を実行してくだ
さい。
A) ノード2にrootでログインします。
B) device-mapper-multipathとdevice-mapper-multipath-libsの2つがインストールされ
ているか確認して、入っていなければインストールしてください。
確認:
# rpm -qa | grep multipath
device-mapper-multipath-0.4.9-80.el6.x86_64
device-mapper-multipath-libs-0.4.9-80.el6.x86_64
インストール:
# rpm –ivh device-mapper-multipath-0.4.9-80.el6.x86_64.rpm
# rpm –ivh device-mapper-multipath-libs-0.4.9-80.el6.x86_64.rpm
C) multipath.conf ファイルのテンプレートを/etcにコピーします。
# cp /usr/share/doc/device-mapper-multipath-0.4.9/multipath.conf /etc
D) /etc/multipath.confファイルが作成されるので、MSA2040用に編集します。今回は、以
下のように編集していますが、実際の環境に合わせて編集してください。
defaults {
user_friendly_names yes
}
blacklist {
wwid 3600508b1001cec660720fc77b78ad145 <-- 非共有ディスクを WWID で登録
}
devices {
device {
vendor "HP"
product "MSA 2040 SAN"
path_grouping_policy group_by_prio
getuid_callout "/lib/udev/scsi_id --whitelisted --device=/dev/%n"
prio alua
path_selector "round-robin 0"
path_checker tur
hardware_handler "0"
failback immediate
rr_weight uniform
rr_min_io_rq 1
no_path_retry 18
}
}
15
E) multipathdデーモンを起動し、再起動後も自動的に起動するよう設定します。
# service multipathd start
# chkconfig multipathd on
F) MSA2040に作成したLUN(volume)に対応したmultipath deviceが、/dev/mapper下に生
成されている事を確認します。今回の環境では、multipath device名に、システム定義
によるuser_friendly_name(mpatha、mpathb、mpathc・・・mpath + アルファベットの
形式)を使用しています。
# ls /dev/mapper/ -l
合計 0
crw-rw---- 1 root root 10, 58 1月 21 17:11 2016 control
lrwxrwxrwx 1 root root 7 1月 21 17:20 2016 mpatha -> ../dm-2
lrwxrwxrwx 1 root root 7 1月 21 17:20 2016 mpathap1 -> ../dm-3
lrwxrwxrwx 1 root root 7 1月 21 17:11 2016 vg_pd061-lv_root -> ../dm-0
lrwxrwxrwx 1 root root 7 1月 21 17:11 2016 vg_pd061-lv_swap -> ../dm-1
G) multipath device(/dev/mapper/mpatha等)毎に、2本のpath、即ち2個のblock device
(/dev/sdb等)が構成されている事を確認します。
# multipath -l
mpatha (3600c0ff000262be6bbf2615602000000) dm-2 HP,MSA 2040 SAN
size=33G features='0' hwhandler='0' wp=rw
|-+- policy='round-robin 0' prio=1 status=active
| `- 2:0:0:6 sdf 8:80 active ready running
`-+- policy='round-robin 0' prio=1 status=enabled
`- 3:0:0:6 sdae 65:224 active ready running
H) マウントポントを作成します。マウントポイント名は、必ずノード1と同一にしてくだ
さい。
# mkdir /data
I) ファイルシステムをmountし、正常にマウント出来る事を確認します。
# mount /dev/mapper/mpathap1 /data
J) 先ほど、ノード1で作成したファイルが正常に見える事を確認します。
K) 動作確認終了後はアンマウントします。
# umount /data
2-7.ネットワークの確立
LifeKeeper for Linux では、コミュニケーションパスを2経路以上設定します。その際、ノー
ド間のネットワークを別々のネットワークセグメントとなるよう設定して、それぞれのネッ
トワークでpingによる疎通が可能である事を確認してください。
16
2-8.ノード(ホスト名)の名前解決設定
LifeKeeperのGUIでは、ホスト名を使用して通信を行います。その為、ノード間ではDNSや
/etc/hostsを使用して名前解決できるようにしてください。
2-9./etc/fstabファイルの編集
/etc/fstabファイルにラベル名を使用している場合は、ブロックデバイス名に変更します。
LifeKeeperでは/etc/fstab内では、ラベル名ではなく、ブロックデバイス名を使用すること
が推奨されています。
2-10. LifeKeeper for Linux で使用するポート
LifeKeeper for Linux では、以下のポートを使用して、設定や運用を行いますので、これ
らのポートでの通信が行えるよう設定を行ってください。
7365(TCP) : コミュニケーションパスの通信で使用
81(TCP) : GUIサーバープロセスで使用
82(TCP) : GUIサーバープロセスで使用
1024(TCP) ~ : GUIのための RMI通信で使用
10001(TCP) ~ : データリプリケーションで使用
2-11.SELinuxの無効化
LifeKeeper for Linux は、SELinux を無効化しない限りインストールが行えません。
/etc/selinux/configファイルを編集し、以下のパラメータの値を“disabled”に変更して
ください。
SELINUX=disabled
変更後 OSを再起動して、SELinuxを無効化してください。
17
2-12.LifeKeeperのインストール
LifeKeeperのインストールは、インストール CDに含まれる setupスクリプトを実行するこ
とによって行われます。スクリプトは対話形式となっており、各内容に対して Yesか Noを
選択して進行します。この章では setupスクリプトによる LifeKeeperのインストール方法
を記載しています。
A) setupスクリプトの実行
製品のCD-ROMを任意のディレクトリにマウントします。続いてsps_xxx.img(xxxはバージョ
ン番号)を任意のディレクトリにマウントし、setup を実行します。以下は CD イメージを
マウントする際の操作例です。
# mount /dev/cdrom /media/cdrom
# cd /media/cdrom
# mount sps_xxx.img /mnt –o loop
# cd /mnt/
# ./setup
LifeKeeperのインストールを開始する場合は、Enter キーを押してください。
B) LifeKeeperの基本パッケージのインストール
ディストリビューションに対応した LifeKeeperのパッケージのインストールが開始されま
す。Enterキーを押してください。
18
C) Javaパッケージのインストール
LifeKeeper の GUI クライアントで使用する Java パッケージをインストールします。Enter
キーを押してください。
D) DataKeeper用途のカーネルモジュールのインストール
DataKeeper for Linuxを使用する場合は、DataKeeper 用のカーネルモジュールをインストー
ルする必要があります。DataKeeperを使用する場合は、Enterキーを押してください。
DataKeeperを使用しない場合は nを入力し、Enter キーを押してください。
今回のように、マルチパス構成の共有ディスクをリソースとして登録する場合は必要ありま
せん。
19
E) NFS の設定
LifeKeeperで NFSサービスを保護する場合は、“Y”を選択して HA 用に NFSを設定する必要
があります。NFSサービスを保護しない場合は、nを入力し、Enterキーを押してください。
F) 必須パッケージのインストール
LifeKeeper の動作に必要なパッケージをインストールします。Enter キーを押し、全ての
パッケージをインストールしてください。
20
G) SPS coreパッケージのインストール
SPS coreパッケージをインストールします。Enterキーを押し、インストールを実行してく
ださい。
21
H) LifeKeeper GUIクライアントのグループとログインユーザの設定
GUIクライアントの操作に必要なユーザー、グループを作成します。yを入力し Enterキー
を押すと必要なユーザー、グループが自動的に作成されます。
任意のグループ IDを割り当てたい場合は以下のプロンプトで nを入力してください。そし
て setup スクリプトが完了した後、後述する注意に書かれている内容を参照しユーザーグ
ループの設定を行なってください。
I) ライセンスキーインストールの確認
以下のステップで yを入力すると、ライセンスキーを入力する画面に移ります。
既にインストールに使用できるライセンスキーがある場合には、y を入力してライセンス
キーの情報を入力してください。ライセンスキーを取得していない場合には、nを入力して、
setup 終了後にライセンスキーを lkkeyins コマンドでインストールするようにしてくださ
い。
22
J) オプションの Recovery Kit パッケージのインストール
このステップでは構築するクラスタシステムにあわせてオプションの Recovery Kitを選択
してインストールします。インストールしたいパッケージにカーソルを合わせてスペース
キーを押してください。インストールパッケージとして選択されます。必要であれば、他の
Recovery Kit も同様に選択します。選択した状態で Enter キーを押すと、次の画面でイン
ストールするパッケージが表示されインストールを開始することができます。
今回は DMMP デバイスをリソースとして登録する為、lkDMMP (Device Mapper (DM) Multipath
Recovery Kit)を選択して、インストールしてください。
パッケージのインストールが成功すると以下のメッセージが表示されますので、Enterを入
力し、setupスクリプトを終了してください。
23
K) インストール完了後は、LifeKeeperの実行コマンドパスや MANページは、環境変数とし
て登録されていません。その為、以下のユーザー環境変数(PATHおよび MANPATH)を root
ユーザーの環境変数として登録してください。
PATH=$PATH:/opt/LifeKeeper/bin
MANPATH=$MANPATH:/opt/LifeKeeper/man
L) もう一台のノードでも、A)から K)の手順を同じように実行してください。
2-13.License Keyのインストール
LifeKeeper のインストールが完了しましたら、以下の手順で各ノードに License Keyをイ
ンストールしてください。
A) https://license.steeleye.com/portal/から、LifeKeeperソフトウェアに同梱されてい
る Entitlement/Activation IDを利用し、各ノードの License Keyを入手してください。
B) 入手した License Key を各ノードにコピーして、rootで以下のコマンドを実行してくだ
さい。
# lkkeyins < License Key ファイル>
D) 「LifeKeeper license key installation was successful!」と表示されれば、License
Key のインストールは成功です。
24
2-14.LifeKeeperの起動と停止
LifeKeeperを起動するために、両ノードで以下のコマンドを実行してください。
A) LifeKeeperを起動するには、lkstartコマンドを実行します。
B) LifeKeeperの起動確認を行います。起動確認は、lktestコマンドを実行します。
C) LifeKeeperを停止するには、lkstopコマンドを実行します。
25
2-15.LifeKeeper GUI の起動
A) GUI へのログインが行えましたら、以下のコマンドを実行して LifeKeeper GUI を起動し
ます。
# lkGUIapp &
コマンドを実行後、GUIクライアントが起動しログイン画面が立ち上がります。
Server Name には実行したノード名が入ります。ログインユーザ名とパスワードは
LifeKeeper の管理ユーザーの情報を入力します。管理ユーザーの情報は初期設定として
OSのスーパーユーザ(root)とそのパスワードが設定されます。
26
B) ログイン後以下の1台目のノード(ノード1)画面が表示されます。
27
2-16.クラスターの設定
各ノードに LifeKeeperをインストールした後は、各ノードをクラスターノードとして登録
します。またクラスターとして登録したノード間では、コミュニケーションパスを構成する
必要があります。以下に、この 2つの作業手順を説明します。
A) クラスターノード(ノード2)を登録します。スタンバイノードとなるノードを登録しま
す。上部のメニューから、”File”-> “Connect..”を選択します。Cluster Connect の
画面が開きますので、Server Nameには追加するノードのノード名を入力してください。
ログインユーザ名とパスワードは LifeKeeper の管理ユーザーの情報を入力してくださ
い。
28
B) 追加したノードが表示されます。この後、コミュニケーションパスを作成します。
C) コミュニケーションパスの作成は、上部のメニューから、“Edit”->“Server”->“Create
Comm Path”を選択します。以下の画面が出力するので、確認して“Next”を押します。
29
D) リモートノードを選択します。
E) コミュニケーションパスデバイスタイプを選択します。TCPが推奨となる為、特別な理
由が無い限りは TCPで作成してください。
30
F) コミュニケーションパスとして登録するローカルノードの IPアドレスを選択します。
G) コミュニケーションパスとして登録するリモートノードの IPアドレスを選択します。
31
H) プライオリティを設定します。1を設定したコミュニケーションパスは優先的に利用さ
れるコミュニケーションパスとなります。
I) 以下の様に表示されますと作成成功です。“Next”をクリックした後、“Done”をクリッ
クして、コミュニケーションパスが完成となります。
32
J) LifeKeeper のコミュニケーションは 2経路以上設定する事を推奨しています。その為、
C)から I)の手順で、もう一経路のコミュニケーションパスを作成してください。
K) コミュニケーションは、ノードのプロパティからステータスを確認してください。正常
に作成された場合、Stateが Aliveとなります。
33
2-17.ファイルシステムリソースの作成
クラスター構成が完了しましたら、クラスターで保護するリソースを作成します。今回は、
MSA2040iSCSIを DMMPで認識したディスクをリソースとして登録します。
A) 作成した DMMP デバイス(/dev/mapper/mpathap1)を/data ディレクトリにマウントしま
す。
# mount -t ext4 /dev/mapper/mpathap1 /data
B) マウントしたディレクトリを対象に、ファイルシステムリソースの作成を開始します。
上部のメニューから、Edit > Server > Create Resource Hierarch を選択してくださ
い。以下の画面が起動します。
34
C) Switchback typeを選択します。後から変更も可能なため、初期設定とします。
D) リソースをアクティブとするプライマリノードを選択します。
35
E) /dev/mapper/mpathap1をマウントしたディレクトリを確認します。
F) リソースのタブ名を入力します。初期値はマウントポイントとなります。Create
Instanceをクリックすると、リソース作成が開始されます。
36
G) リソースが作成されます。エラーとなった場合は、以下のログから原因を判断し対処し
てください。
H) リソース作成が完了しましたら、リソースの拡張を行う画面に代わります。拡張先の
ノードを選択してください。また、Accept Defaults を選択する事で、この先の選択を
すべてデフォルトでの選択として自動化することが出来ます。
37
I) 自動的にリソース作成が完了します。2ノードクラスターの場合、“Finish”を選択し
て、次の画面で“Done”を選択する事でリソース作成が完了となります。
J) DMMPデバイスをマウントしたファイルシステムは、以下の様なリソース構成となります。