Upload
masahiko-sada
View
1.118
Download
3
Embed Size (px)
Citation preview
記憶域スペースとWindows Server VNextでの
ストレージ関連機能の強化ポイント
Microsoft MVP for File System and Storage
Masahiko Sada
1
自己紹介
Masahiko Sada
貞 祐光
通信キャリア(MNO)でクレジット/決済サービスのビジネス企画、戦略立案業務に従事
職業
略歴 2014年7月~ Microsoft MVP for File System and Storage
ブログ 「薩摩藩中仙道蕨宿別邸」… http://satsumahomeserver.com/
執筆 ホワイトペーパー:「Windows Server 2012 R2 記憶域スペースのアーキテクチャと設計・管理のベストプラクティス」
2009年7月~ Microsoft MVP for Server Solutions – Windows Home Server
2
市場のトレンド
ストレージコストの増大(TB単価↓,データ量↑,円安)
ストレージの管理
データの保護
ビッグデータ分析等パフォーマンスへの要求
3
国内産業のデータ流通量は7年間で5.2倍に
■ビッグデータ流通量の推移(産業計)
出典:平成25年度版情報通信白書
4
市場のトレンド
データ量の急激な伸び
ストレージの管理
データの保護
ビッグデータ分析等パフォーマンスへの要求
5
市場のトレンド
データ量の急激な伸び
ストレージコストの増大(TB単価↓,データ量↑,円安)
データの保護
ビッグデータ分析等パフォーマンスへの要求
6
市場のトレンド
データ量の急激な伸び
ストレージコストの増大(TB単価↓,データ量↑,円安)
ストレージの管理
ビッグデータ分析等パフォーマンスへの要求
7
市場のトレンド
データ量の急激な伸び
ストレージコストの増大(TB単価↓,データ量↑,円安)
ストレージの管理
データの保護
8
こんな経験はありませんか?
9
SDS(Software Defined Storage) ?
ストレージリソースを提供する物理機器(数、サイズ、etc)に依存することなく、一元的にストレージを利用、管理できる技術
ソフトウェアによって
Software Defined Storage
定義される ストレージ
技術者が慣れ親しんだWindowsの管理ツール(サーバーマネージャー、PowerShell、SCVMM)を用い、
10
これまでの常識が覆ったり、前提を変えられる可能性を秘めたWindowsのSDS
記憶域スペース
11
Microsoftがグローバルで展開するクラウドサービスはWindows Serverで稼働している
MICROSOFT AZURE RUNS ON
WINDOWS SERVER
XBOX ONE RUNS ON
WINDOWS SERVER
BING RUNS ON
WINDOWS SERVER
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
12
記憶域スペースはMicrosoftのサービス提供/データセンター運用経験に裏打ちされた技術
Fabric – シンプルで一貫した リソースの管理
ハードウェア
Software Defined
Compute
Software Defined Network
Software Defined Storage
Best Guest & Host OS
設備コストと運用コストの両方で新たなプライベートクラウドのコスト経済性を可能に
Azure規模の、可用性と信頼性
維持運用はシンプルなままに、ビジネスの成長に合わせてコストの支出が可能に
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
13
本セッションのフォーカス範囲
Microsoft Software Defined Storage (SDS) Breadth offering, unified platform for Microsoft workloads and LinuxPublic Cloud scale and cost economics for Private Cloud customers
SAN and NAS
storage
Private Cloud with partner storage
Windows SMB3
Scale Out File Server
(SoFS) + Storage
Spaces
Private Cloud with Microsoft SDS
StorSimple + Microsoft Azure Storage
Hybrid CloudStorage
Microsoft Azure storage
Public CloudStorage
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
クラウド運用を支えるSDS技術を、プライベートクラウドでも利用可能に。Microsoft SDS の一部をWindows の記憶域に実装した「記憶域スペース」の概要と、vNextでの強化ポイントを紹介。
本日の範囲
記憶域スペース
14
15
記憶域スペースとは
Windows Server 2012(Windows 8)以降に搭載されたブロックレベルストレージ仮想化技術。サーバーに接続されたDASを、Windowsがコントローラとなり仮想ディスクとして構成。SANのような高価なファブリックやRAIDコントローラーなどの専用ハードウェアは不要。
複数の物理ディスクを束ねて、1つの物理ディスクのように取り扱うことができる
記憶域プール上に作成される、仮想論理ディスク
記憶域プール(Storage Pool):
記憶域スペース(Storage Space):
SASSATAUSB
JBOD
16
記憶域スペースで利用可能なハードウェア(1)
ディスク
HBA
エンクロージャー
ローカルディスクとして利用する場合
SATA,SAS,USB
SCSI Enclosure Services (SES) Version 3に対応し、Windowsロゴ認証を取得したJBODエンクロージャー
RAID機能をOFFにでき、ディスクを抽象化せずOSに対してディスクをそのまま認識させることのできるHBA
SASSATAUSB
JBOD
(USBは3.0を推奨)
オプション
●Windows ロゴ認証 はWindows Serverカタログで確認できる。
17
記憶域スペースで利用可能なハードウェア(2)
ディスク
HBA
エンクロージャー
クラスターの共有ボリュームとして利用する場合
RAID機能をOFFにでき、ディスクを抽象化せずOSに対してディスクをそのまま認識させることのできるHBA
Shared JBOD
Cluster Shared Volume
Windows Server Failover Cluster
Scale Out File Server
SMB 3.0 Fabric
SAS(デュアルポート)
SCSI Enclosure Services (SES) Version 3に対応し、Windowsロゴ認証を取得したJBODエンクロージャー
デュアルドメイン構成
●Widnows Server Vnextでは、一定条件化でShared SAS不要でCSVを作成可能となる(Shared Nothing)。
●Windows ロゴ認証 はWindows Serverカタログで確認できる。
Dual EMM’s
Dual power supply units
18
Shared SASは複数のサーバーノードから同じ物理ディスクにアクセスが可能なDAS
19
クラスターの共有ボリューム構成例
残念ながら日本では Shared SASにあまりなじみがない???
20
SAS JBODエンクロージャーの注意点
• HBAとエンクロージャーの接続に用いられるSASケーブルは太く固く、取扱いにやや難。
• 最大長は8mと言われており、データセンターにおけるサーバーとエンクロージャーの配置は考慮が必要。
21
【参考】CiB(Cluster-In-a-Box)
•
•
•
•
予めベンダーが1つの筐体の中に、サーバーとJBODエンクロージャーをクラスター構成化した、CiB(Cluster-In-a-Box)ソリューションも販売されている。
ベンダー検証済のクラスター構成が簡便に入手できる。
22
利用可能OS
Windows 8, Windows Server 2012以降のクライアント/サーバーOS。 ただし、記憶域スペースにはバージョンが存在し、上位バージョンの記憶
域スペースは下位バージョンのOSでは認識不可。 記憶域スペースの構成情報はディスク内に保存されていることから、プー
ルを構成する物理ディスクを別のマシンに接続してもOSが記憶域スペースを認識することができる。(サーバーOSの場合は、接続しただけでは自動マウントされないため、PowerShellによる操作要)
23
記憶域スペースの管理方法
クライアントOS
サーバーOS
コントロールパネル「記憶域」 PowerShell
サーバーマネージャー SCVMM PowerShell
(CSVを作成、管理する場合)
※具体的な管理方法や、Cmdletは、「Windows Server 2012 R2 記憶域スペースのアーキテクチャと設計・管理のベストプラクティス」を参照。
24
「記憶域スペース」の主な特徴
分類 特徴 概要
柔軟性 記憶域プール 複数のディスク領域を1つにまとめることで、単一のディスクの物理容量を超えた大容量の仮想ディスクの作成を可能とする。
シンプロビジョニング 物理的な利用可能容量にとらわれず、仮想ディスクサイズを指定可能。
パフォーマンス 列(ストライピング) データを保存するディスクを分割することで、ディスクIO性能を向上。
WBC データ書込時にSSDをキャッシュとして利用することで、ディスクIO性能を向上。
記憶域階層 高速階層(SSD)と標準階層(HDD)を構成し、頻繁に利用するデータを高速階層に保存することで、実質的なディスクIOを向上。
回復性/冗長性 回復性タイプ ワークロードに合わせて、シンプル/ミラー/パリティから、回復性を指定。
エンクロージャー認識 複数のJBODエンクロージャーを理世数している際、エンクロージャーを意識したデータの配置を行うことで、あるエンクロージャー全体が利用できない障害が発生した場合においてもデータの正常性を確保。
ReFSとの連携 ReFSと組み合わせることで、ReFSがデータ破損を検出した際に、データの自動修復が可能。
高速リビルド 物理ディスク障害時、プール内の他のディスクの空き容量を利用して、プールを修復。
高可用性 クォーラム 仮想ディスクに用いられる物理ディスクの過半数以上が正常でない場合に、残りの正常なディスクにデータの変更が生じると複数の物理ディスク間のデータの整合性を確保出来なくなることから、仮想ディスクをオフラインにして更新を防ぐことで、全体の整合性を担保する。
CSV/SOFSへの活用 クラスターの共有記憶域に仮想ディスクを用いることが可能。
25
「記憶域プール」は物理ディスク内の領域を束ねる
記憶域プールは、物理ディスクのスペースを束ねて1つのプールに。
柔軟性
26
固定プロビジョニング 柔軟性
27
固定プロビジョニング 柔軟性
28
シンプロビジョニング 柔軟性
29
シンプロビジョニング 柔軟性
30
列の数(NumberofColumns)によるディスクストライピング
列の数はGUIからの仮想ディスク作成時にはOSが自動設定。
GUIから設定した場合の最大の列の数は8。
自身で任意の列の数を指定したい場合は、PowerShellを利用して仮想ディスクを作成する。(シングルパリティの最大値はPowerShellから設定する場合も8)
パフォーマンス
31
ディスク数が増えるほど、IOPSは向上
0
1,000
2,000
3,000
4,000
5,000
6,000
7,000
8,000
9,000
10,000
1 2 3 4 5 6 7
IOP
S
Number of Disks
100% Random Read, 8KB
Series1 Series2
0
1,000
2,000
3,000
4,000
5,000
6,000
7,000
8,000
9,000
10,000
1 2 3 4 5 6 7
IOP
S
Number of Disks
100% Random Write, 8KB
Series1 Series2
Tested with 7200 RPM SAS HDDs, no WBC, maximum of 8 columns, 2-way mirror. Queue depth was maintained
consistent between tests at an effective 3 QD/Disk to attain an average latency of at most 30ms
32
SSDの活用によるパフォーマンスの向上
ライトバックキャッシュ(WBC)
記憶域階層
キャッシュ
●Windows Server 2012 R2では、NVMeのドライバーを標準で搭載
パフォーマンス2012 R2 以降
33
回復性のタイプ
仮想ディスクを作成する際に、回復性タイプを指定する回復性は以下の5種類
回復性/冗長性
34
シンプル(≓RAID0)
データの冗長性はなし。ディスク障害時にはデータは失われる データの冗長性がない分、ディスク容量の100%を利用できる。 列数を増やすことで、読み書きともにIOPSは向上。
ストライプ行
最低必要ディスク台数=1
回復性/冗長性
35
ミラー(双方向ミラー≓RAID1)
データを2つに複製して保持。1つの物理ディスクの障害からデータを守ることができる。 データを2つに複製する分、保存するデータの2倍のディスクスペースが必要。 列数を増やすことで、読み書きともにIOPSは向上。
ストライプ行
最低必要ディスク台数=3
回復性/冗長性
36
ミラー(3方向ミラー)
データを3つに複製して保持。2つの物理ディスクの障害からデータを守ることができる。 データを3つに複製する分、保存するデータの3倍のディスクスペースが必要。 列数を増やすことで、読み書きともにIOPSは向上。
ストライプ行
最低必要ディスク台数=5
回復性/冗長性
37
パリティ(シングルパリティ≓RAID5)
データ書き込み時に、1ストライプ行に1つパリティ情報を付与。データ障害時にはパリティから消失データを復元することで、1つの物理ディスクの障害からデータを守ることができる。
パリティ情報を付与する分、ディスクスペースを消費するが、ミラーよりもディスク使用効率は高い。
列数を増やすことで読み込み性能は向上するが、書き込み(更新含む)はパリティ計算が生じるため、遅い。
ストライプ行
最低必要ディスク台数=3
回復性/冗長性
38
パリティ(デュアルパリティ≠RAID6)
データ書き込み時に、1ストライプ行に2種類(3つ)のパリティ情報を付与。データ障害時にはパリティから消失データを復元することで、2つの物理ディスクの障害からデータを守ることができる。
パリティ情報を付与する分、ディスクスペースを消費するが、ミラーよりもディスク使用効率は高い。
列数を増やすことで読み込み性能は向上するが、書き込み(更新含む)はパリティ計算が生じるため、遅い。
ストライプ行
イレージャーコーディングを採用
最低必要ディスク台数=7
回復性/冗長性2012 R2 以降
39
デュアルパリティでは、イレージャーコーディングを導入
【参考】LRC Erasure Coding in Windows Storage Spaceshttp://research.microsoft.com/en-us/um/people/chengh/slides/LRC_in_Spaces.pdf
RAID6などで用いられるリード・ソロモン符号は、通信/放送/光学ディスク等幅広く用いられているが、元来ストレージ用に設計された訂正方式ではない。
ストレージ容量の増大や、多数のディスクを接続してプールを構成する現在のストレージ領域において、リード・ソロモン符号ではデータ消失リスクを補うには不十分。既にRAID5はベンダーも推奨しない傾向にある。2019年にはRAID6も推奨されなくなるという予測がある。 ストレージ障害が発生した場合、復元に要する時間は長時間化。復元時間の長時間化は、復元中
に正常であった他のディスクに障害が発生するリスクが高まる。 そのためストレージ領域では、特にデータ容量が膨大なデータセンター用途を中心に、伝統的な
RAIDから、イレージャーコードへの転換が進みつつある。 Windodws Server 2012 R2のデュアルパリティでは伝統的なRAIDではなく、イレージャーコー
ディングを導入。パフォーマンスの観点から、ストライプを2つのグループに分けそれぞれローカルパリティを付与し、グローパルパリティと併せて3つのパリティストライプを使用。
Microsoft Azureで用いられているストレージでも、イレージャーコーディングが採用されている。
回復性/冗長性2012 R2 以降
40
回復性のタイプのまとめ
回復性のタイプデータの複製数
障害が発生してもデータの正常性を維持できる物理ディスクの数
記憶域の利用効率
最低必要
ディスク台数
推奨用途
シンプル 1 0 100% 1
回復性が必要とされないあるいは、他の方法で回復性を担保している場合。
ミラー
双方向ミラー 2 1 50.0% 2 全てのワークロード
3方向ミラー 3 2 33.3% 5 全てのワークロード
パリティ
パリティ 1 1 3書込/更新が少なく参照が中心となる用途。アーカイブなど。
デュアルパリティ
(x+3 LRC)1 2 7
書込/更新が少なく参照が中心となる用途。特にデータサイズが大きく長時間保存するアーカイブ用途。
(列数-1)
(列数)(66.6%~)
(列数-3)
(列数)(57.1%~)
回復性/冗長性
2012 R2 以降
41
【参考】必要となるディスクの数は、回復性と列の数(+クォーラム)によって決まる
双方向ミラー:NumberofDataCopies=2
列の数:NumberofColumns=2
2 列 データの複製=2
1 2 3 4
記憶域階層を構築する場合は、SSD階層とHDD階層それぞれに物理ディスクが必要。
双方向ミラーは、列の数が2になると、最低4台の物理ディスクが必要
SSD階層
HDD階層
1 2 3 4
42
【参考】記憶域プールへの物理ディスクの追加も同様
双方向ミラー、列の数2の場合、記憶域プールにディスクを追加する場合は、最低4台の物理ディスクを追加するのが基本。
1 2 3 4 5 6 7 8
追加ディスクも最低4台なければ、2×2=4列の書き込みができない。
43
【参考】 WBCを構成するのに必要なSSDの数は、回復性のタイプにより異なる
回復性のタイプ シンプル 双方向ミラー
3方向ミラー
シングルパリティ
デュアルパリティ
WBCに必要なSSDの最低数
1 2 3 2 3
44
エンクロージャーを意識したデータ配置
コピー コピー
回復性/冗長性
EnclosureAwareness属性を設定することで、データを保存する際に、エンクロージャー筐体を意識したデータ配置を行う。
エンクロージャー全体にアクセスできなくなる障害が発生しても、データを利用することができる。
双方向ミラーで、1台のエンクロージャー全体の障害を許容するには、3台以上のエンクロージャーが必要。3方向ミラーで、2台のエンクロージャー全体の障害を許容するには、5台以上のエンクロージャーが必要。デュアルパリティで、1台のエンクロージャー全体の障害を許容するには、4台以上のエンクロージャーが必要。
45
ReFSと記憶域スペース
NTFSボリューム
スクラバ
ReFSボリュームデータ
Copy0
データ
Copy1
データ
Copy2
読み取れない場合、NTFSは他のデータのコピーを取得する
NTFSでは,スクラバが全てのファイルを読み取れるか確認する
データのコピーのチェックサムを全て検査破損が検出された場合、正常なデータを読み出して、破損したデータは自動修復をトリガ
ReFSの場合、スクラバは全てのデータのチェックサムを確認し、修復が必要な場合は自動修復をトリガする
Copy1
データ
Copy2
データ
Copy0
データ
ReFSはファイルの読み出し時のチェックサム確認や、定期的なディスクのスキャンを通じ、データ破損を検出。
回復性/冗長性
46
ReFSと記憶域スペース 回復性/冗長性
ミラースペースをReFSでフォーマットしていた場合、ReFSがデータ破損を検知した際には、ReFSはアプリケーションにはコピーデータを返却しつつ、正常なデータのコピーから破損したデータの自動修復を行う。
ReFSは記憶域スペースの持つ冗長性と組み合わせることではじめて、本来持つデータの自動修復能力を発揮することができる。
Copy0
Metadata Copy1
Metadata
2012 2012R2
ReFSの自動修復 ミラースペース ミラースペース、パリティスペース
CSVのReFSフォーマット
× ○
出典:「Windows Server 2012 Storage Capabilities for Everyone」- TechEd 2012
47
高速リビルド( Parallelized rebuild ) 回復性/冗長性
物理ディスク障害が発生した際、プール内(エンクロージャー使用時は同一エンクロージャー内)の他のディスクの空きスペースを用いて、ディスクの修復を行う。
必要ディスクの数を1つ、あるいは2つ程度上回る物理ディスクを接続しアクティブ(Used)にしておくことで、物理ディスク障害時に対象ディスクに保存されていたスラブのコピーを保持しているディスクから、プール内の他のディスクにデータをコピー。
複数のディスク間で並行してデータをコピーすることで、高速なリビルドが可能に。
3TB HDDs, 2-way, 4-column Mirror Space
Source: Internal Testing, No Foreground Activity
出典:「Delivering Exceptional IOPS/$ with Windows Server 2012 R2」- TechEd North America 2014
2012 R2 以降
48
高速リビルドの動作
必要ディスクの数を上回る物理ディスクがあり、空き容量が存在していることが、高速リビルド動作の条件。
Windows Server 2012 では高速リビルド機能がないため、スペア専用ディスクをホットスペアとして用意しておく必要がある。ホットスペアには、リビルド時に書込IOが集中し、リビルド時間が長時間化するため、2012 R2以降ではホットスペアは推奨されない。
1 2 3 4 5 6
1 2 1 2
3 4 3 4
56 65
1 2 3 4 5 6
1 2 1 2
3 4 3 4
56 65
1
3
6
双方向ミラー:NumberofDataCopies=2
列の数:NumberofColumns=2
>必要台数は4台
回復性/冗長性2012 R2 以降
必要台数よりも多い物理ディスクが接続されていることで、障害発生ディスクに保存されていたスラブを他のディスクに移すことが可能。
49
重複除去との併用も可能
0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100%
ユーザードキュメント
一般的なファイル共有
ソフトウェア開発共有
VHD ライブラリ
記憶域スペースと重複除去の併用により、冗長性を維持しつつ、ストレージ領域の有効活用が可能に。
出典:「 Reduce Storage Costs with Data Deduplication」- TechEd North America 2013
50
重複除去のオーバーヘッドは小さく、パフォーマンスへの影響はほぼない
67% savings
0
500
1000
1500
2000
2500
3000
3500
1 2 3
150 users- Non-Dedupe vs Dedupe
Series1
Series2
0
1000
2000
3000
4000
5000
6000
7000
1 2
Cap
acit
y i
n G
B
Capacity savings with dedupe
Series1
出典:「 Maximizing Storage efficiency with Dell and Microsoft Storage Spaces 」- TechEd North America 2014
51
記憶域スペースのまだ少し敷居の高いところ
オペレーション上重要な属性でも、PowerShellからしか設定/変更できない属性がいくつか存在。
Windows Server vNextの新機能
52
vNextについては、現在公開されているTechnical Previewに基づく情報であり、今後発表される製品においては搭載される機能などに変更が生じる可能性があります。
53
Storage Replica(新規機能)
機能 内容
Type Host-based
Synchronous Yes
Asynchronous Yes (server to server only)
Storage hardware agnostic Yes
Replication unit Volume (Partition)
Windows Server Stretch Cluster creation Yes
Write order consistency across volumes Yes
Transport SMB3
Network TCP/IP or RDMA
RDMA iWARP, InfiniBand*
Replication network port firewall requirements Single IANA port (TCP 445 or 5445)
Multipath/Multichannel Yes (SMB3)
Kerberos support Yes
Over the wire encryption and signing Yes (SMB3)
Per-volume failovers allowed Yes
Dedup & BitLocker volume support Yes
Management UI in-box Windows PowerShell, Failover Cluster Manager
* When using range extension technologies like Mellanox Metro-X
複製ブロックレベルで, ボリューム単位の同期/非同期SMB3 による伝送
柔軟性すべてWindowsボリュームすべての固定ディスクすべてのストレージファブリックをサポート
管理フェールオーバークラスターマネージャーWindows PowerShellWMIEnd to end MS Storage Stack
54
東日本大震災の経験から学ばなければならないこと
「企業データを災害から守れ」
http://www.nhk.or.jp/shutoken/ohayo/report/20120906.htmlNHKおはよう日本 2012年9月10日放送
55
Stretch Cluster モードと Server to Server モード
NODE1 in HVCLUS
SR over SMB3
NODE3 in HVCLUS
Stretch Cluster
NODE2 in HVCLUS NODE4 in HVCLUS
Man
hatt
an D
C
Jers
ey C
ity
DC
SRV1
SR over SMB3
SRV2
Server to Server
Man
ha
ttan
DC
Jers
ey C
ity
DC
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
地域/国を跨った遠隔地間の同期
構内接続あるいは比較的近距離(<30km)
非同期(Async)同期(Sync)
○
○ ○
ー
56
同期(Sync)のフロー
Applications(local or remote)
Source ServerNode (SR)
DataLog
1
t 2
Destination ServerNode (SR)
DataLog
t1 3
2
5
4
出典:「Stretching Failover Clusters and Using Storage Replica for Disaster Recovery in Windows Server vNext 」- TechEd Europe 2014
57
非同期(Async)のフロー
出典:「Stretching Failover Clusters and Using Storage Replica for Disaster Recovery in Windows Server vNext 」- TechEd Europe 2014
Applications(local or remote)
Source ServerNode (SR)
DataLog
1
t 2
Destination ServerNode (SR)
DataLog
t1 5
4
3
6
58
同期(Sync)vs 非同期(Async)
モード 展開 フロー ステップ
同期(Synchronous)
データ消失のない RPO
• ミッションクリティカルなアプリ
• オンプレミスまたはメトロ接続
• 短距離(遅延<5ms, およそ <30km)
• 通常は専用の接続回線を用意
• 高帯域接続
1. Application write2. Log data written & the data
is replicated to remote site3. Log data written at the
remote site4. Acknowledgement from the
remote site5. Application write
acknowledged
t, t1- Data flushed to the volume, logs always write through
非同期(Asynchronous)
ほぼデータ消失のない RPO(論理的にはデータ消失がありうる)
• ミッションクリティカルではないアプリ
• 地域/国をまたがる• 距離の制約はない• 通常、WAN接続を利用
1. Application write2. Log data written 3. Application write
acknowledged4. Data replicated to the
remote site5. Log data written at the
remote site6. Acknowledgement from the
remote site
t, t1- Data flushed to the volume, logs always write through
Applications(Primary)
ServerCluster (SR)
DataLog
1
t 2
Applications(Remote)
ServerCluster (SR)
DataLog
t1 3
2
5
4
Applications(Primary)
ServerCluster (SR)
DataLog
1
t 2
Applications(Remote)
ServerCluster (SR)
DataLog
5
4
3
6
t1
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
59
Storage Replica( Stretch Clusterモード)
Multi-Site Cluster
Site1 Site2
柔軟性
SMB3を伝送プロトコルとし、Windowsのサポートするあらゆるボリュームに対し機能
ハードウェアに依存しない-記憶域スペースやSANボリュームで動作
統合管理
エンド to エンド を全てWindows Serverが提供する災害復旧ソリューション
フェールオーバークラスターマネージャーとPowerShellで管理が可能
スケーラブル
ボリュームをブロックレベルで同期し複製
Recovery Time Objective (RTO)の最小化を目的とした自動クラスターフェールオーバー
サイト間 HA DR: ボリュームの同期複製を通じ、サイト間を跨ってクラスターを拡張
従来はSANのような高価な製品を利用しないと実現が難しかったHA/DRを、Windowsサーバーの標準機能で実現可能に。
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
60
Storage QoS(機能拡張)
Scale-out File Server Cluster
Hyper-V Cluster
Virtual Machines
帯域制限
帯域制限
帯域制限
帯域制限
SMB3 Storage Network Fabric
機能基準 – VM毎 かつ VHDごと
VHD毎に IOPSの最低低域、最大帯域を平準化
メリット制限を通じていわゆる「迷惑な隣人問題」のインパクトを緩和
ストレージの機能に依存しないOS標準の機能
出典:「Delivering Predictable Storage Performance with Storage Quality of Service」- TechEd Europe 2014
61
Storage QoS
Scale-out File Server Cluster
Hyper-V Cluster
Virtual Machines
I/OSched
I/OSched
I/OSched
PolicyManager
RateLimiters
RateLimiters
RateLimiters
RateLimiters
SMB3 Storage Network Fabric
ストレージのパフォーマンスを監視し、コントロール
柔軟性とカスタマイズ性
VHD,VM,サービスまたはテナント毎にポリシーを設定
最小と最大のIOPSを定義
ポリシーに基づくリソースの公平な分配
Simple out of box behavior
SOFS(Scale Out File Server )ではデフォルトで有効
VM毎かつVHD毎に自動計測
管理
System Center VMM and Ops Manager
PowerShell built-in for Hyper-V and SOFS
出典:「Delivering Predictable Storage Performance with Storage Quality of Service」- TechEd Europe 2014
ホスティングサービスや企業内クラウドにおけるストレージ性能リソースの配分を管理。
62
Storage QoSのポリシー例
プロパティ 値の例
Name DesktopVM
PolicyID 8d730190-518f-4087-9362-3971255acf36
MinimumIOPs 100
MaximumIOPs 200
Type
Single Instance
Multi-Instance
MultiInstance
出典:「Delivering Predictable Storage Performance with Storage Quality of Service」- TechEd Europe 2014
63
シングルインスタンス vs マルチインスタンス
シングルインスタンスリソースをVM間で配分
クラスター化されたワークロードや、アプリケーション、テナントに最適
マルチインスタンスすべてのVMは同じようにリソースを利用
VMの性能毎の階層グループを作成する場合などに最適
100
100
0
50
100
150
200
1Series1
0
20
40
60
80
100
120
140
160
180
200
1 2M
axi
mu
mIO
Ps
= 2
00
Maxi
mu
mIO
Ps
= 2
00
出典:「Delivering Predictable Storage Performance with Storage Quality of Service」- TechEd Europe 2014
64
最小(Min) IOPS と最大(Max)IOPSの組み合わせパターン
Min <
Max
Min =
Max
Min
Only
Max
Only
最小IOPSと最大IOPSの両方に制約を課す(あるいは一定の間のIOPSを保証する)場合。
常に一定のIOPSに制限(あるいは常に一定のIOPSを保証)する場合
IOPSの上限にキャップをはめる場合
最小IOPSを保証する(最大IOPSはリソース内で青天井)場合
65
Storage Space - Shared Nothing
Hyper-V Cluster(s)
SMB3 Storage Network Fabric
SoFS clusters with no shared storage. Doesn’t need shared JBODs and SAS fabric behind Scale Out File Server nodes
Reliability, Scalability, Flexibility
Fault tolerance to disk, enclosure, node failures
Scale pools to large number of drive
Fine-grained storage expansion
Cloud design points and
management
Prescriptive configuration. Reduced hardware
costs with SATA drives
Deploy, manage and monitor with SCVMM,SCOM
Use Cases
Hyper-V IaaS storage
Storage for Backup and Replication targets
vNextでは、Shared SAS不要でSOFSの構成が可能になる(現在のビルドでは未実装) もはやSASすら不要。SATAディスクでもHAが実現可能に
出典:「Software Defined Storage in the Next Release of Windows Server」- TechEd Europe 2014
3方向ミラー または デュアル パリティが
利用可能となる。
HW要件等詳細は今後
66
SANストレージにWindowsベースのストレージが機能では追いつき、追い越しつつある
Hyper-V compute nodes
Hyper-V compute nodes
Block protocol fabric
Low latency network
Management of LUNs
Storage tiering
Data deduplication
RAID resiliency groups
Pooling of disks
High availability
Persistent write-back cache.
Copy offload
Snapshots
Traditional FC/iSCSI
SAN storage arrays
Microsoft SDS Storage
File protocol fabric.
Low latency with SMB3Direct
Management of Shares
Storage tiering (new with R2)
Data deduplication
Flexible resiliency options
Pooling of disks.
Continuous availability
Persistent write-back cache. (new with R2)
SMB copy offload, Snapshots
Storage QoS for greater efficiency
Storage Replica for cross site HA & DR
Rolling Upgrades for faster adoption
Cloud Witness for efficiency
Resiliency enhancements
FC/iSCSI
Fabric
(Block)
SMB3
Fabric
(File)
FC/SAS disk shelf
FC/SAS disk shelf
SAN/NAS
Shared SAS JBOD or
DAS
Scale Out File Server + Storage Spaces
New in WS
preview
67
Windows OSと安価で標準的なHWの組み合わせで、専用ストレージに並ぶ性能と機能性
今後はSANが必要なワークロードと、WindowsのSDSで十分なワークロードを峻別することで、投資対効果の最大化を図ることができる。
68
SANと比較したGBあたりコストは低く、パフォーマンスはひけをとらない
出典:「 Storage overview Windows Server 2012 R2 Preview」
69
こんな経験はありませんか?
70
ご清聴ありがとうございました