&edit(,nolabel);&br; -&color(black){(2-01) データの保護 (Data Protection)}; >以下のビデオを併せご参照下さい。 -&ref(http://player.vimeo.com/video/105582611?autoplay=1,"video"); >Nutanix Platformは、現在、resiliency factor 即ち replicaton factor(RF)とchecksumを 用いて、node,diskの故障や機能低下が発生した場合にdataの冗長性と有効性を保障している。 上記に述べた通り、[[OpLog>Terms/OpLog]]は、低遅延のSSD tierへの書込み発生を吸収するための処理の段階と なる。 hostへの書込みに成功した事を知らせるacknowledge(ack)が発行される前に、 ローカルな[[OpLog>Terms/OpLog]]に書込まれる時に、dataは同期的にRFの値に依って他の1つ或いは2つの[[CVM>Terms/CVM]]の[[OpLog>Terms/OpLog]]に 複製される。 >この仕組により、少なくても2~3箇所の独立した異なった場所にデータが存在しているため、 障害に耐性があることを意味している。 >注) RF3を実現するためにはmetadataはRF5となるため、最低5nodeが必要となる。Data RFは、 PRISM経由でコンフィグレーションが行われ、コンテナレベルで実現されている。 >いかなる"ホットノード"も除外しスケールがリニアに実現されることを保障するために、全てのnodeが OpLogの複製に参加している。 dataが書込まれている間にchecksumが計算され、metadataの一部として [[OpLog>Terms/OpLog]]の複製に参加している。 dataが書込まれている間にchecksumが計算され、metadataの一部として 保存される。 そして、dataは、RFが暗黙のうちに維持されているextent storeは、非同期的に書出される。 node或いはdiskに障害が発生した場合、dataはRFを維持しているため、クラスター内の全nodeにわたって 再度複製が作られる。 dataが読取られる時は常に、dataが正しいものであることを保障するために checksumが計算される。 checksumとdataが、一致しない様な事態が発生した場合、複製からdataが 読み出され正しくない複製を置換える。 >以下の図は、この仕組が論理的にどの様な見え方をするのかを表している。 >&color(black){<<Fig.2-01-01>>}; CENTER:&ref("Nutanixバイブル/NutanixBible_2-01J/Fig-2-01-01_NDFS_OplogReplication.png","Fig.2-01-01"); &edit(,nolabel);[[Nutanixバイブル]] ----