Etiket arşivi: Quick Migration – QM (Hızlı Taşıma)

Hyper-V Failover Cluster Kurulumu (Bölüm-7)

 

 

Önceki bölümler doğrultusunda failover cluster yapımızı hazırladığımıza göre, artık cluster yeteneklerini test edebiliriz.  

10. Hyper-V Failover Cluster Sonrası Gelen Yetenekler

 

10.1. Quick Migration – QM (Hızlı Taşıma)

 

10.1.1. Quick Migration Nedir? 

 

Quick Migration yani hostlar arası Hızlı Taşıma özelliği cluster temelli bir özelliktir. Kullanım amacı ise bir fiziksel node üzerinde çalışan sanal makineyi, hızlı bir şekilde diğer fiziksel node üzerine taşımaktır. Yani QM, sanal makine seviyesinde hızlı taşıma sağlıyor.

 

Konuyu küçük bir senaryo ile örneklendirelim. 

 

Yukarıda bir failover cluster yapısı kurduk ve üzerinde Cluster-XP isimli bir VM var. Bu VM şu an HV-Node1 fiziksel sunucusu üzerinde çalışıyor. Herhangi bir nedenden dolayı  HV-Node1’in kapatılması gerekiyor (Örneğin sunucuya fiziksel olarak ram ilavesi yapacağız). Bu durumda Quick Migration özelliğini kullanarak birkaç küçük tıklama ile HV-Node1 üzerinde çalışan Cluster-XP isimli VM’i, tüm içeriği ile birlikte cluster’ın diğer üyesi olan HV-Node2 üzerine taşımamız mümkün. İşimiz bittikten sonra HV-Node2 üzerinde çalışan VM’i tekrar Quick Migration ile eski konumuna geri alabiliriz.

 

 

Bu özellik Live Migration yani Canlı Taşıma özelliği ile karıştırılmamalı ki bu sık yapılan hatalardan birisi.

 

 

Quick Migration ile taşıma sırasında VM network üzerinde hizmet veremez ve taşıma sonrasında hizmet verdiği session’lar kapanmış, connection’lar kesilmiş durumdadır. QM’in en önemli karakteristiği budur, taşıma esnasında VM’e erişim kesilir!

 

 

Quick Migration aşağıdaki ürünler ile kullanılabilir (cluster üyesi node’lar bu işletim sistemlerinden biri olmalı):

 

 

·         Windows Server 2008 (Enterprise, Datacenter)

 

·         Hyper-V Server 2008

 

·         Windows Server 2008 R2 (Enterprise, Datacenter)

 

·         Hyper-V Server 2008 R2

 

 

Live Migration ise tamamen canlı bir taşıma teknolojisidir. Taşıma sırasında VM network üzerinde hizmet verebilir durumdadır ve taşıma süresince üzerindeki servis ve uygulamalara erişim kesilmez. Taşıma tamamlandıktan sonra session’lar ve tüm connection’lar hala bağlı ve açık durumdadır. LM’in en önemli karakteristiği ise taşıma esnasında VM’e ve üzerindeki servislere erişilebiliyor olmasıdır.

 

 

Live Migration R2 ile gelen bir özelliktir ve aşağıdaki ürünler ile kullanılabilir (cluster üyesi node’lar bu işletim sistemlerinden biri olmalı):

 

 

·         Windows Server 2008 R2 (Enterprise, Datacenter)

 

·         Hyper-V Server 2008 R2

 

 

Quick Migration ile taşıma sırasında VM’e erişim durduğu için taşıma işleminin süresi önem kazanıyor çünkü süre ne kadar uzarsa, VM o kadar hizmet dışı kalacaktır. Peki bu süre ne kadardır ve süreye etki eden faktörler nelerdir?

 

 

Aslında bu konuyu fazla detaylandırmak istemiyorum çünkü önümüzdeki makalelerde ayrıntılı olarak ele alacağız. Ama ön bilgi olması açısından şunları söyleyelim.

 

 

VM’in memory miktarı başta olmak üzere, node’lar ile storage arasındaki bağlantı tipi ve storage üzerindeki disklerin tipi/hızı Quick Migration işleminin süresine direkt olarak etki eden temel faktörlerdir.

 

 

Bunun nedenini anlamak için Quick Migration işleminin background’una bakmak gerekir.

 

 

Quick Migration esnasında gerçekleşen işlemler sırası kabaca şöyle.

 

 

1. VM saved state duruma alınır.

 

2. VM durumu (VSV ve BIN bilgisi) diğer node üzerine taşınır.

 

3. VM diğer node üzerinde start edilir. VSV ve BIN dosyaları sayesinde kaldığı yerden çalışmaya devam eder.

 

 

Bir VM için QM (Quick Migration) komutunu verdikten sonra, VM bulunduğu host üzerinde saved state dediğimiz bir duruma alınır (VM’in o anki durumu ile dondurulduğunu düşünün). VM’in o anki durumunu (başta sanal memory içeriğini ve process bilgilerini) tutan dosyalar ise VSV ve BIN dosyalarıdır. QM işleminin süresine etki eden temel faktör bu dosyaların boyutlarıdır. Bu dosyaların boyutları ise VM’e atadığımız sanal memory miktarı ile doğru orantılıdır.

 

 

Örneğin 256MB memory’e sahip bir VM için yaklaşık 256mb boyutunda bir BIN dosyası vardır ve bunun QM sırasında save edilmesi, bilgisinin diğer node üzerine taşınması gerekir.

 

 

Ama 2GB memory’e sahip bir VM için 2048mb boyutunda bir BIN dosyası vardır ve haliyle taşıma işlemi daha uzun sürecektir.

 

 

Bunun dışında storage ve node’lar arasındaki bağlantı teknolojisi de bu taşıma işleminin hızına direkt olarak etki edecektir.

 

 

Dediğim gibi ayrıntılar daha sonra 🙂

 

 

Bizim kurmuş olduğumuz iSCSI cluster yapısında 1GB ram’e sahip makineyi 10sn gibi bir sürede QM ile diğer node’a taşıyabiliyoruz.

 

 

Aşağıdaki tablo ise storage bağlantı teknolojileri ve VM üzerindeki ram miktarına göre bazı ortalama rakamları yansıtmaktadır. iSCSI tarafındaki rakamlara takılmayın, süreler çok daha aşağılara çekilebiliyor.

 

 

VM Memory

 

1 GbE iSCSI

 

2 Gb FC

 

4 Gb FC

 

512 MB

 

~8 seconds

 

~4 seconds

 

~2 seconds

 

1 GB

 

~16 seconds

 

~8 seconds

 

~4 seconds

 

2 GB

 

~32 seconds

 

~16 seconds

 

~8 seconds

 

4 GB

 

~64 seconds

 

~32 seconds

 

~16 seconds

 

8 GB

 

~2 minutes

 

~64 seconds

 

~32 seconds

 

 

 

Quick Migration işlemi biz yöneticiler tarafından başlatılır ve geçiş süresince VM’in erişilemez durumda olacağı bilinir. Bu nedenle QM’i planlı kesintiler sınıfına sokabiliriz.

 

 

Şimdi kurmuş olduğumuz failover cluster yapısında QM (Quick Migration)’i nasıl yapıyoruz bir bakalım. Hem de yapıyı test etmiş olalım.

 

 

10.1.2. Quick Migration Nasıl Yapılır?

 

 

HV-Node1 üzerinde Failover Cluster Management konsolunu açıyoruz.

 

 

QM işlemini Failover Cluster konsolu üzerinden yapabileceğimiz gibi SC Virtual Machine Manager 2008 ile de yapabiliriz.

 

 

Services and  Applications altındaki Virtual Machine servisine sağ tıklıyoruz ve Move virtual machine(s) to another node altındaki Move virtual machine(s) to node ‘HV-Node2’ seçiyoruz.

 

 

Bu komut ile Virtual Machine servisi içerisinde eklemiş olduğumuz ve şu an HV-Node1 tarafından sahiplenilmiş olan VM’i/VM’leri, HV-Node2 üzerine QM yapıyoruz (biz bir adet eklemiştik: Cluster-XP).

 

 

clip_image002

 

Komutu verdikten sonra işlem hemen başlıyor. Aşağıda da gördüğüz gibi öncelikle VM save ediliyor yani saved state durumuna geçiyor.

 

 

Bu esnada ilgili VM’in sahibi (Current Owner) HV-Node1. VM HV-Node1 üzerinde çalışıyor. Bunu da aşağıda görebiliyoruz.

 

 

clip_image004

 

 

Saving işlemi saniyeler içinde tamamlandıktan sonra ilgili VM artık diğer node’a (bizim yapımızda HV-Node2) devrediliyor ve owner’lık değişiyor.

 

 

VM HV-Node2 üzerinde start olmaya başladı. Artık Current Owner HV-Node2.

 

 

clip_image006

 

 

Kısa bir süre içerisinde işlem tamamlanıyor ve Cluster-XP isimli makine diğer HV-Node2 üzerinde çalışmaya devam ediyor.

 

 

clip_image008

 

 

Bu noktada HV-Node1 yani Cluster-XP’nin eski sahibi olan node üzerinde Hyper-V Manager konsolunu açarsanız, Cluster-XP’nin yer almadığını görebilirsiniz. Çünkü artık diğer node üzerinde.

 

clip_image010

 

 

HV-Node2 üzerinde ise Hyper-V Manager konsolunu açtığınızda Cluster-XP’nin yer aldığını görebilirsiniz.

 

 

clip_image012

 

 

Hatırlarsanız Cluster-XP VM’i HV-Node1 üzerinde çalışırken, clustered diskler de HV-Node1 üzerinde direkt olarak erişilebilir durumdaydı.

 

 

Şu an ise clustered diskler den birisi (VM’in yer aldığı disk) otomatik olarak HV-Node2 üzerinde erişilebilir duruma geçti.

 

 

clip_image014

 

 

 

Diğer clustered disk yani quorum bilgisinin tutan disk ise hala HV-Node1 üzerinde çalışıyor çünkü HV-Node1 up durumda. QM işleminde quorum diskin yeri değişmez.

 

 

Disk sahiplik durumlarını Failover Cluster Management konsolunda Storage bölümünde daha net görebilirsiniz.

 

 

clip_image016

 

 

 

Quick Migration başlatmadan hemen önce network üzerinden Cluster-XP sanal makinesine ping atmaya başlamıştım.

 

 

QM bitene kadar olan ping istatistiği aşağıdaki gibidir.

 

 

clip_image018

 

 

 

Görüldüğü gibi 5 ping paketi kaybı sonrasında VM tekrar network üzerinde erişilebilir hale gelmiş.

 

 

Şimdi VM’i tekrar eski yerine taşıyalım. Yani HV-Node2 üzerinden yine HV-Node1 üzerine alalım.

 

 

Yine Failover Cluster Management konsolu üzerinde Services and  Applications altındaki Virtual Machine servisine sağ tıklıyoruz ve Move virtual machine(s) to another node altındaki Move virtual machine(s) to node ‘HV-Node1’ seçiyoruz.

 

 

Eğer cluster yapımızda başka node’lar olsaydı onları da burada görüyor olacaktık.

 

 

clip_image020

 

 

 

Bu komut sonrası yine VM hızlıca save ediliyor.

 

 

clip_image022

 

 

 

Ve HV-Node1 üzerinde tekrar start ediliyor.

 

 

clip_image024

 

 

 

Taşıma işlemi bittiğinde current owner olarak HV-Node1 görünüyor ve VM online/running durumda.

 

 

clip_image026

 

 

 

Quick Migration işlemi bu kadar. Gördüğünüz gibi birkaç küçük tıklama ile VM’leri cluster üyesi sunucular arasında rahatlıkla dolaştırabiliyoruz 🙂

 

 

10.2. VM Failover (Sanal Makine Hata Telafisi)

 

 

10.2.1. VM Failover Nedir?

 

 

Cluster yapısına eklenmiş Host ve VM’ler için failover yeteneği temelde bir HA (High Availability) özelliğidir.

 

 

Cluster üyesi Node’lardan birinin başına bir şey geldiğinde (donanımsal bir başarısızlık nedeni ile sunucunun down olması gibi), down olan node üzerindeki servis ve uygulamanın (bizim yapımızda Virtual Machine servisi) up durumda olan diğer node üzerinde hizmet vermeye devam etmesi durumudur.

 

 

Yine küçük bir senaryo ile örneklendirelim.

 

 

Yapımızdaki Cluster-XP makinesi şu an HV-Node1 üzerinde çalışıyor. Diğer cluster üyesi node ise HV-Node2 ve şu an pasive node konumunda bekliyor.

 

 

Gün içerisinde HV-Node1 üzerinde bir donanım arızası oluşuyor ve sunucu bir anda down oluyor. Kısa bir süre içerisinde telefonlar yağmaya başlıyor çünkü HV-Node1 üzerinde hizmet veren VM ve servislere erişilemiyor ve bu hizmetleri kullanan kullanıcılarımız hemen telefona sarılıyor 🙂

 

 

Hatırlarsanız makalenin ilk bölümlerinde heartbeat isimli bir network ten bahsetmiştik. Bu network için farklı bir ip config yaparak public networkten ayırmış ve cluster üyesi sunucuların bu network üzerinden birbirlerini yokladıklarını, up durumda olup olmadıklarını kontrol ettiklerini söylemiştik. İşte bu network üzerinden yapılan kontroller sırasında down olmuş bir node tespit edilirse, otomatik olarak gerekli aksiyon alınabiliyor.

 

 

Senaryomuza dönersek, HV-Node1 down olduğu zaman HV-Node2 bunu kısa süre içerisinde fark edebiliyor çünkü sunucular heartbeat network üzerinden sürekli birbirlerini kontrol ediyor. Daha sonra HV-Node2 gerekli cluster kaynaklarını ve HV-Node1 üzerinde çalışan servisleri otomatik olarak kendi üzerine alıyor yani VM’ler otomatik olarak HV-Node2 üzerinde failover oluyor (hata telafisi).

 

 

Bu noktada geçen süre, node’un down olduğuna karar verilmesi ve ilgili kaynakların diğer node üzerine taşınması gibi işlemler ile birlikte ortalama 1-2 dakikadır (değişkenlik gösterir). Node’lar arası kontrol süresini çok kısa tutmak sağlıklı değildir çünkü heartbeat network üzerinde meydana gelebilecek anlık ve ya kısa süreli geçici problemlerde node’lar birbirine ulaşamaz ise ortalık bir anda karışabilir 🙂

 

 

Bir sunucunun down olması durumu biz yöneticilerin isteği dışında gerçekleşen bir olay olduğu için plansız kesintiler sınıfına sokuyoruz.

 

 

Şimdi failover aksiyonunu test edelim.

 

 

10.2.1. VM Failover Nasıl Yapılır?

 

 

Yapılması gereken ekstra bir ayar yok. Daha önceden kurmuş olduğumuz failover cluster yapısı dahilinde bu özellik otomatik olarak etkin durumdadır. Cluster yapısına Services and  Applications olarak Virtual Machine servisinin eklenmesi ve ilgili VM’lerin seçilmesi yeterli (biz bunu zaten yapmıştık).

 

 

HV-Node1 üzerinde Failover Cluster Management konsolunu açtığımızda Virtual Machine servisinin sahibinin HV-Node1 olduğunu görebiliyoruz ve servis şu an online durumda.

 

 

clip_image028

 

 

 

Nodes altında HV-Node1’e baktığımızda her iki clustered disk’in ve virtual machine servisinin HV-Node1 üzerinde olduğunu açıkça görebiliyoruz.  Yani aktive node durumunda.

 

 

Ayrıca node up durumda.

 

 

clip_image030

 

 

 

Şu an HV-Node2 ye baktığımızda ise üzerinde hiçbir cluster kaynağının olmadığını görüyoruz. Yani pasive node durumunda.

 

 

Ayrıca o da up durumda.

 

 

clip_image032

 

 

 

Şimdi herhangi bir nedenden dolayı HV-Node1’in down olduğunu düşünelim. Ben test için HV-Node1’in fişini çekiyorum 🙂

 

 

Cluster ortamı hemen HV-Node1 de bir problem olduğunu anlıyor. Aşağıdaki görüntüde HV-Node-1 üzerindeki küçük kırmızı uyarıyı görebilirsiniz.

 

 

Ayrıca şu an Virtual Machine servisinin sahibi hala HV-Node1.

 

 

clip_image034

 

 

 

Saniyeler içerisinde servis pending duruma geçiyor ve HV-Node2’ye aktarılıyor.

 

 

clip_image036

 

 

 

İşlem tamamlandığında servisin yeni sahibi HV-Node2 ve Cluster-XP online olmuş durumda.

 

 

clip_image038

 

 

 

HV-Node1 şu an kapalı durumda bekliyor ve üzerinde hiçbir cluster kaynağı olmadığını görebiliyorsunuz.

 

 

clip_image040

 

 

 

HV-Node2 ise tüm cluster kaynaklarını kendi üzerine almış durumda ve sistem çalışmaya devam ediyor.

 

 

clip_image042

 

 

 

Storage bölümünden baktığımızda ise iki diskin de HV-Node2 tarafından sahiplenildiğini görüyoruz.

 

 

QM işlemini hatırlayın, sadece VM’in olduğu diskin sahipliği değişiyordu çünkü planlı bir kesintiydi ve diğer Node up durumdaydı.

 

 

Failover da ise HV-Node1 down olduğu için quorum diski de diğer node üzerine taşınmış durumda.

 

 

clip_image044

 

 

 

Şimdi down durumda olan HV-Node1’i tekrar açıyorum.

 

 

Cluster yapısı hemen HV-Node1’in up olduğunu anlıyor ve bu durumu Failover Cluster Management konsolu üzerinde görebiliyoruz.

 

 

Şu an VM’i QM ile eski yerine yani HV-Node1 üzerine alabiliriz yada bu şekilde bırakabiliriz.

 

 

HV-Node1 üzerine almak için Move virtual machine(s) to node ‘HV-Node1’ dememiz yeterli.

 

 

clip_image046

 

 

 

Saving …

 

 

clip_image048

 

 

 

Ve Starting…

 

 

clip_image050

 

 

 

Sonrasında Virtual Machine servisinin sahibi tekrar HV-Node1 olur.

 

 

clip_image052

 

 

Quorum disk ise hala HV-Node2 üzerindedir çünkü QM ile quorum yada diğer clustered disklerin taşınmadığını söylemiştik.

 

 

Quick Migration ve Failover(HA) özelliklerini test ettikten sonra iSCSI Storage ile Hyper-V Failover Cluster makalemizin sonuna gelmiş olduk.

 

 

Bu makalede öğrendikleriniz ile fiber channel storage kullanarak ta aynı yapıyı kurmanız mümkün. Belki bazı konfigürasyon adımlarında değişiklikler olabilir ancak olayın mantığı tamamen aynı.

 

 

Bu yapı üzerinde Hyper-V R2 ile gelen Live Migration özelliğini de kullanabilirsiniz. Ekstra bir şeye gerek yok. QM yaparmış gibi LM yapabilirsiniz. Sadece Host sistemlerin Windows Server 2008 R2 yada Hyper-V Server 2008 R2 olması gerekiyor.

 

 

Herkese iyi çalışmalar.

 

 

Serhat AKINCI – IT Pro.

 

Hyper-V Failover Cluster Kurulumu (Bölüm-6)

 

 

    Önceki bölümde failover cluster kurulumunu gerçekleştirmiştik. Bu bölümde ise cluster yapımıza sanal makineleri yani Virtual Machine servisini ekliyoruz.

 

9. Hyper-V Sanal Makinelerini Cluster Yapısına Dahil Etmek

 

Failover Cluster kurulumunu tamamlamış ve nodeları cluster yapısı içerisinde görüyor olmamız, sanal makinelerin cluster ortamında çalışmaya başlaması için yeterli değil.

Cluster kurulumu sonrasında ilgili servisin yada uygulamanın cluster yapısına ayrıca eklenmesi gerekiyor. Failover Cluster yönetim konsolunu açarsanız henüz herhangi bir uygulama/servis olmadığını görebilirsiniz.

clip_image002

Yani cluster kurulumu yapmak, sanal makinelerin High Available olması için yeterli değil. Ayrıca henüz Nodelar üzerine Hyper-V kurulumu da yapmadık.

9.1. Nodelar Üzerine Hyper-V Kurulumu

Biz Hyper-V üzerinde çalışan sanal makineleri failover cluster yapısına almak istediğimiz için, servis ve uygulama olarak Virtual Machine ekleyeceğiz. Ama bunun öncesinde fiziksel Node’lar üzerine Hyper-V rolünü eklemeliyiz yani Hyper-V kurulumunu yapmalıyız. Hatırlarsanız Hyper-V kurulumunu cluster öncesinde veya cluster sonrası yapabileceğimizi söylemiştik.

Server Manager konsolunda, Roles bölümünde, Hyper-V rolünü seçerek ileri dedikten sonra wizard yardımı ile birkaç ayar yaparak Hyper-V rolünü eklemeniz mümkün.

clip_image004

clip_image006

clip_image008

clip_image010

Hyper-V kurulumu ile ilgili fazla detaya girmiyorum. Bu konunun ayrıntıları için daha önceki makalelerime bakabilirsiniz.

Her iki fiziksel node üzerine (HV-Node1 ve HV-Node2) Hyper-V kurulumunu doğru olarak yaptıktan ve çalıştığından emin olduktan sonra devam edebiliriz.

9.2. Test için Sanal Makine (VM) Yaratılması

Test amaçlı yeni bir VM (sanal makine) yaratalım ve nodeların bu VM’i çalıştırıp çalıştıramadığını kontrol edelim.

Failover Cluster yapısına almak istediğimiz VM’lerin storage üzerindeki ortak birimlerde duruyor olması ve cluster nodelarının bu birime/birimlere erişebiliyor olması gerektiğinden daha önce bahsetmiştik.

Hatırlarsanız storage üzerinde iki Virtual Disk yaratıp bunları node’lar üzerine atamıştık. Birini cluster bilgisini tutan Quorum için kullandık (2GB olan). Diğer disk ise hala boşta (30GB olan). Boşta olan diski VM için kullanacağız.

Öncelikle HV-Node1 üzerinde Disk Management’ı açıyoruz ve bu disk üzerinde NTFS formatlı bir partition oluşturuyoruz.

clip_image012

Wizard yardımı ile partition oluşturma işlemini tamamlayalım.

clip_image014

HV-Node1 üzerinde Computer penceresinde oluşan volume’u görebiliriz. Ben ismini VMs olarak değiştirdim.

clip_image016

Dikkat ederseniz Type olarak Clustered Disk görünüyor.

Hemen üstünde ise daha önce biçimlendirdiğimiz ve quorum bilgisinin tutan Quorum bölümünü de görebiliyoruz.

Peki şu an HV-Node2 üzerinde durum ne?

HV-Node2 üzerinde Server Manager> Disk Management bölümüne gelirseniz, HV-Node1 üzerinde biçimlendirdiğimiz disklerin HV-Node2 üzerinde Reserved durumda olduğunu görebilirsiniz.

clip_image018

Yine HV-Node1’e dönelim ve Cluster Management konsolundaki duruma bakalım.

clip_image020

Gördüğünüz gibi iki diskte storage bölümünde listeleniyor. Disklerin şu anki sahibi ise HV-Node1.

Şimdi HV-Node1 üzerinde yeni bir VM yaratalım ve bu VM storage üzerinden atadığımız diskte bulunan VMs (H:\) partition’ı içerisinde dursun.

Sıradan bir VM yaratmaktan farkı yok. Sadece VM’in duracağı yer olarak storage üzerinden gelen clustered disk’i göstermemiz gerekiyor.

clip_image022

VM yaratmak ile ilgili ayrıntıya girmiyorum. Eğer nasıl yaratılacağını bilmiyorsanız, bu konu için daha önce yazmış olduğum makalelere göz atabilirsiniz.

VM’i yarattıktan ve içerisine Guest OS kurduktan sonra aşağıdaki gibi görünüyor olmalı.

clip_image024

Yukarıda gördüğünüz gibi Cluster-XP isimli sanal makine, HV-Node1 üzerinde çalışıyor. Ama sanal makinenin vhd formatlı sanal diski ve diğer ilgili dosyaları H:\ yani clustered disk üzerinde duruyor.

Şimdi Failover Cluster yapımıza Services and Apllications olarak Virtual Machine ekleyeceğiz ve yarattığımız VM’i High Available yapacağız.

9.3. Failover Cluster Yapısına Virtual Machine Servisini Eklemek

HV-Node1 üzerinden Failover Cluster Management konsolunda Services and Apllications üzerinde sağ tıklıyoruz ve Configure a Service or Application diyoruz.

High Availability Wizard açılıyor.

clip_image026

Next diyoruz.

clip_image028

Select Service or Application penceresinde gördüğünüz gibi çok sayıda servis ve uygulama var.

Biz Virtual Machine seçerek devam ediyoruz. Bu noktada listedeki farklı uygulamalar için de cluster yapıları oluşturmanız mümkün.

clip_image030

Next dedikten sonra gelen Select Virtual Machine penceresinde ise cluster yapısına dahil edeceğimiz VM’i/VM’leri seçiyoruz. Yani Node’lar üzerindeki tüm VM’ler hemen cluster yapısına dahil olmuyor. Hangi VM’in cluster içerisinde çalışacağına bu ekranda seçim yaparak biz karar veriyoruz. Tabii ki tümünü seçme şansımız da var.

Dikkatinizi çekmek istediğim bir diğer nokta ise bu pencerede cluster node’ları üzerindeki tüm VM’lerin listeleniyor olması (aşağıda da görünüyor). Yani HV-Node1 ve HV-Node2 üzerindeki tüm VM’ler bu listede yer alıyor ve hepsini seçebiliyoruz. Ama seçtiğimiz VM’in clustered disk üzerinde olması gerektiğini unutmayın. Yani burada listeleniyor olması, cluster yapısına dahil edebileceğimiz anlamına gelmiyor. Clustered disk şart.

clip_image032

Bizim clustered disk üzerinde duran VM’in ismi Cluster-XP. Bu nedenle onu seçerek devam ediyorum.

Ama Cluster-XP seçtiğimde bir hata alıyorum.

clip_image034

Bunun anlamı şu: bu konfigürasyonu, cluster yapısına dahil edeceğimiz VM çalışır durumdayken yapamıyoruz. VM’in off durumda olması gerekiyor.

VM’i Hyper-V Manager konsolundan ya da ilgili ara yüz üzerinden off yaptıktan sonra tekrar High Availability Wizard’ı açıyoruz ve aynı yere kadar ilerliyoruz.

Cluster-XP’i seçerek Next diyoruz.

clip_image036

Next ile konfigürasyonu başlatıyoruz.

clip_image038

İşlem sürüyor.

clip_image040

Summary penceresinde Success mesajını gördükten sonra yapılandırma başarılı bir şekilde tamamlanmış oluyor.

Finish diyerek bitiriyoruz.

clip_image042

Artık Failover Cluster Management konsoluna döndüğümüz zaman Services and Applications altında Virtual Machine servisini görebiliriz ve şu an offline durumda.

Bu servis için Current Owner olarak ise HV-Node1 görünüyor.

clip_image044

Hemen start edelim.

clip_image046

Bu komut ile Virtual Machine servisi içerisinde ekli olan tüm VM’leri start etmiş oluruz.

Biz tek bir VM eklediğimiz için şu an tek bir VM start oldu.

clip_image048

Böylece Virtual Machine servisi ve eklediğimiz bir adet VM için failover cluster yapılandırmasını tamamlanmış olduk.

Şu an Cluster olarak çalışan Virtual Machine servisi içerisindeki 1 adet VM’in ve Clustered disklerin Current Owner’ı HV-Node1 makinesi. Bu nedenle HV-Node1’i aktive node olarak adlandırıyoruz.

clip_image050

HV-Node1 üzerinde Computer penceresine geldiğinizde ise iki diski erişilebilir şekilde görebilirsiniz.

clip_image052

HV-Node2 ise şu an için herhangi bir cluster kaynağının sahibi değil yani pasive node konumunda.

clip_image054

Ayrıca clustered diskler şu an HV-Node2 üzerinde partition anlamında erişilebilir durumda değil.

clip_image056

Şimdi cluster’ın doğru olarak çalışıp çalışmadığını görmek için bir takım testler yapacağız.

Bu testleri Bölüm-7 de gerçekleştiriyoruz.

 

Serhat AKINCI – IT Pro.