Talán élesedik egy VCF-es projekt és ennek kapcsán rengeteg tapasztalatot tudok gyűjteni.
Magda Tamás blogján (https://blog.magdatamas.hu/vmware-cloud-foundation-vcf-4-0-bemutato/) olvashattatok egy bejegyzést a VCF bring up folyamatának első lépéséről, ezt bővíteném én most.
Előkészületek
Igen sok feltétel van, de kezdjük az egyszerűbbel, le kell tölteni a Cloud Builder OVA-t, innen: https://my.vmware.com/web/vmware/info/slug/datacenter_cloud_infrastructure/vmware_cloud_foundation/4_0
Szedjük le tehát az igen becsületes méretű, majdnem 21GB-os OVA-t. Van alatta egy XLSX is, amit szintén érdemes lementeni mert, akkor nem kell arra várni, hogy az OVA-ból feltelepített gépből ki tudjuk menteni.
Amíg letöltődik, nyissuk meg a táblázatot, ami első oldalán teszi elénk mire lesz előzetesen igény:
- legalább 4 darab VSAN ready szerver, bekábelezve és ESXi-vel telepítve. Felmerül a kérdés, hogy mégis milyen ESXi-vel? Hát azzal ami az adott VCF verzióhoz tartozik – a VCF BOM-ját kell megnézni.
- A management vmKernel legyen statikus IP-vel felkonfigurálva és csak egy vmnic legyen általa használva. Azonos VLAN-ban legyen egy Virtual Machine Port Group is, azonos vSwitch-en.
- SSH legyen engedélyezve és a hoszt indulásával induljon el.
- NTP legyen konfigurálva sé a hoszt indulásával induljon el.
- DNS kell!!!! Tehát előre legyen bejegyezve a vCenter, az SDDC Manager és az NSX-T Management cluster által használt minden DNS név a forward és reverse zónákban.
Ezek után érdemes átgondolni mit is akarunk – erről beszéltem már podcast-ban is és írtam is róla – mert két út van, de annál is fontosabb mekkorában indulunk. Mint ismeretes a VCF alapvetően két úgynevezett domain-t különböztet meg:
- management domain: Itt futnak az olyan virtuális gépek, amelyek magának a VCF-nek a működtétéséért felelősek, illetve a workload domain-ek számára szolgáltatásokat nyújtanak. (Egyébként tehetőek ide szabadon egyéb VM-ek is).
- workload domain: Itt fut minden, amit produktív üzemű rendszereknek tekintünk. Verziótól függ, de egy ilyen lehet generic, de lehetséges VMware Horizon-t is kigurítani automatikusan, na meg PKS/Kubernetes on vSphere-et is. Fontos megjegyezni, hogy a workload domain és a VMware klaszter között nem egy-egy a megfeleltetés, egy workload domain-ben lehet több klaszter is, de egy klaszter csak egy workload domain-ben lehet.
A Cloud Builder feladata a management domain telepítése, anélkül nincs is VCF. Tehát management domain mindenképpen lesz, viszont workload domain lehet hogy nem. Ez utóbbit nevezik consolidated-nek, ekkor végső soron produktív gépek futnak majd a management klaszterben. Indulásra jó ez, később módosítható egyébként a design és létrehozhatóak workload domain-ek, tehát nem végleges a döntés. Igazából azért lényeges, mert a consolidated esetben elegendő 4 darab fizikai szerver, míg a management domain + egy workload domain módban ez rögvest ugrik 7 darab fizikai hosztra.
Szintén fontos, hogy alapértelmezetten a Management domain, úgynevezett AVN (Application Virtual Network) kiegészítéssel települ. Kacifántos a neve, de annyit jelent, hogy létrejön két NSX-T Edge VM is, egy Edge cluster-t formálva, BGP kapcsolatokkal az északi irányba. Ha ez nem kívánjuk, akkor át lehet állítani, hogy ne használjon AVN-t, akkor igazából az NSX-T telepítés és konfiguráció kimerül az NSX-T Manager-ek telepítésében. Mikor van értelme mégis az AVN-nek? Akkor ha egyébként consolidated módban vagyunk vagy éppen a Lifecycle Manager által telepítésre kerülő – nem a bringup része – vRealize komponenseket, olyan hálózatba szeretnénk tenni, amely akár több telephelyre szétosztott management domain-ben kerülnek futtatásra, mivel akár stretched is lehet egy VCF.
Egy VCF telepítésben 16 domain lehet, amiből egy ugye a management domain. Mint említettem, egy workload domain-ben lehet több klaszter is, szóval ez a 15-ös szám nem alacsony. Mivel minden újabb workload domain esetén újabb és újabb management VM-ek jönnek létre, fontos a management klaszter olyan kialakítása, hogy bővíthető legyen ha kell – scale up and out.
Az alaptelepítéshez a következő VM-ekkel kell számolni:
Funkció | vCPU | RAM | Tárkapacitás |
---|---|---|---|
vCenter Server | 4 | 19 | 462,08 |
NSX-T Manager Cluster | – | – | – |
NSX-T Virtual Appliance Node #1 | 6 | 24 | 200 |
NSX-T Virtual Appliance Node #2 | 6 | 24 | 200 |
NSX-T Virtual Appliance Node #3 | 6 | 24 | 200 |
NSX-T Edge Node #1 – North-South | 4 | 8 | 200 |
NSX-T Edge Node #2 – North-South | 4 | 8 | 200 |
SDDC Manager Appliance | 4 | 16 | 816 |
Ezt kell kiszolgálni 4 fizikai szervereken, kötelezően VSAN-on. A VSAN egyébként lehet hibrid is, ez jelentős könnyítés, tehát a fenti igényt fájdalommentesen ki lehet alakítani.
A táblázatba be kell adni a licenszeket is, tehát kulcsokra lesz szükség az ESXi-hez, a vSAN-hoz, a vCenter-hez és az SDDC Manager-hez is.
Jelszavak
Szintén lényeges, hogy az összes komponenshez megfelelő jelszavakat válasszunk, mivel ezt is be kell írni a táblázatba, tehát kell ESXi root, vCenter SSO, vCenter root, NSX-T appliance root/admin/audit, SDDC Manager root/vcf/admin jelszó is. Ha nem elég komplex, akkor azt már a táblázat sem fogadja el, nem csak a telepítéskor bukik majd ki.
Hálózat
A legfontosabb talán, VCF esetén elindulni sem lehet 7 darab VLAN nélkül.
Na vegyük sorra őket:
- Management Network: Itt vannak az ESXi vmkernel interfészei, ide kerül az SDDC Manager, az NSX-T Manager-ek és a VIP, a VCSA, bizonyos esetekben az Edge cluster management interfészei is.
- vMotion Network: Magáért beszél, külön vMotion szegmens az ESXi-k adott vmkernel portjai számára.
- vSAN Network: A VSAN számára, tekintve hogy kötelező.
- NSX-T Host Overlay: Az ESXi-k TEP interfészeinek – ide DHCP kötelező.
- NST-T Edge Uplink 1/NSX-T Edge Uplink 2: Ha AVN-nek telepítjük akkor kell két VLAN is, amin majd az észak-dél megvalósul.
- NSX-T Edge Overlay: Azért kell ennek egy saját, mert jó ha nincs azonos VLAN-ban a host overlay-el.
Az utolsó táblázatban a használt IP-ket kell megadni a külső szolgáltatásokhoz, kívánt DNS neveket a VCSA, NSX és SDDC Manager számára, továbbá aa management domain nevét, vSwitch neveket, resource pool neveket, datacenter és cluster elnevezéseket.
Ha kész, akkor mentsük el a táblázatot és nézzük meg, hogy elindult-e a Cloud Builder. Ha igen, akkor az alábbi fogad, lépjünk be az admin felhasználóval.
Mivel szűz telepítésről beszélünk, ez az alábbi fogad bennünket, fogadjuk el hát az EULA-t.
A következő kérdés elég markáns, két opciót ad. Ha VSAN ready node-okon építkezünk, akkor az elsőt kell választani, ha Dell EMC VXrail-ből van négy – legalább – akkor a másodikat.
A korábban már kitárgyalt követelményeket – amik egyébként az XLSX-ben is benne vannak – megjeleníti és kikényszeríti a megértést.
Picit jobban láthatóan a követelmények:
És akkor íme az Excel-tábla, amit innen is le lehet tölteni, de mi már letöltöttük a VMware oldaláról korábban.
Kitöltés után ugorjunk a 2. és 3. lépésre.
Az utolsó lépésben töltsük fel rá a táblázatot. Fontos, hogy a kulcsokat például NEM validálja, tehát ha nem érvényes valamelyik, az itt nem derül ki! Ez csak a formátumát vizsgálja.
A következő lépésben validálja a feltöltött adatok alapján a környezetet.
Ez 5-10 percig körülbelül eltart. Innen folytatjuk….