Nevezhető a második érkezőnek az újabb generációs penge/moduláris infrastruktúra piacán a DellEMC terméke. Mikor kialakult már igen sok éve a nagy hármas portfóliója és válasza a penge formátumú szerverekre nagyjából a megközelítés is rögzítésre került.
Volt vala a HP/HPE BladeSystem c7000, amely dobása a Virtual Connect modul volt, amik minden keretben párban képesek voltak a pengék hálózati interfészeit lényegében „virtualizálni” és ezeket profilokból konfigurálni a fizikai szerverek számára.
A Dell M1000e pontosan ugyanakkora volt – szintén 10U – és ugyanannyi szervert volt képes fogadni mint a HP/HPE c7000. Itt nem volt a VC-hez mérhető képesség, de általánosan elmondható, hogy jó igásló volt.
A Cisco UCS 5108 egy gyökeresen más válasz volt azonos kérdésre, a 10U-s Dell M1000e és a HP c7000 keretekkel szemben 6U volt viszont Cisco-hoz híven elsősorban a hálózati fronton volt nagyon ütős. A Cisco a multi és hyperscale esetekben a FI-FEX képességei miatt már ekkor képes volt nagyon közel hozni a kereteket egymáshoz – késleltetés szempontjából – és ezen felül is magasan optimalizálni a szükséges kábelek és aktív eszközök számát. A profilozhatóság itt volt maga a mayhem, bármit, bármilyen számban meg lehetett csinálni – a Virtual Connect-nél egy fizikai port 4 virtuális funkcióra volt bontható, a Cisco-nál ez 128 volt.
Aztán eljött az idő, annak az ideje, hogy az Intel igazán nagy TDP-vel rendelkező processzorokat kezdjen gyártani és annak is eljött a keletje, hogy magasabb CPU konszolidáció miatt még több RAM kelljen ezekbe a kiszolgálókba.
A Cisco továbbra is kitart az 5108 mellett jelen formájában, ami azt bizonyítja, hogy annó ez egy elég jól sikerült architektúra volt, akkor is ha a mostanság megjelent DellEMC és HPE megoldások bizonyos területeken jelentősen bővültek, illetve tartalmazhatnak olyan komponenseket – például tároló a keretben – amit a Cisco-nál vásárolni sem lehet. Majdnem biztos, hogy egy éven belül valamilyen bejelentés lesz ekörül.
A HPE mozdult először és kijött a Synergy-vel, ami immáron egy három éves történet. Azóta a második iterációját éli bizonyos tekintetben, de kétség kívül kivágták azt ami a c7000 legnagyobb hibája volt, mégpedig hogy egy pár Virtual Connect modul minden keretbe kellett. A Synergy ezzel elindult abba az irányba, ahol a Cisco UCS már évek óta a koronát bitorolta, mivel itt is elegendő volt alapvetően az egy pár VC modult bekábelezni egy nem kereten belüli bármilyen eszközbe és minden más frame-et arra felfűzni. Megjelent az Image Streamer, hogy ténylegesen stateless tudjon lenni egy szerver konfigurációja, immáron az OS-t is beleértve, illetve a storage module ami felsrófolta a keretben kiosztható tárterületet úgy, hogy az nem DAS/NAS/SAN forrásból származik – oké aláírom hogy igazából ez majdnem DAS. Ez mind mind bekerült a Oneview menedzsmentje alá és ezzel egy pontból lehetett a szerverek teljes életciklusát, konfigurációját kezelni, ezért is hívta a HPE ezt „Composable infrastucture” szlogennel.
Aztán a DellEMC is megjelentette a saját frissített megoldását, ami a „Kinetic infrastructure” névvel fut, törzskönyezett nevén DellEMC Poweredge MX7000. A formátum változott, immáron nem 10U – a Synergy maradt 10U egyébként – hanem csak 7U és ennek megfelelően 8 szervert képes maximálisan kiszolgálni.
Alább nézzük csak meg picit részleteiben. Alsó sorban a tápegységek vannak, hat darab. Középen a négy ventillátor amely lényegében két oldalra bontja a keretet, azt eredményezve hogy oldalanként 4 szerver/tároló helyezhető el. A bal oldalon kétutas szerverek vannk a példában míg a jobb oldalon egy négyutas szerver és két darab tároló.
Nagyon érdekesnek találom, hogy a DellEMC nem változtatott és tette csak hátulról szervizelhetővé az MX7000-ret. Tehát tápegységet és néhány ventillátort előről kell cserélni, pár további ventillátort és az interconnect modulokat pedig hátulról. Nem foglalok állást ebben, de mindenképpen érdekes.
Milyen szerverek illeszthetőek be?
Említettem hogy két opció van:
- PowerEdge MX740c compute sled, egy bay széles maximum kétprocesszoros
- PowerEdge MX840c compute sled, két bay széles maximum négyprocesszoros
Izgalmas, hogy a keret kis méretőből adodóan nem él a lehetőség hogy félmagas blade-ről beszéljünk egy kétutas szerver esetén, csak teljes magas van.
A tároló PowerEdge MX5016s storage sled névre halgat és ebből összesen hét darab illeszthető egy keretbe, ezzel elérve a 112 darab 2,5″-os SAS/SATA számot a szerverekbe illesztett lemezeken felül. Két módban használható egy ilyen sled:
- Enclosure assigned mode: A teljes sled hozzárendelhető egy vagy több node-hoz, ezek közösen láthatják a diszkeket. Ebben az esetben HBA-t kell használni, nem PERC kontrollert a compute sled-ekben – alább.
- Drive assigned mode: A diszkeket akár egyesével át lehet adni a compute sled-eknek, de közösen egy diszket két sled nem használhat.
Fabric?
Három fabric „van” és természetesen a hátoldalon ennek megfelelően kell és lehet interconnect-eket elhelyezni.
Storage
Az A és B slot-okba, tehető hálózati interconnect, a C-be pedig a tároló. Ahhoz hogy a fentebb említett MX5016s storage sled-et a szerverek elérjék, szükség van az MX5000s interconnect-ekre is, a szerverekben természetesen megfelelő mezzanine-ra (HBA330 vagy PERC MX745P). Itt vannak external SAS portok is, a HPE-nél nincsenek, így ezt tulajdonképpen a c7000-ben látott SAS interconnect-et idézi, köthető rá külső tároló/polc.
Ethernet
Itt is megjelent a felfűzhetőség a hálózati oldalon, azaz a Dell is követi a HPE-t azon az úton, amelynek a végén a Cisco UCS van.
PowerEdge MX9116n
Ennek megfelelően a legfontosabb modul a PowerEdge MX9116n amely 25G downlink sebességgel szolgálja ki a pengéket és teszi lehetővé a több chassis/frame kiszolgálását, azokban pusztán egy másik egyszerűbb modul követelményével, a PowerEdge MX7116n modullal. Kifelé igen szép sebességeket tud, mert 12 darab 200 Gbit-re képes portja van – bár kettő elmegy a stack-re itt is majd – és 4 darab 100Gbit/s-es, utóbbiból kettő használható natív 32Gbit-es FC-re is.
PowerEdge MX7116n
Pár sorral feljebb már említettem, ez az expander modul. Két portja van és magától értetődik, hogy a redundancia érdekében egyes portjait különböző MX9116n-re vagy külső de Dell EMC hálózati eszközre kell kötni (utóbbi esetén igazából pass-through módban működik). Két portja van, 2 x QSFP28 200 Gbit.
PowerEdge MX5108n
Ez az interconnect egyetlen chassis/frame használata esetén javasolt, nem kell megvásárolni a fentebb említett MX9116n-t, ha sosem kötnénk rá másik keretet. Ugyanúgy 25G downlink-et biztosít mint az MX9116n, viszont nyilvánvalóan kifelé irányba nem rendelkezik akkora kapacitással, mint a nagyobb testvére. Itt 2 x 100Gbit-es QSFP28 van rajta és 4 x 10GBASE-T.
PowerEdge 25GbE Pass-Through Module és 10G-BaseT Pass-though Module
Vannak még passthru modulok is a kínálatban, de ezeket én amolyan utolsó lehetőségnek tartanám, a blade architektúra előnye pont a kevés/kevesebb kábel, nem éppen az hogy szerverenként minimum kettő kábel lógjon ki a keret hátuljából.
A kettő között a különbség pusztán annyi, hogy az első 16 x SFP28 portot, a másik pedig 16 x 10G-BASET portot kínál a keretből kifelé. Lefelé, a szerverek irányára mindkettő 25Gbit-et szolgáltat.
Fibre channel
PowerEdge MXG610s
Aki tradícionálisan már a kereten belül is elsősorban FC-n szereti intézni a tárolási forgalmat, azoknak rendelkezésére áll a PowerEdge MXG610s SAN modul, ami egy 32Gb képes FC switch. Használatához természetesen a szerverekbe szükség van FC mezzanine-ra. Kifelé 8 x 32Gb SFP+ és 2 x QSFP, amely tulajdonképpen 2 x 4 x 32Gb sebességet ad. Licenszelése port alapon működik.
Külső eszközök
A DellEMC annyival fejelte meg az egészet, hogy az MX9116n-re külső eszközöket is rá lehet kötni, ezáltal egy pár ilyen akár a TOR switch-ek feladatát is átveheti.
Kérdés, hogy az leaf-spine világ hajnalán mennyire léteznek még TOR switch-ek olyan formán, ahogyan egy/két keret azt biztosítani tudja. Főleg hogy aki tényleg komolyan veszi a leaf-spine hálózatok tervezését, azok általában nem egy ilyen formán konvergens eszközparkot akarnak, hanem valamilyen központilag menedzselhető és teljes mértékben független hálózatot. A SmartFabric pont az előzőre megoldás, de a Cisco ACI világában esélytelen, hogy valaki a TOR-t az MX7000-rel szeretnék kiváltani. Kis ügyfélnél viszont kiválthat több switch-et is, ez reális alternatíva.
Összefoglaló
Érdekes látni az eltérő megközelítését a DellEMC-nek és kíváncsian várom merre fejlesztik tovább a kerettel kapcsolatos ökoszisztémát. Itt nincs szó a keretben lévő menedzsment-ről, külső szoftver kell az olyan szintű menedszmenthez mint amit más gyártó tud a saját termékével, azaz az Openmanage Enterprise-t valahol telepíteni kell, nincs appliance formában és végképp nincs lehetőség azt a kereten belül tartani mint egy applicance.
Fun fact: Ebben sincs már InfiniBand interconnect. Amúgy sem volt túl gyakori, de a nem HPC x86 világban kihalni látszik?!