Párizs – HPE TSS 2019

Ezt a bejegyzést már Párizsból írom, mivel idén itt van a Hewlett Packard Enteprise éves rendezvénye ami a “Technology and Solutions Summit” névre hallgat. Harmadik éve vagyok olyan szerencsés helyzetben, hogy partnerként vehetek részt az eseményen. Keddtől, péntekig előadások, laborok és hands-on bemutatók, minden témakörben amihez a HPE-nek köze van, közvetve pedig olyan szponzoroknak, mint az Nvidia, az Intel vagy az AMD. További plusz, hogy idén is lehet vizsgázgatni, így nekifutok majd egy Nimble vizsgának és egy Aruba Certified Switching Associate-nek, hátha.

Nem kevés előadás lesz és attól függően, mennyi titoktartási fogadalmat kell tennem, valószinüleg posztolok majd pár friss információt. Ez alatt a bejegyzés alatt kerülnek majd fel, napra lebontva azok a dolgok amikről beszélhetek.

Kedd

Opening keynote:

A megnyitó amiben körvonalazódott, hogy a rendezvény még nagyobb mint eddig bármikor, azaz immáron 3200 ember vesz részt rajta évről évre, ráadásul a partnerek száma is jelentősen nött. Nyilván azért mert az integrátori piac is látja, azt hogy a gyártó tart valamerre és képes végrehajtani a terveket. Általánossáhban mozdul a világ az Edge computing és az Intelligent Edge felé, azaz bár szerintem volumenben az adatközponti feldolgozás és számítás nem csökken, viszont kikerül – újra – a szükséges kapacitás az adatok forrásának tekinthető “végpontra”. Itt a végpontot nem a tradicionális formájában kell érteni, hanem azokhoz a dolgokhoz – már gondolom sejted merre megyek – amelyek valamilyen adatot gyűjtenek be, amiket érdemes feldolgozni és azok alapján valamilyen vezérlést megvalósítani. Hazánkban nem hat annyira a példa, hogy egy fúrótorony az óceán közepén, tekinthető egy ilyen Edge lokációnak, de erre az analógiára nálunk egy szélerőmű telep vagy egy gyártósor mondjuk ilyen. (Az autonóm autó is, de azért az még odébb van). Na az ilyen, helyeken előálló adatok kiértékelése a fontos és az alapján igen gyorsan valamilyen döntés meghozatala. Semmi értelme ezt a sok adatok elküldeni az adatközpontba, ott tárolni, kiértékelni, majd választ küldeni egy akcióra. Na pont erre van az Edgeline.

A HPE már régebb óta törekszik az Edgeline termékekkel lefedni az ilyen igényeket, ezek gondolom mostantól még hangsúlyosabban jelennek meg.

Intel keynote:

A Cascade Lake megjelenésével kapcsolatos számokat ismertettek, minden legalább sokszorosára gyorsult. Az új processzorokban foltozzák a Spectre és Meltdown sebezhetőségeket és alapvetően Intel Optane DC. Ez a megoldás a memória vs tároló masszív szembenállására a kölség/kapacitás/teljesítmény adhat ütős választ. Semmi titkos részlet nem került nyilvánosságra.

Sponsor keynote:

Minden szpontzornak 1 perc 35 másodperce van arra, hogy bemutatssa magát, megoldását és ezen felül még kedvet is csináljon, ahhoz hogy a standját meglátogassa a közönség. Volt pár, amelyik tényleg felcsigázta az érdeklődésem. Így például a WekaIO, ami állítja hogy a világ leggyorsabb tárolási megoldásával rendelkezik. Mondott egy nagyon érdekes mondást “Move you NAS!”.

Aruba Central Demo

Nem vagyok wireless dolgokkal foglalkozó mérnök, nem ismerem az Aruba termékvonalat, ezért is érdekelt, hogy mi is ez az Aruba Central. Nem más mint az Aruba Controller és kiegészítő szolgáltatások felhős verziója. Nagyon érdekes demó volt – ami pontosan a látványosság hiánya miatt nem prezentálható jól. Szóval volt egy site, a HPETSS2019 amiben jogot adtak egy felhasználónak, hogy ezen a telephelyen Aruba Switch és AP telepítést végezzen el. A felhasználó egy üzenetet kapott a mobiljára, ahol authentikáció – újabb sms – után kapott egy tokent, majd lefotoózta az AP-n lévő matricát. Majd az AP, indulás után alapból megkapta a site-ra érvényes konfigurációt. Hasonlóan a switch eszközzel. Nem lehet teljesen menedzselni ezt utóbbit, de port konfigurációt, VLAN-okat és például DHCP-t simán be lehet állítani az Aruba Central feületéről.

Kicsit a Ubiquti felhős kontrolleréhez tudnám hasonlítani, ahol minden menedzsment és kontrol a felhőben van, viszont annál sokkal szofisztikáltabb és jobb ez a megoldás, főleg azért mert ez enterprise megoldás.

Synergy, technology and Next 5 years

NDA, nem sok mindent lehet nyilvánosságra hozni, de most ér oda a Synergy, ahogyan annak meg kellett volna jelennie. Ez abban az esetben igaz, ha valaki Streamer modult is vett/akart hozzá. Tavaly is ez volt a hír de az FLM-ek már képesek lesznek a Streamer modulok bekötését is megvalósítani, így nem kell többé ellőni QSFP+ (2×10-es osztóval) portokat többé az VC modulokon. Cascade Lake-re fel van természetesen készítve a rendszer és a következő fejlődési lépcsőt meglépik az intercconnect modulok (36Gbit FC pl). Azért titkon remélem, hogy inkább a Virtual Connect + CNA/FCoE irányba mennek már az ügyfelek és nem költik a pénzüket továbbra is SAN-ra, legalább a keretekben nem.

Infosight and Nimble Storage Overview

A HPE más termékeinek integrációja nem titok – én is írtam róla itt részben itt: https://newman.cloud/2019/03/06/infosight-a-spajzban-sitrep/

Ez tovább folyatódik a jövőben, így egyre több elem kerül bele mind a HPE portfóliójából, illetve vertikálisan is, más gyártóktól. Ezek egyébként tetten is érhetőek már ha valaki nézte az elmúlt pár hétben az Infosight-ot, illetve annak a Labs részét. Ott kinyehetőek olyan adatok az alul/felül, de valahogy rosszul méretezett gépekkel kapcsolatban, amik kihatással vannak azok teljesítményére. Na ilyen itegrációk még várhatóak, nem csak a vCenter Server-rel lesz integrálható.

HPE Synergy solutions updates

VMware VCF….röviden. Hosszabban is, erősen arról van szó hogy a Composable Infrastructure mennyire jó alap a VMware Cloud Foundation számára.

A fenti slide nem új, de kihangsúlyozandó, hogy csak a HPE tud ilyen itegrációt megvalósítani az SDDC Manager-el, ami VMware termék. Minden más megoldásban a SAN zónát, a volume kiadást – ha nem VSAN-ról van szó – akkor azt más, a menedzsmentbe nem illeszkedő és közvetlenül nem komponálható módon kell megtenni. A belépő ebbe a világba két Synergy Frame, szóval hazánkban határozottan kevés ügyfél van, aki VCF-et implementál így.

Sok-sok whitepaper érhető el a támogatott integrációkról egyébként, hogy csak párat említsek:

Szerda

Nimble Product Update including Peer Persistence

Nagyon jó előadás volt, sok új és eddig nem hallott információval. Természetesen a szinkron replikáció/peer persistence volt a fő téma. Illetve az, hogy hogyan működik. Ezt ugye jelenleg csak azonos modellek között támogatja a gyártó, de ennek módosítása folyamatban van – sok tesztelés kell hozzá. Jelenleg csak IP felett lehet szinkront kialakítani és meglepő, de nem iSCSI-t használ a rendszer az ilyen kapcsolatra, hanem valami egyedi protokollt, teszi ezt azért mert a SCSI overhead-re miért is lenne szükség a NVDIMM-to-NVDIMM átvitelhez. Szerintem, mikor ez majd a kontrollerek processzorát tudja megkerülni – NVMoF – akkor lesz még jobb, de jelenleg sem éppen a latency a szűk keresztmetszet. Jelenleg 10Gbit-es NIC-ek támgatottak – más nem is kapni az eszközökbe – később jöhet valami még gyorsabb. Viszont ez nem annyira korlátozó tényező, mert a replikációs linkekből többet is lehet használni, tehát ha valaki 4 x 10 GBit-en akarja, akkor a 40Gbit kihajtható. A két tömb direkt összekötése nem támogatott, mindenképpen valami switch-elt bekötés kell és a két tároló azonos L2-n kell legyen.

Külön jó hír hogy a korábbi modellek is támogatottak, azaz négy számmal jelölt Nimble tárolók is, kivéve a H végződésű kiépítések.

Ami érdekes, hogy a replikáció során az adat tömörítetlenül és deduplikálatlanul kerül átvitelre a replikáció céljára. Ez azért is érdekes, mert így ha belegondolunk, akkor a destage az NVDIMM-ből a kapacitásra a forrás és cél oldalon nem is azonos időben történik, hanem időben eltolva.

A witness – ami a tie breaker – egy CentOS alapú appliance vagy éppen egy szolgáltatás, ami utóbbi esetben akár fizikai gépen is futhat. Felmerült hogy a HPE szolgáltatja a witness-t, de én nem tudom elképzelni azt az esetet, hogy egy tárolót kiengedjek az internet-re a management portjáról. Max 250 ms lehet a késleltetés, de ennél többet is elvisel a rendszer, főleg hogy akkor van csak rá szükség, ha failover van. Pont mint például a VMware VSAN-nál, itt is egy witness per replikációs pár a képlet, nem megosztható több pár esetében a witness.

Vannak megkötések, például nem támogatott, titkosított kötetek esetén, volume pinning használatakor, VMware VVol-nál (ez a meg nem született gyerek, ennek szekerét senki sem tolja, nagy reményekkel indult, de mostoha lett), illetve az sem hogy egy volume-ot szinkron replikál a rendszer valahová és azt a kötetet még snapshot szinten egy másikra is replikálja.

HPE Synergy and HPE Composable Cloud for Proliant DL – Competitive update

Már az előadóba történő belépéskor kint volt a kivetítőn, hogy nem szabad fotózni, posztolni arról ami itt elhangzik. A kompetitív gyártókhoz képest történő összeméregetés volt a téma, de körülbelül ennyi. Adatlap az adatlap mellett.

AMD Epyc – Workloads that win

Nem kommentelem, mert semmi kézzelfogható nem hangzott el azon kívül hogy a memory és IO bound alkalmazásokat AMD-re kell tenni, mert az Intel nem jó. Ennyi százalék és annyi benchmark győzelem….stb.

NVMe & SCM – why HPE got it right

Az előadó iszonyat jó volt és elég markáns véleménye volt arról, hogy miért is nem kell felülni jelenleg az NVMe vonatra, amíg standard rá. A HPE jelenleg az SCM-ben látja a rövidebb távon a jövőt és ez elérhető lesz a 3PAR-ba is hamarosan. Azaz egy jól méretezett SCM réteggel 100% cache hit érhető el, ezért egy 9TB-os adatbázison 52% teljesítmény előnyt realizálnak.

Csütörtök

How to size Nimble for performance and capacity – and learn what NOT to do with Nimble

Nagyon jó előadás volt, Dimitris korrektül előadta, hogy milyen buktatók vannak. Gondolom előbb utóbb mindenki rájön hogy egy AF80-ból, négy porton, nem tud kijönni a garantált IOPS, szóval sokszor kifelejtik a konfigurációkból a további portokat, érdemes ellenőrizni és az AF80-ba mondjuk 8-at tenni….per kontroller. Sokat beszélt a megfelelő méretezésről, amire az Infosight által adott deduplikációs arányok jó alapot adnak, az életből valóak, nem slide-okról.

HPE Synergy Software-Defined Storage updates

Na erről nem tudok sokat beszélni, mert meguntam, és elmentem vizsgázni. Sikerült is begyűjteni az Aruba Certified Mobility Associate v8 plecsnit.

AMD – Optimizing your AMD EPYC based HPE Proliant DL385 and DL325 Gen10 Servers

Egy nagyon fontos dolgot mondott el az előadó, mégpedik azt, hogy a Workload profile választáskor a High Performance kiválasztásakor, kikapcsolja a C-state-eket a rendszer. Ez nem optimális, ezért a best practice az, ha a Custom mellett engedélyezve hagyjuk azokat. Állítólag ez azért fontos, mert akkor a boost órajelet nem tudja kifutni a processzor, ha a C-state-ek le vennak tiltva.

VMware Cloud Foundation & VSAN on Synergy


Arról szól megint minden, hogy a VSAN milyen jó a SY480-on. Elhiszem hogy jó, de ha én VSAN licenszt veszek, akkor ki akarom használni a 40 lemezt – 1 cache és 7 kapacitás-diszk, ötször. Ez azt jelenti, hogy minden node-om mellé egy storage modult-t kell tennem. Na ne mondja nekem senki sem azt, hogy egy Synergy frame, négy disk module-al, négy SY480-al olcsóbb, mint öt darab rack formtumú szerver – azért öt, mert kevés az olyan kiépítés amibe, 40 lemez belemegy. Még a licenszek növekményével is biztos, hogy olcsóbb. Ennek ellenére kétségtelen, hogy komponálhatóságban verhetetlen.

NVMe-oF, disaggregation and Synergy

Erősen technikai előadás volt Brad Mayes-től. Jól elmagyarzáta hogy az NVMe most éppen hol áll a szabványosítás aláaknázott mezején és hogy az iWARP, ROCE, Infiniband, Fibre Channel rétegekben hogy néz ki. Még nincs itt az ideje erről komolyan beszélni.

Data Center Interconenct

Aruba VSX és FlexFabric EVI okosítás volt, az utóbbi esetén a VXlan fölötti DC összekötési lehetőségekről és hogy milyen topológiák vannak.

Deep dive into User-Based and port Based tunneling deployments

Először a per user tunnel hibakeresési lehetőségeiről volt szó egy élő demó keretében, mit merre kell keresni a ClearPass-ban, az MC-ben és a switch-en. Hasznos volt, de egyelőre nem tartok ott, hogy hibát keressek bármely ügyfélnél. Ezt a per user tunnel dolgot egyébként más nem nagyon tudja a piacon – a Cisco-nál van hasonló de ott a VLAN-t le kell vinni minden switch-re – mert az Aruba az felhasználó role-jára illeszkedő VLAN-t egy port-tól az MC-ig kihúzott tunnelben viszi le a switch-re. Ez utóbbi azért jobb megoldásnak tűnik.

Kaptam egy SMS-t Tony Bunn-tól – AMD – hogy kihúzta a nevemet és nyertem egy AMD Epyc szitázású hangszórót és egy power bank-ot. Bejött az élet.

Említette, hogy reméli majd sok AMD szervert “adok el”, említettem neki hogy írtam pár sort a DL325-ről már. Most fordíthatom le angolra a bejegyzést, mert kérte hogy küldjem el neki a linket…..

Péntek

Advanced Aruba Meridian: Deep dive into setup, configuration and developer capabilities

08:30-kor kezdődött volna az előadás, de nem értek ide az előadók, viszont egy másik Meridian mérnök – respect neki!!! – megtartotta a prezentációt. Sokat nem értettem a dologból, de mindenképpen érdekes, hogy vannak Meridian képes Aruba AP-k.

Enhance the Guest Experience with Aruba Mobile Engagement and Wi-Fi analytics

iPera és Faraday Networks cégekkel történő együttműködés élő demója volt. Az első valami igazán beteg analitikát képes adni, de olyan szinten, hogy egy plázában például ki merre jár – nem csak heatmap hanem footpath is – utóbbi pedig amolyan egyszerűsített, varázsló alapú wifi menedzsmentet ad, olyan ügyfeleknek, akiknek egy szakszerűen megépített hálózatuk van már, de egy-egy új SSID létrehozását amúgy maguk szeretnék elvégezni, de tudásuk nincs.

Aruba new Outdoor Solutions

A 387-es Aruba kültéri AP-ről volt szó. 60Ghz, max 400m táv, viszont ami érdekes, hogy nem szükséges pontosan a miliméterre pontos rálátás. Képes horizonzálisan és vertikálisan is bizonyos tűréssel, automatikusan beállítani az antenna irányát. Élő demó is lett volna, de valaki használt konfigot hagyott az egyik AP-ban és nem állt össze a link. Fontos, hogy pont-pont kapcsolatra képes csak, pont multipontra nem.

Get to know CASL, the brains inside of Nimble Storage

CDA volt, szóval sokat nem írhatok, de ha nem lett volna, akkor sem tudnék mit írni. Hardcore technikai volt, de olyan szinten, hogy ilyen index tábla itt, olyan ott és az írás folyamán ez így és így történik. Olyan 2 perc után vesztettem el a fonalat.

Kirakott HPE-ban