Kinetikus a jövő infrastruktúrája

|

Sok gyártó beszél lelkesen az átalakítható - angolul composable - infrastruktúráról, de a tényleges modularitáshoz még szükség lesz a memóriát és a processzort különválasztó technológiára, amelyen a Gen-Z konzorcium egyik alapító tagjaként a Dell EMC jelenleg is dolgozik. Brian Payne-t, a PowerEdge szerverek termékmenedzsmentjéért felelő alelnököt a kiszolgálócsalád legújabb tagjairól és a fejlesztések további irányáról kérdeztük.

Három PowerEdge szervermodell debütált május első napjaiban a Dell Technologies World 2018 konferencia pódiumán Las Vegasban, ahogyan arról korábban mi is beszámoltunk (Intelligencia az infrastruktúrában, Computerworld 2018/9.). Mindegyikük a kiszolgálócsalád legfiatalabb, 14. generációjához tartozik, melynek tagjai a múlt év második felétől folyamatosan jelennek meg a piacon.

Hirdetés
          

A már kapható Dell EMC PowerEdge R840 és R940xa egyaránt a gépi tanulásra (ML) és mesterséges intelligenciára (AI) épülő, valamint más, adatintenzív alkalmazások fokozott teljesítményigényét hivatott kiszolgálni, de eltérő felépítésüknél fogva másképp közelítenek a problémához. A nagymértékű virtualizáláshoz, szoftveralapú tárolókhoz és hálózatokhoz, valamint nagy adattömegek elemzésére szolgáló analitikai környezetek kialakításához konfigurációs rugalmasságot adó modulárisinfrastruktúra-megoldás, a PowerEdge MX az év második felében kerül forgalomba.

Computerworld: Digitális átalakulásuk során a vállalatok egyre több és változatosabb adatból minél mélyebb betekintést igyekeznek nyerni egyre gyorsabban, az észlelt változásokra akár valós időben és automatikusan válaszolni. Hogyan befolyásolja az infrastruktúra fejlesztését az alkalmazásrétegben megjelenő mesterséges intelligencia?           

Brian Payne: Az általános rendeltetésű szerverek, amelyek tetszőleges munkaterhelés kiszolgálására készülnek, nem feltétlenül adnak mindig olyan teljesítményt, amilyet a vállalatok egy-egy alkalmazás esetében elvárnának. Minthogy a hagyományos infrastruktúra nem tud mindenben megfelelni a digitalizáció korában jelentkező újabb üzleti igényeknek, az utóbbi időben különösen nagy hangsúlyt fektetünk megoldásaink mesterséges intelligenciát (AI) és gépi tanulást (ML) támogató képességeinek fejlesztésére.

Brian Payne alelnök, PowerEdge termékmenedzsment, Dell EMC           

Fontos szerephez jutnak ebben például a masszív párhuzamos feldolgozásra termett grafikus processzorok (GPU-k), amelyeket beépítünk termékeinkbe. K+f-ráfordításaink olyan architektúra fejlesztésére irányulnak, amely a megfelelő feldolgozási egységek befogadásával és kellően nagy sávszélességű összekapcsolásukkal rendszerszinten támogatja az újgenerációs alkalmazásokat. A Dell EMC volt például az első szerverszállító, amely 1U méretű kétfoglalatos szerverébe négy GPU-t integrált. Tavaly novemberben bejelentett PowerEdge C4140 kiszolgálónk, amely horizontális bővíthetőséget ad a kognitív alkalmazások gyorsításához, rendkívül nagy teljesítménysűrűséget pakol a rack szekrénybe, amelyet kivételes energiahatékonysággal ötvöz. Érthető módon rövid idő alatt nagy sikert aratott az ML-szerverfarmokat kiépítő vállalatok körében.           

Továbbviszi ezt a vonalat a mostani konferenciánkon bejelentett PowerEdge R840 kiszolgálónk, amelyet a hagyományos, adatbázison belüli elemzések felgyorsítására optimalizáltunk. A szerver akár 24 darab NVMe (non-volatile memory express) interfészen keresztül közvetlenül csatlakoztatott flash-alapú meghajtóval konfigurálható, így az adatok közelebb kerülnek a feldolgozó egységekhez, és a sokkal gyorsabb átvitel eredményeként minimálisra csökken a késleltetés.           

PowerEdge R940xa szerverünket pedig az olyan, rendkívül feldolgozásigényes alkalmazások futtatására hegyeztük ki, mint a gépi tanulás és a valós idejű analitika - erre az extrém gyorsításra utal nevében az xa (extreme acceleration) jelölés is. A grafikus processzorokkal gyorsított adatbázisok, mint például a Kinetica vagy a MapD esetében a CPU-k és a GPU-k eddiginél jobb arányával növelhető a teljesítmény. Az R940xa ezért négy-négy központi és grafikus processzort támogat - ez az 1:1 arány fontos előrelépés ezen a téren.           

CW: Miként jelennek meg az ML- és AI-képességek az alkalmazásrétegen túl, az infrastruktúra felügyeletében és automatizálásában?           

BP: Fejlesztéseink persze nem merülnek ki abban, hogy még több CPU-t és GPU-t, még gyorsabb memóriát és nagyobb sávszélességet pakolunk szervereinkbe, hanem arra törekszünk, hogy kiszolgálóink ezeket az erőforrásokat minél dinamikusabban egyensúlyozzák, így mindig a maximális teljesítményt adják a vállalatoknak a modern alkalmazások futtatásához.           

Példázza ezt a konferenciánkon most bemutatott PowerMax flash-alapú tárolómegoldásunk is, amelynek operációs rendszeréhez egy ML-motort adtunk. A PowerMax az ügyfeleinknél működő, szintén flash-alapú VMAX3 és VMAX tárolómegoldásaink használatát bemutató, valós idejű és történeti adatokat elemzi a gépi tanulás módszereivel, mintákat azonosít és előrejelzéseket készít, amelyek alapján autonóm módon gondoskodik arról, hogy minden adat olyan hordozóra kerüljön, amelyen a felhasználók az adott alkalmazás függvényében a leggyorsabban elérhetik, így automatikusan növeli a teljesítményt.           

Szervereink OpenManage felügyeleti szoftverét is nagy erőkkel fejlesztjük, hogy működésüket minél nagyobb mértékben automatizálhassuk. A vállalatok igyekeznek minél részletesebb adatokat gyűjteni szervereik működéséről, a rajtuk futó alkalmazások használatáról, és ezeket felhasználni a felügyelet támogatására. OpenManage szoftverünk jelenleg ezt a folyamatot automatizálja. A továbbiakban azonban olyan algoritmusokat, ML-és AI-képességeket is beépítünk, amelyek birtokában kiszolgálóink ezeket az adatokat elemezve, belőlük tanulva, egyre nagyobb önállósággal tudják majd optimalizálni teljesítményüket és fokozni rendelkezésre állásukat.           

PowerEdge szervereinken például már ma is működik az automatikus frissítés és hibajegy-generálás. Minden alkalmazáshoz a hardvertől a keretrendszeren át az operációs rendszerig a technológiák együttese tartozik, amelyet az adminisztrátor felügyel. Ha a vállalatnak van ezer szervere és kétszáz alkalmazása, akkor ez a feladat igen bonyolulttá és erőforrás-igényessé válik. Az OpenManage már ma is automatikusan begyűjti az ajánlott frissítéseket, letölti, és csúcsidőn kívül telepíti őket. Felügyeleti szoftverünk felhőszolgáltatásainkkal is kapcsolatban áll, így hardverprobléma esetén automatikusan hibajegyet generál a javítás felgyorsításához. A továbbiakban azonban az automatizálás a teljesítmény optimalizálására, a hardverkonfigurációk dinamikus megváltoztatására is ki fog terjedni.           

Erre nem kell feltétlenül egy-egy újabb PowerEdge generáció megjelenéséig várni, mert a szerverek keretrendszerének frissítésével folyamatosan adjuk hozzá az újabb képességeket - közöttük az infrastruktúra-szintű kiberbiztonsági képességeket, amilyen például a LockDown, mert ezek ugyancsak kulcsfontosságúak a teljesítmény és a rendelkezésre állás szempontjából is.        

Csatlakoztunk emellett az Intel AI Builders programjához, amelyen keresztül együttműködünk más technológiai partnerekkel is, és Ready Solutions néven előre integrált, tanúsított hardver-, valamint szoftverelemekből felépülő megoldásokat kínálunk a vállalatoknak az AI- és ML-alkalmazások egyszerűbb, gyorsabb bevezetéséhez.           

CW: A PowerMaxhoz hasonlóan a jövőt vetíti előre a Las Vegasban előzetesen bemutatott PowerEdge MX is, amely az év második felében kerül forgalomba. A moduláris felépítésű gép már a kinetikus infrastruktúra képviselője, vagy annak inkább előfutára?           

BP: Miként az új PowerEdge R840 és R940xa példája is mutatja, különböző alkalmazásokhoz az erőforrásokat másképp egyensúlyozó, finomhangoló szerverek adják a legjobb teljesítményt. Kiszolgálóinkat ebben az irányban fejlesztjük tovább, a modern környezetekhez a mainál sokkal inkább részeire bontott, diszaggregált szerverfelépítést adunk.           

A PowerEdge MX a szoftveralapú környezetekre optimalizált első moduláris infrastruktúránk, amely az év második felétől hiperkonvergens munkaterheléseket fog támogatni, és a hálózati szövet menedzselését is radikálisan egyszerűsíti, automatizálja majd. A technológia fejlődésével azonban továbblépünk ezen az úton.           

Sok szállító beszél például napjainkban az átalakítható (composable) architektúráról, de ahhoz ma még hiányzik a mostanitól eltérő interconnect technológia, amely lehetővé teszi majd a memória és a CPU szétválasztását. A Gen-Z konzorcium alapító tagjaként jelenleg is dolgozunk ezen a nyílt szabványokra épülő megoldáson, amely a mostaninál nagyobb sebességű és kisebb késleltetésű hozzáférést ad a megosztott memóriához. (A Gen-Z 1.0-s specifikációját februárban tette közzé a konzorcium - a szerző.)           

Belátható időn belül ezt a technológiát fogjuk beépíteni a PowerEdge MX-be is. A Dell EMC-nél ezt a valóban alakítható infrastruktúrát nevezzük kinetikusnak, amely konfigurációit az alkalmazások igényeihez minden eddiginél jobban igazítva mindig a legnagyobb teljesítményt és hatékonyságot adja majd az üzletnek.

Hirdetés

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://computerworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.