IDC - Átalakulás tartósan
Nagy adat és hiperautomatizálás.
Nagy adat és hiperautomatizálás.
Nagy adat és hiperautomatizálás.
A cél a nagy adat- és AI-munkafolyamatok integrációjának és skálázásának egyszerűsítése a hibrid felhőben.
Időbe telt, mire a hazai nagyvállalatok is nyitottak a felhőalapú adatplatformok irányába, de az idei végre a fordulat éve lett, hangzott el a Budapest Data Fórumon. Elszánt lépésével a startupok után ugyanakkor ez a cégkör is egy rendkívül mozgalmas, sokszereplős piacon találta magát, ahol a gyorsan fejlődő technológiák és folyton átalakuló szállítóik között nem könnyű eligazodni.
A Fujitsu frissen bemutatott, új szupergyors szervereivel a felhasználó szervezetek rövidebb időn belül optimalizálhatják nagy adatmennyiséget feldolgozó alkalmazásaikat, és gyorsabban felismerésekhez juthatnak az adatokból.
Az EtherCAT technológiát új sebességszintre emelő EtherCAT G rendszerkiegészítés Gigabit Ethernet sebességet biztosít nagy adatmennyiségekkel dolgozó alkalmazásokhoz. Ez a legújabb bővítés kompatibilis a világszerte használt 100 Mbit/s sebességű EtherCAT technológiával, és ugyanazt a megszokott egyszerű kezelhetőséget nyújtja. Ezenfelül az új, EtherCAT G rendszerű ágvezérlő lehetővé teszi párhuzamos hálózatszegmensek hatékony üzemeltetését is.
A Kingston Digital Europe Co LLP bemutatta tartós microSD-kártyáját, amely kifejezetten nagy adatírási terheléssel járó alkalmazásokhoz készült, például otthoni biztonsági és térfigyelő kamerák, valamint autós fedélzeti és testkamerák felvételeinek tárolására.
A Fujitsu most bemutatott két új megoldásával a szervezetek bevezethetik a digitális átalakulásukhoz szükséges rendkívül nagy adatfeldolgozási teljesítményű alkalmazásokat és jóval egyszerűbben felügyelhetik a horizontálisan bővíthető (scale-out) memóriaalapú SAP HANA® adatbázis-rendszerek működését
A Fujitsu most bemutatott két új megoldásával a szervezetek bevezethetik a digitális átalakulásukhoz szükséges, rendkívül nagy adatfeldolgozási teljesítményű alkalmazásokat, és jóval egyszerűbben felügyelhetik a horizontálisan bővíthető (scale-out), memóriaalapú SAP HANA adatbázis-rendszerek működését.
Analitikai platformot ad a dolgok internetére, nagy adattömegek feldolgozására és gépi tanulásra épülő alkalmazásokhoz a Hitachi Vantara. A japán csoport három tagvállalatának egyesülésével újonnan létrehozott cég portfóliója már a magyar piacon is elérhető. Interjú Kozák Tamás regionális értékesítési igazgatóval.
Bár kétségtelenül komoly haszon származik a nagy adatmennyiségek elemzéséből, a technológia alkalmazása olyan hátrányokkal jár, mint az automatizált döntéshozatalból eredő diszkrimináció, az adatlopás kockázata, az anonimitás megszűnése és a kiterjedt kormányzati ellenőrzés.
Bár a nagyadat elveszíteni látszik hívószó-erejét, korai lenne temetni az olyan technológiákat, mint a Hadoop. Gombamód szaporodnak a változatos formátumokban elérhető és gyorsan változó, nagy adattömegek minél gyorsabb és sokrétűbb, mégis könnyű elemzését támogató, nyílt és zárt forráskódú eszközök. Az üzleti analitikai megoldások piaca az elemzők szerint az iparági átlagot messze túlszárnyaló dinamikus növekedés elé néz, miközben a bőség zavarában a vállalatoknak fejtörést okoz majd az üzlet igényeit legjobban szolgáló eszközök kiválasztása.
Munkáltatói és munkavállalói oldalon egyaránt átformálják az elvárásokat az újgenerációs technológiák az IT-szakemberek hiányával küszködő munkaerőpiacon. A nagy adattömegeket elemző analitikai és mesterségesintelligencia-megoldások ezért a toborzásban is mind nagyobb szerephez jutnak, de a fejvadász botok kora még nem jött el.
A dolgok rövid leírása különös műfaj. Rémségesen okos emberek, az adott dolgok felkent szakértői rengeteg munka után tömören összefoglalják a lényeget. Azután újraírják, ha változás áll be. A felforgató trendek zavart keltenek a meghatározások világában is.
A nagy adatmennyiségek elemzésére hivatott eszközök elengedhetetlenek a vállalatok számára ahhoz, hogy feltárják a hatékonyabb működést, megnövelt teljesítményt és jobb döntéshozatalt elősegítő összefüggéseket.
Pusztán attól, hogy gyűjtjük és tároljuk, az adat nem lesz idővel jobb, értékét az információ adja, amelyet kinyerünk belőle - fogalmazott velősen a Cloudera képviselője a Budapest Data Fórumon. A háromnapos konferencia az adattárházak, a nagy adat és az adatkutatás alkalmazási és technológiai kérdéseit taglalta, többek között választ keresve arra is, hogy a nyílt forráskódú eszközök megoldást adhatnak-e az analitika minden problémájára.
Az Európai Bizottság felhőalapú szolgáltatásokra és világszínvonalú infrastruktúrákra vonatkozó tervezetének célja, hogy a tudomány, a vállalkozások és a közszolgáltatások is kihasználják a nagy adathalmazokban rejlő lehetőségeket.
Idén több nagy adatbázist ért súlyos támadás. A kínai hackerek különösen aktívak voltak.
A számítási felhő, a nagy adat és a biztonság vezérmotívuma járta át az Oracle megakonferenciáját, amely a múlt héten zajlott San Franciscóban. Negyvennél több új termék és szolgáltatás között a cég bemutatta első, teljes egészében saját fejlesztésű Sparc processzorát, amelyről Larry Ellison technológiai igazgató egyenesen azt mondta, hogy bedrótozott védelmi képességeivel a Heartbleed-kaliberű kibertámadásokat is semlegesíti, valós időben.
A módszer lehetővé teszi a nagy adattömegek által nyújtott üzleti előnyök gyorsabb és jobb kihasználását.
Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!
Engedélyezi, hogy a https://computerworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.