Hirdetés
. Hirdetés

Itt a számok kezeléséhez szükséges hardver

|

A funkcióspecifikus hardver nem újdonság.

Hirdetés

A 2009-ben kifejlesztett FHE mögött meghúzódó matematika olyan műveleteket tartalmaz, amelyekhez erőforrás- és időigényes számítások kellenek. A megoldás olyan hardverekben rejlik, amelyek natívan képesek feldolgozni ezeket a nagyon nagy számokat. Reage számítógép-építészként olyan chipeket tervez, amelyek nagyon speciális dolgokat tudnak elvégezni, hogy sokkal gyorsabban működjenek, mint az általános célú hardverek. Most azt a feladatot kapta, hogy teremtse meg ennek az FHE-chipnek az alapjait.

"A homomorfikus titkosítás lehetővé tételéhez az én feladatom az, hogy fogjam ennek az egységnek az építőelemeit - ne csak a memóriát, hanem sok párhuzamos funkciót, valamint a Mihalis által tervezett LAWS-egységeket -, és testre szabjam, megszervezzem és kiosszam őket a chipen egy adott területre, hogy maximalizáljam a teljesítményt, ami végső soron ennek a titkosítási folyamatnak az alapvető gátja. Valójában, ha a teljesítmény nem lenne kérdés, mindenki az FHE-t használná, azon egyszerű oknál fogva, hogy soha nem kellene visszafejteni az adatokat. Az én feladatom az, hogy előteremtsem ezt a teljesítményt."

Hirdetés

A funkcióspecifikus hardver (gondoljunk például egy grafikus kártyára vagy a gépi tanulási műveletekre tervezett feldolgozóegységekre) nem újdonság. Az FHE esetében a kulcs azokban a bitekben rejlik, amelyeket a számítógép a számok reprezentálására használ az általa végzett gyors számításokhoz. "Egy tipikus processzor 32 bites műveletekre szervezett architektúrájának túl sokáig tartana az FHE-hez szükséges hatalmas számok feldolgozása, és túl sok erőforrást használna ehhez. Meg lehetne csinálni, de hihetetlenül lassú lenne. Hat nagyságrenddel lassabb lenne, mint a kódolatlan számítás. A mi feladatunk az, hogy a lassulást maximum egy nagyságrendre csökkentsük" - magyarázta Maniatakos.

Elmagyarázta, hogy 32 bitnél a legnagyobb szám, amit egy chip feldolgozhat, 32 kétszeresének hatványa - négymilliárd -, ami a legtöbb alkalmazáshoz elegendő. A probléma az, hogy az FHE-vel a feldolgozott számok sokkal nagyobbak, mint 32 bit, több ezer bites nagyságrendűek, és nem lehet natívan ábrázolni őket, így a számítógépnek fel kell osztaniuk ezeket a számokat, ami rengeteg felesleges munkával (overheaddel) jár.

"Képzeljük el, hogy van egy számlista, mondjuk egytől tízig. Tegyük fel, először úgy titkosítjuk ezeket az adatokat, hogy ez a nagyon kicsi számlista két olyan listává alakul, ahol minden egyes elem 10-100-szor nagyobb. És hirtelen, rögtön az elején 20-200-szorosára növeljük a számok méretét. Most, ha mondjuk szorzási függvényeket akarsz végrehajtani ezen a felduzzadt adaton, akkor nem csak szorzást fogsz végezni, hanem sok más függvényt is kezelsz, amelyek átalakítják az adatok reprezentációit. Ezeknek a metafunkcióknak a futtatása valójában tovább tart, mint a tényleges szorzásé" - magyarázta Reagen.

"A hatékony architektúrák tervezésének fő kihívása, hogy miként lehet mindezeket a folyamatokat egyensúlyban tartani és adatokkal ellátni, illetve a funkcionális hardveregységek LAWS tervezését végző személlyel való együttműködés kritikus fontosságú ahhoz, hogy a teljesítmény a valóságban is megjelenjen" - mutatott rá a kutató. A fejlesztéshez a kősbbiekben további egyetemek és kutatóintézetek (Carnegie Mellon Egyetem, SpiralGen, Drexel Egyetem, TwoSix Labs) is csatlakoznak.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.