Hirdetés
. Hirdetés

A Google Nimbus projektje tényleg olyan gonosz, mint amilyennek látszik?

|

A feltételezett képességek még akkor is ijesztőek, ha a Google Cloud Vision API-ja 100 százalékban biztonságos lenne.

Hirdetés

A Project Nimbus a Google, az Amazon és az izraeli kormány közös erőfeszítése, amely fejlett gépi tanulási modellek alkalmazásával futurisztikus megfigyelési képességeket vet be. Az Android Central szerint tetszik vagy sem, ez az állambiztonság jövőjének része, és semmivel sem szörnyűbb, mint sok más hasonló projekt. Sokan még odahaza és a lakóhelyük környékén is használnak hasonló technológiát.

Ahol a dolgok sötétté és csúffá válnak, az az, amit a Google mond a vállalat technológiáját használó Project Nimbus képességeiről. A Nimbus képzési dokumentumai hangsúlyozzák a Google Cloud Vision API arc, arcvonás és érzelem felismerési képességeit. Az egyik Nimbus képzési webináriumon a Google egyik mérnöke megerősítette egy izraeli ügyfélnek, hogy lehetséges lenne "a Nimbuson keresztül adatokat feldolgozni annak megállapítására, hogy valaki hazudik-e".

Hirdetés

Azaz a Google olyan algoritmusokat akar eladni, amelyekkel megállapítható, hogy valaki hazudik-e a rendőrségnek. Ez egy olyan tudomány, amelyet a Microsoft inkább otthagyott a benne rejlő problémák miatt.

Jerry Hildenbrand, az Android Central szenior szerkesztője azt állítja, hogy az egész projektet azért tervezték, hogy az izraeli kormány elrejthesse, amit csinál. Az Intercept portálra hivatkozik, ahol Jack Poulson, a Google Enterprise korábbi biztonsági vezetője szerint a Nimbus projekt egyik fő célja, "annak megakadályozása, hogy a német kormány az Izraeli Védelmi Erőkkel kapcsolatos adatokat kérjen a Nemzetközi Büntetőbíróság számára". (Izrael állítólag emberiség elleni bűncselekményeket követ el a palesztinok ellen, egyesek jogértelmezése szerint.)

A Nimbus feltételezett képességei még akkor is ijesztőek, ha a Google Cloud Vision API-ja 100 százalékban biztonságos lenne. Képzeljük el a rendőrségi testkamerákat, amelyek a mesterséges intelligencia segítségével döntenek arról, hogy vádat emelnek-e ellenünk és letartóztatnak-e vagy sem. Mindez félelmetessé válik, ha figyelembe vesszük, hogy a gépi tanulásos vizuális rendszerek milyen gyakran tévednek.

Hildenbrand szerint ez nem csak a Google problémája. Elég csak a YouTube, a Facebook vagy a Twitter tartalommoderációját megnézni. A kezdeti munka 90 százalékát számítógépek végzik moderációs algoritmusok segítségével, amelyek túlságosan gyakran hoznak rossz döntéseket. A Nimbus projekt azonban többet tenne annál, hogy törölné a gúnyos kommentünket. A beavatkozás akár az életünkbe is kerülhetne.

Egyetlen vállalatnak sincs semmi keresnivalója az ilyen típusú mesterséges intelligencia szállításában, amíg a technológia nem érik olyan szintre, ahol soha nem téved, és ez soha nem fog bekövetkezni - írja az Android Central szerzője, aki szerint a mesterséges intelligencia használata a bűnüldözésben a szükségtelen rossz, a Google pedig nem térhet le a "Ne légy gonosz!" elvével kijelölt útjáról.

Hardverek, szoftverek, tesztek, érdekességek és színes hírek az IT világából ide kattintva!

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://computerworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.