Hirdetés

Fake news: kamugyárak mesterséges intelligenciával

|

A mesterséges intelligencia is hozzájárul ahhoz, hogy a webre kerülő álhírek és nem valós tényeket bemutató videók kamu voltára ne derüljön fény. Kevés még a hatásos védőeszköz, egyelőre tudatos magatartással lehet legjobban ellenállni a nem kívánt befolyásolásnak

Nem jött be a jóslat, miszerint a fejlődő technológia gátat vet a babonák és hiedelmek terjedésének. Az utóbbi időben ennek éppen a fordítottját tapasztalhatjuk: a technológia fejlődésének köszönhetően sok esetben megrendül a tények megbízhatósága, azaz a ma embere egy "tényeken túli társadalomban" él, illetve afelé halad. Székely Iván, a Közép-európai Egyetem kutatóprofesszora, a Műegyetem docense szerint az internet terjedése, a hálózatos világban rejlő lehetőségek felfedezése, a mesterséges intelligencia alkalmazása olyan, korábban nem várt hatást gyakorol a társadalomra, amellyel óhatatlanul foglalkozni kell.

Hirdetés

SZÉKELY IVÁN: Az internetes világ robbanásszerű fejlődésekor jellemzően csak az előnyeit láttuk annak, hogy szinte minden információ felkerülhet a webre. Arra gondoltunk, hogy így mindenkihez eljut majd az igazság, cáfolhatóvá válnak a téveszmék. De nem ez történt, hanem burjánzani kezdtek a hiteltelen tartalmak. Az információözönből mindenki maga választja ki, mit fogad el tényként. Az információbőség és könnyű visszakereshetőség eredményeképpen egy szűrőbuborék alakult ki. Lényege, hogy a keresőmotorokat használva az ember nem ismeri meg a lehető legtöbb dolgot a világról, ellenkezőleg: csak egy szűk, a korábbi keresések által determinált "tölcséren" át kap igencsak korlátozott információt. Ezen kívül az úgynevezett információs buborék jelensége sem hagyható figyelmen kívül: az emberek jellemzően nem is akarnak mást tudni a világról, mint amiben hisznek, mint ami a kedvencük. A mostani hálózatos világ - híreivel és álhíreivel - ebben remek partner.

Computerworld: Bizonyára nem csak arra kell itt gondolni, hogy valaki például egy színházi előadásról mit tud meg, vagy milyen véleményt alakít ki.

SzI: Természetesen nem. Az álhírek (fake news) mechanizmusát akkor kezdte a világ észrevenni, amikor hatásai egyértelműen láthatóvá váltak - például Trump elnökválasztási győzelmekor vagy a Brexit megszavazásakor -, holott már jó ideje jelen voltak az üzleti, politikai gyakorlatban.

CW: Milyen összetevői vannak a fakenews-jelenségnek?

SzI: Megítélésem szerint három fő tényezője van. Az első a prediktív adatelemzés. Lényege, hogy digitális lábnyomaink ma már megelőznek bennünket, mi pedig nagy valószínűséggel belelépünk az előre kijelölt digitális lábnyomokba, tehát a várakozásoknak megfelelően cselekszünk. A kamuhírek második összetevője az érzelmi befolyásolás, ami szintén az informatika eszközeit hívja segítségül. Bizonyos szoftverek és mesterségesintelligencia-entitások ugyanis a nyers adatokból le tudják vonni az illető érzelmi alkatára, pillanatnyi állapotára vonatkozó szofisztikált következtetéseket. Az így kapott információ aztán felhasználható az ember befolyásolására. Az álhírek harmadik összetevője a kvázi valós idejű targetálás. Ha az emberek valós időben kapnak például választásokkor a döntésüket befolyásoló információkat, akkor nincs idejük és módjuk annak ellenőrzésére, átgondolására, megvitatására, így ezzel az eszközzel akár el is téríthetők a szavazástól. De a fake news napjainkban már kissé elavult.

Székely Iván, a Közép-európai Egyetem kutatóprofesszora, a Műegyetem docense

CW: Van valamilyen korszerűbb manipulatív eszköz?

SzI: Ma már a deep fake-ről beszélünk, ami nem csupán szöveges és vizuális álinformációk terjesztését, hanem multimédia-típusú és meg nem történt események kreálását jelenti. Maga a kifejezés a deep neural networks és a fake kombinációjából született. Ha elég sok arcot, hanglejtést, helyszínt, szituációt stb. sikerül a gépekbe betáplálni, akkor a tanuló rendszerek megtanulják ezek jellemzőit, majd azokból gyakorlatilag bármit elő tudnak állítani. Például olyan videókat tudnak létrehozni, amelyek megkülönböztethetetlenek a valódiaktól. Jóllehet informatikusi szempontból lenyűgözőek ezek a teljesítmények, nem hagyható figyelmen kívül, hogy a deep fake gyakorlatilag ellenőrizhetetlenné teszi a tényeket, következésképpen átalakítja a világot.

CW: Hol tapasztalhatók már a deep fake hatásai?

SzI: Egyre több helyen. Az üzleti életben, a politikában, sőt a teljes közéletben. Természetesen befolyásolás mindig is volt, amióta világ a világ. Az emberek megpróbálják befolyásolni egymást, de ezt jellemzően nyíltan, vagy legalábbis ellenőrizhetően teszik. A deep fake azonban olyan befolyásolás, amit nem látunk, nem érzékelünk, tehát védtelenek vagyunk vele szemben. Az információs társadalom túl bonyolult ahhoz, hogy az egyén megértse. Így aztán az emberek tömege könnyen befolyásolható például abban, hogy kire szavazzon vagy melyik vallás híve legyen.

CW: Hogyan védekezhetünk a rejtett manipuláció ellen?

SzI: Legalább két forrásból ellenőrizzük a kapott információkat. Ne higgyünk el mindent, ami gyanúsan egybevág saját elképzelésünkkel, világképünkkel. Keressünk fel olyan weboldalakat, amelyek kifejezetten a félrevezető hírek kiszűrésére jöttek létre. Mindenkinek hasznos lehet például Krekó Péter Az összeesküvés-elméletek és álhírek szociálpszichológiája című nemrég megjelent könyve, amelyből kiderül, hogy a kamuhíreket műveltségtől és intelligenciától függetlenül mindenki hajlamos bevenni.

CW: Lehet a kamuhírek okozta károkat jogi eszközökkel mérsékelni?

SzI: Törvényekkel, rendeletekkel, belső szabályzatokkal nem lehet sok eredményt elérni. Egyrészt azért, mert a jogalkotási folyamat túl lassú, másrészt azért, mert mire egy informatikai rendszer legitimálása megtörténik, addigra az jellemzően már régen elkészült. Általánosságban a jog sok új jelenséggel, így például a mesterséges intelligenciával vagy a deep fake jelenségekkel nem igazán tud mit kezdeni. Ződi Zsolt Platformok, robotok és a jog című új könyvében azt állítja, hogy a jog jelenlegi fogalomrendszere alkalmatlan e problémakör szabályozására. Nem egyértelmű például, hogy egy mesterségesintelligencia-entitás által elkövetett cselekménynek (például egy önvezető autó által okozott balesetnek) ki a felelőse.

CW: Látszik azért valamilyen irány, amin a jogi szabályozás elindulhatna?

SzI: Néhány éve felvetettem a szabályozás prediktív tanuló modelljének koncepcióját. Tulajdonképpen a mesterséges intelligencia gyakorlatát próbáltam meg átültetni szabályozási környezetbe. Jelenlegi elképzeléseink alapján olyan szabályozást kellene kitalálni, amely meggyőződésünk szerint jó irányba vinné a közeget, a technológiát, a társadalmat, a tudományt. Ezután a rendszer virtuális tesztekkel, szimulációs kísérletekkel megállapítaná, hogy hol nem működne, miért nem működne, hol lehetne kijátszani a szabályozást, majd az eredmények alapján változtatna rajta. A módosított szabályozást ismét tesztelné, újra változtatna rajta és így tovább. Végül csak akkor lépne életbe a törvény vagy rendelet, amikor már egy viszonylag jó állapotot értünk el. Javaslatom sajnos még messze áll a megvalósíthatóságtól, ráadásul várható, hogy az így elkészült szabályozást is sűrűn kellene módosítani, ami ellentmond a jogbiztonság elvének. A jelenlegi helyzet tehát az, hogy a deep fake jelensége jogilag nehezen tartható kordában.

CW: Ki vonható felelősségre, ha mégis kiderül egy tényként kezelt, a weben vírusként terjedő információról, hogy deep fake?

SzI: Most még jellemzően nem lehet felelőst találni. A jog azzal is küszködik, hogy milyen felelősség terhelje a szolgáltatót. A korábbi gyakorlat szerint a szolgáltató csak a platformot adta, nem volt felelős az azon megjelenő tartalomért. A következő fázist az úgynevezett notice-and-take-down elv jellemzi, azaz ha a szolgáltató észrevesz valamilyen törvényellenes kommunikációt, akkor értesítenie kell annak szerzőjét, majd le kell tiltania az illető tartalmat. A szolgáltató természetesen megpróbálja továbbhárítani a felelősséget, a tartalom valós forrása azonban sokszor nem nyomozható le.

CW: Akkor tehát nem is érdemes felelősségre vonási akciót kezdeményezni?

SzI: A sikerhez sok pénz, energia és idő kell. Akkor érdemes tehát próbálkozni, ha egy olyan erős résztvevő is támogatja az akciót, aki a nyilvánosság erejét is be tudja vetni. A deep fake készítői ugyanis jellemzően nem magányos farkasok, mögöttük is nagy erők állnak pénzben, szerverkapacitásban, informatikusokban.

CW: Látva a technológiai fejlődést, milyen jövőképet vetíthetünk előre?

SzI: Sokáig azt hittük, hogy az eszközök demokratizálásával az élet is demokratikusabbá, nyíltabbá fog válni, de nem így történt. Egyrészt azért, mert a korszerű eszközpark jellemzően nemcsak az emberek jó, hanem esetleges rossz tulajdonságait is felerősíti, másrészt mert az információs szuperhatalmaknak sokkal nagyobb, robusztusabb eszközeik vannak, mint a kicsiknek, az átlagembereknek. Bebizonyosodott, hogy a technológia nem old meg minden társadalmi problémát. Egyeseket megold, de rögtön újakat kreál. A végső egyenleg tehát nem a megoldás, hanem az átrendezés. Napjainkban egy ilyen átrendezési periódusban vagyunk, ahol a mesterséges intelligencia alkalmazása érzékelhető módon kezd elterjedni a mindennapi életben, és a hatása csak fokozódni fog a dolgok internete és a mindenbe beépített érzékelők kapcsán. Annak érdekében, hogy a mesterséges intelligencia okozta hatások ne csússzanak ki teljesen a kezünk közül, egy nemzetközi csoport nemrégiben nyilvánosságra hozta a Mesterséges Intelligencia Egyetemes Irányelveit. Vannak tehát próbálkozások, de egyelőre csak Niels Bohr ironikus mondását idézhetjük: jósolni nagyon nehéz, különösen, ha a jövőről van szó.

Hirdetés
Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra » Advertisement

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://computerworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.