Hirdetés
. Hirdetés

A kiberbűnözők egyszerűen rákossá nyilváníthatnak minket

|

Elengedhetetlen, hogy megbízható és biztonságos AI-rendszereket építsenek a klinikai alkalmazásokhoz.

Hirdetés

A kutatók megállapították, hogy egy mellrákos esetek megkülönböztetésére használt modellt hamisított, félrevezető képekkel is át lehet verni. A Nature Communications című folyóiratban megjelent tanulmány éppen azt vizsgálata, hogy a megtévesztő képek elegendőek-e egy diagnosztikai mesterséges intelligencia modell átverésére.

A Pittsburghi Egyetem kutatói képesek voltak szimulálni egy olyan támadást, amely meghamisította a mammográfiás képeket, ami az AI-modellt - és az emberi szakértőket - téves következtetések levonására késztette.

Hirdetés

"Ezzel a tanulmányunkkal azt szeretnénk megmutatni, hogy az ilyen típusú támadások lehetségesek, és az AI-modelleket téves diagnózis felállítására késztethetik, ami nagy betegbiztonsági problémát jelent. Ha megértjük, hogyan viselkednek a mesterséges intelligenciamodellek ellenséges támadások esetén orvosi kontextusban, akkor elkezdhetünk azon gondolkodni, hogyan tehetjük ezeket a modelleket biztonságosabbá és robusztusabbá" - közölte a tanulmány vezető szerzője, Shandong Wu, az egyetem oktatója és kutatója.

A kutatók tapasztalatai szerint a diagnosztikai rendszerek egyre inkább támaszkodnak a mélytanulási modellekre, hogy kiegészítsék az emberi szakértelmet. Ennek érdekében szerintük "elengedhetetlen, hogy megbízható és biztonságos AI-rendszereket építsünk a klinikai alkalmazáshoz". Az ilyen biztonság mérésének egyik módja az, hogy értékeljük egy AI-modell viselkedését kibertámadások - nevezetesen "ellenséges képek" - esetén, amelyek célja, hogy a modelleket manipulált képek vagy más bemenetek felhasználásával becsapják.

Tanulmányukhoz a kutatócsoport mammográfiás képeket használt, hogy betanítson egy algoritmust, amely megkülönbözteti a mellrák-pozitív eseteket a negatív esetektől. Ezután a kutatók generátorokat fejlesztettek ki, hogy szándékosan félrevezető adatokat hozzanak létre azáltal, hogy rákos régiókat "illesztettek" a negatív képekbe, vagy "távolítottak el" régiókat a pozitív képekből. A trükk bevált, az AI-modell a hamis képek 69,1 százalékánál tévedett.

A kutatók ezután öt humán radiológust alkalmaztak arra, hogy kiszúrják, a képek valódiak vagy hamisak. Az eredmények eltérőek voltak, személytől függően a szakértők 29 és 71 százalék közötti pontossággal azonosították a képek hitelességét. "Bizonyos hamis képeket, amelyek becsapják a mesterséges intelligenciát, a radiológusok könnyen kiszúrhatnak. Azonban a vizsgálatban szereplő számos hamis kép nemcsak a modellt, hanem a tapasztalt szakembereket is becsapta. Az ilyen támadások potenciálisan nagyon károsak lehetnek a betegek számára, ha téves rákdiagnózishoz vezetnek" - mondta Wu.

A kutatók megjegyezték, hogy a nagy felbontású képek nagyobb eséllyel verték át a modellt, és a szakemberek számára is nehezebb volt kiszűrni, hogy hamisak. Megjegyezték, hogy a támadások motivációi között szerepel a pénzbeli haszonszerzés, a biztosítási csalás és a kedvező klinikai vizsgálati eredmények látszatának keltése. A csoport hangsúlyozta, hogy e miatt fontos a mesterséges intelligencia biztonságáról gondoskodó intézkedések megerősítése.

"Az egyik irány, amelyet vizsgálunk, az AI-modell 'ellenséges képek' elleni kiképzése. Ez magában foglalja az ellenséges képek előzetes generálását és a modell megtanítását arra, hogy ezeket a képeket manipulálják" - mondta Wu.

Mint a kutatócsoport kifejtette, az AI és a gépi tanulás alkalmazása az orvosi képalkotási adatok elemzésére az elmúlt években ugrásszerűen megnőtt. A terület azonban egyedi kihívásokat is hordoz. A Nature Communications cikkében felvetett biztonsági aggályok mellett a szakértők az adatok méretarányos összegyűjtésével, a változatos információk megszerzésével és a pontos címkézéssel kapcsolatos nehézségekre hivatkoztak.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.