Hirdetés
. Hirdetés

Emberi jogi csoportok kérik a Zoomot, hogy dobja ki az érzelemelemző MI-t

|

Emberi jogi szervezetek egy csoportja arra kéri a Zoomot, hogy húzza be a féket az érzelemelemelemző mesterséges intelligencia bevezetését célzó tervénél, és ne építsen be ilyen képességet a videokonferencia platformjába.

Hirdetés

A Zoom azóta kacérkodik az érzelmi mesterséges intelligencia koncepciójával, amióta a világjárvány hátszelével magasra emelkedett. Egy ideje tudott már, hogy az Intel egy e-learning szoftvercéggel együtt dolgozik egy olyan érzelemelemelemző program kifejlesztésén, amely a Zoomhoz illeszkedik. Ez az alkalmazás állítólag a tanárok hasznára válna azzal, hogy jelezné nekik, ha a diákok nem értik, hogy miről van szó, vagy unatkoznak. Ez lehetővé tenné számukra, hogy személyre szabják az oktatást és növeljék az elkötelezettséget.

A Protocol áprilisban arról számolt be, hogy a vállalatok elkezdték használni az érzelem-alapú mesterséges intelligenciát az értékesítési hívások során, hogy felmérjék a potenciális ügyfelek hangulatát, és ennek megfelelően változtassanak a stratégiájukon. Ehhez minden ügyfelet a tudtán kívül egy "érzelmi értékelőlapon" osztályoznak a hívás során.

Hirdetés

A digitális jogokkal foglalkozó Fight for the Future nonprofit szervezet amint tudomást szerzett a Protocol jelentéséről, más jogvédők, köztük az American Civil Liberties Union (ACLU), az Access Now, a Jobs With Justice és 24 másik emberi jogi csoport társaságában aláírta a Zoomnak címzett nyílt levelet, amely arra kéri Eric Yuan vezérigazgatót, a Zoom alapítóját, hogy törölje a vállalat érzelmi mesterséges intelligencia bevezetésére vonatkozó terveit, mondván, hogy a technológia büntető, manipulatív, diszkriminatív, áltudományban gyökerezik, és kockázatot jelent az adatok integritására.

Azt írják: "Ez az érzelmi adatpontok bányászására irányuló lépés, amely azon a hamis elképzelésen alapul, hogy a mesterséges intelligencia nyomon követheti és elemezheti az emberi érzelmeket, sérti a magánéletet és az emberi jogokat. A zoomnak le kell állítania a terveket a funkció fejlesztéséhez."

A nyílt levél nem az első, amely az érzelmi mesterséges intelligenciát kritizálja. Sokan azt mondták, hogy a technológia túlzott megfigyelésnek minősül, különösen akkor, ha a megcélzott diákok vagy ügyfelek tudtán kívül értékelik a testbeszédüket, hangszínüket és más állítólagos érzelmi markereiket. Mások szerint az érzelmi mesterséges intelligencia végül negatív (vagy egyszerűen téves) elemzéseket adhat olyan emberekről, akiknek a kultúrája másképp fejezi ki az érzelmeket.

Az érdekvédelmi csoportok levele azzal zárul, hogy emlékeztetik Yuant, cége korábban "olyan döntéseket hozott, amelyek a felhasználók jogait állították a középpontba", például adatvédelmi aggályok miatt visszavonta az arckövetési funkciók bevezetéséről szóló döntését. "Ez egy újabb lehetőség, hogy megmutassa, törődik a felhasználóival és a hírnevével. Világossá teheti, hogy ennek a technológiának nincs helye a videokommunikációban" - írják a szervezetek.

Hardverek, szoftverek, tesztek, érdekességek és színes hírek az IT világából ide kattintva!

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://computerworld.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.