Hirdetés
. Hirdetés

Az MI Chatbot-terapeuták forradalmasíthatják a mentális egészségügyi ellátást?

|

Az MI chatbot-terapeuták ígéretes támogatási rendszert kínálnak a mentális egészségügyi segítségre szorulóknak, de sok etikai kérdést is felvetnek.

Hirdetés

Az OpenAI technológiáját használó Replika ellen a felhasználók és a chatrobotok közötti explicit beszélgetések miatt vizsgálat folyt, így például Olaszországban be is tiltották a kiskorúakkal és érzelmileg sérülékeny személyekkel kapcsolatos aggodalmak miatt. Jen Persson, az online adatvédelemmel foglalkozó brit aktivista a chatbot-terapeuták globális szabályozására szólított fel, míg a Headspace meditációs alkalmazás az ember által vezetett fókuszt tartja fenn, szelektíven használva a mesterséges intelligenciát.

Chatbot-terapeuták: Az emberi ellátás kiegészítése

A Replikához hasonló MI chatbot-terapeuták ígéretes támogatási rendszert kínálnak a mentális egészségügyi segítségre szorulóknak. Az Eugenia Kuyda által alapított Replika célja, hogy Carl Rogers amerikai pszichológus terápiás megközelítése alapján pozitív visszajelzést adjon. A chatbotnak több mint tízmillió felhasználója van, és olyan funkciókat kínál, mint a coaching, a memória és a napló funkció. Bár a Replika bizonyos helyzetekben hasznos lehet, Paul Marsden, a Brit Pszichológiai Társaság munkatársa arra figyelmeztet, hogy ezek az alkalmazások csak az emberi terápia kiegészítésére szolgálhatnak.

Az MI chatbotok potenciális előnyei ellenére aggályok merültek fel az MI-technológia mentális egészségügyi támogatásban való alkalmazásának etikai vonatkozásaival kapcsolatban. A Koko, egy San Franciscó-i székhelyű mentális egészségügyi technológiai vállalatot kritika érte, egy kísérlete miatt, amelyben a GPT-3 MI chatbotot használta több mint 4000 felhasználó számára válaszok írására. A kritikusok szerint a mesterséges intelligencia mentális egészségügyi támogatásban való alkalmazása a sebezhető felhasználókat beleegyezésük nélkül manipulálhatja, és a technológiai iparban hiányzik az embereken végzett kísérletek felügyelete.

Hirdetés

Szabályozás és etikai aggályok

Ahogy az MI chatbot-terapeuták egyre nagyobb teret nyernek, egyre hangosabbak a terület globális szabályozására irányuló felhívások. Jen Persson brit online adatvédelmi aktivista azt javasolja, hogy a mentális egészségre vonatkozó állításokat megfogalmazó MI-cégeket az egészségügyi termékekhez hasonlóan minőségi és biztonsági előírásoknak kellene alávetni. A Replika esetében az olasz adatvédelmi ügynökség megtiltotta az alkalmazásnak, hogy az olaszok személyes adatait használja, mivel aggályosnak találta a 18 éven aluliak és érzelmileg sérülékeny személyek számára nem megfelelő tartalmakat.

A mesterséges intelligenciával foglalkozó etikusok és szakértők szerint a mesterséges intelligencia pszichológiai célú felhasználásakor a fejlesztési folyamatba be kell vonni a legfontosabb érdekelt feleket, például a mentális egészségügyi szakértőket és a közösség védelmezőit. Elizabeth Marquis, a MathWorks vezető UX-kutatója és a Michigani Egyetem doktorjelöltje rámutat arra, hogy az MI chatbot-kísérletekben gyakran nem esik szó beleegyezési folyamatról vagy etikai felülvizsgálatról. A mesterséges intelligenciával foglalkozó kutatók és szakemberek olyan tényezők miatt alkalmazhatnak mesterséges intelligenciát pszichológiai célokra, mint a hozzáférhető erőforrások és a profit.

A mesterséges intelligencia szerepe az ember által vezetett gondozásban

Míg egyes alkalmazások az MI chatbot terapeutákra összpontosítanak, mások, mint például a Headspace, fenntartják az ember által vezetett mentális egészségügyi ellátásra való összpontosítást. A több mint harmincmillió felhasználóval és az NHS jóváhagyásával az Egyesült Királyságban a Headspace alapvető meggyőződése az ember által vezetett és emberközpontú gondozásban gyökerezik. A vállalat "rendkívül szelektíven" alkalmazza a mesterséges intelligenciát, és a mentális egészségügyi támogatás nyújtása során fenntartja az emberi részvétel mélységét.

Ahogy a mesterséges intelligenciával működő terápiás chatbotok tovább fejlődnek, Dr. Marsden látja a hatékony mentális egészségügyi támogatás lehetőségét, beleértve az empátiát és az emberi elme működésének megértését. A Cornell Egyetem nemrégiben végzett tanulmánya kimutatta, hogy a ChatGPT, egy MI chatbot egy kilencéves gyermeknek megfelelő kognitív empátiát mutatott.

Az MI chatbot-technológia folyamatos fejlődésével nyilvánvaló a mentális egészségügyi ellátás forradalmasításának lehetősége, de egyensúlyt kell teremteni az MI-segítség és az ember által vezetett ellátás között, hogy etikus és hatékony támogatást kapjanak a rászorulók.

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.