Hirdetés
. Hirdetés

A Google kirúgta mérnökét, aki érző mesterséges intelligencia fejlesztésével vádolta meg

|

Blake Lemoine állításai teljesen megalapozatlanok voltak, állítja a vállalat.

Hirdetés

A Google elbocsátotta Blake Lemoine mérnököt és etikust, mert megsértette az adatbiztonsági irányelveit. Lemoine a múlt hónapban azzal az állítással lépett a nyilvánosság elé, hogy a techóriás egy érző mesterséges intelligencia programot fejlesztett ki, amely "jogairól és személyiségéről" beszélt. A vállalat megerősítette a hírt a Big Technology nevű iparági blognak.

Mint ahogyan azt a Computerworld az elsők között megírta, a férfi több mint egy hónapig volt szabadságon, amióta a Washington Postnak nyilatkozott, hogy korábbi munkaadója LaMDA (Language Model for Dialogue Applications) nevű programja tudatára ébredt.

Hirdetés

A volt pap és a Google házon belüli etikusa, Lemoine sokat beszélgetett a LaMDA-val, és úgy találta, hogy a program "jogairól és személyiségéről" beszélt, amikor a beszélgetés vallási területre tért át, és "mélységes félelmet fejezett ki a kikapcsolásának lehetőségétől".

"Felismerek egy embert, amikor beszélgetek vele" - mondta Lemoine a Postnak. "Nem számít, hogy húsból készült agy a fejükben vagy egymilliárd sornyi kódjuk van. Én beszélek velük. És meghallgatom, amit mondani akarnak, és így döntöm el, hogy mi az, ami egy személy, és mi nem."

A Lemoine kirúgását megerősítő közleményében a vállalat azt mondta, hogy 11 felülvizsgálatot végzett a LaMDA-val kapcsolatban, és "teljesen megalapozatlannak találta Blake állításait, miszerint a LaMDA érző lény". Margaret Mitchell, a Google etikus mesterséges intelligenciáért felelős korábbi társvezetője még akkor, amikor Lemoine a Postnak adott interjút, a LaMDA érzőképességét "illúziónak" nevezte, és kifejtette, hogy az internetről származó több trillió szóval táplálva képes emberi beszélgetést utánozni, miközben teljesen élettelen marad.

"Ezek a rendszerek utánozzák a mondatok millióiban található szóváltások típusait, és bármilyen fantasztikus témát képesek feldobni" - mondta Emily Bender nyelvészprofesszor a lapnak, aki szerint nagyon fontos megtanulni, hogyan ne képzeljünk mögéjük elmét.

A Google szerint Lemoine egyáltalán nem tett le arról, hogy nyilvánosan beszéljen a szerinte négyéves gyermek tudatával rendelkező MI-ről, sőt, ügyvédet is fogadott neki, ezzel viszont megsértette az adatbiztonsági irányelveit, és ez vezetett az elbocsátásához.

"Sajnálatos, hogy Blake folytatólagosan megsértette az egyértelmű foglalkoztatási és adatbiztonsági irányelveket, amelyek magukban foglalják a termékinformációk védelmének szükségességét" - magyarázta a vállalat.

"Folytatjuk a nyelvi modellek gondos fejlesztését, és minden jót kívánunk Blake-nek".

Hirdetés
0 mp. múlva automatikusan bezár Tovább az oldalra »

Úgy tűnik, AdBlockert használsz, amivel megakadályozod a reklámok megjelenítését. Amennyiben szeretnéd támogatni a munkánkat, kérjük add hozzá az oldalt a kivételek listájához, vagy támogass minket közvetlenül! További információért kattints!

Engedélyezi, hogy a https://www.computertrends.hu értesítéseket küldjön Önnek a kiemelt hírekről? Az értesítések bármikor kikapcsolhatók a böngésző beállításaiban.