keresés

2017. december 11., hétfő

Etika és a robotok: szükséges vagy sem?

Mióta a robotika robbanásszerű fejlődésnek indult, sokakat foglalkoztat, hogy a robotok viselkedhetnek-e az etika szabályai szerint, vagy szükséges-e egyáltalán az emberek etikai szabályait alkalmazni a robotoknál.

Sokan ismerhetik a villamos problémát. Ez az a pszichológiai kísérlet, melyben a következő szituációt kell elképzelni: egy elszabadult vagon száguld öt, a vágányokra kötözött ember felé. Mellettünk azonban van egy váltó, aminek segítségével elterelhetjük a vagont egy másik sínre, amin csak egy ember van lekötözve. Ez a probléma a megalkotása óta foglalkoztatja az embereket, s több kísérlet is készült ezzel kapcsolatban. Az eredmények azt mutatták, hogy az emberek nagy százaléka inkább az egy embert öli meg, mint az ötöt. Ez azt mutatja, hogy az emberek hajlamosabbak a két rossz közül a kisebbiket választani. Na, de mi a helyzet az önvezető autókkal? A szituációt az önvezető autókra is ki lehet terjeszteni, ahogy a BBC is megtette októberi cikkében. Az ő verziójukban a szituáció így nézett ki: ülünk az önvezető autónkban, s egyszer csak két kisgyerek szalad ki az úttestre, miközben játszanak. Fékezni nincs idő, viszont a kormány elrántásával összeütköznénk egy motorossal. Ha ez a való életben egy ember vezette autóval történik meg, bármi is legyen a kimenetele, elnézőbbek lennénk vele. Egy pillanat alatt, reflexből kellene döntenie. Azonban a mesterséges intelligenciával felszerelt autóknál felmerülne a kérdés, hogy direkt programozták-e úgy. Ebben az esetben ki hozza meg a döntést: az autó fedélzeti robotja vagy az utas? Vagy a gyártónak kellene előírások szerint programozni a fedélzeti robotot?
Vannak, akik szerint ezek a szituációk egyáltalán nem számítanak az önvezető autók tekintetében. Ilyen például Rodney Brooks, az MIT egykori professzora. Szerinte a belátható jövőben sem az emberek, sem az önvezető autók életére nem lesznek gyakorlati hatással ezek a dilemmák, mert néhány nagyon ritka esettől eltekintve, pusztán csak elméletben lépnek fel az emberek számára is. Az önvezető autóknál épp ezért fel sem merülhet a kérdés.
Ez nem azt jelenti, hogy a szabályozások minden formáját el kell felejteni. 2016-ban Amerikában kiadtak egy dokumentumot, ami iránymutatásokat tartalmaz a gyártók számára. Ez többnyire azt a gondolatot követi, hogy a kockázatokat és esetlegesen a károkat minimalizálják.

A Guardian cikkében olvasható egy igazán érdekes felvetés, miszerint a robotokat (a repülőkhöz hasonlóan) fekete dobozokkal kellene felszerelni. Ez egy úgynevezett "etikai fekete doboz" lenne, ami rögzítené a robot döntéseit és ha bármilyen baleset történne, ki lehetne vizsgálni miért úgy döntött, ahogy.

A robotika a haditechnikában is jelentős szerepet képvisel. Jelenleg ezeket még emberi utasításokkal alkalmazzák, de eljöhet annak az ideje is, amikor már teljesen automatikusan hajtanak végre parancsokat. Ezzel kapcsolatosan is merülnek fel etikai kérdések. Sok érv szól a "gyilkos robotok" ellen, így például: egy robot nem tudja megfontolni és érezni a döntése erejét és ha tesz valami visszafordíthatatlant, akkor nincs akit felelősségre vonjanak. Persze ezekre is vannak ellenérvek, ahogy a Forbes cikkében olvashatjuk. Az egyik ilyen szerint, csak azért vannak problémák a felelősségre vonás kérdésével, mert még nem tökéletesek ezek a fajta robotok. Ha tökéletesek lesznek, akkor nem hibáznak, így nem is kell felelősségre vonni senkit. A másik pedig azt mondja, hogy ha egy robotot, aki nem tud mérlegelni, nem vethetnek be, akkor egy hibázásra hajlamos embert miért vethetnek be csak azért, mert képes mérlegelni a döntéseit? A cikkben két filozófus is bemutatja a saját nézetét ezzel kapcsolatosan. Ez két érvből áll: sok filozófus szerint az erkölcs fejleszthető gyakorlással és kell hozzá intuíció. Ez utóbbit nem lehet a robotok számára csak úgy megtanítani. Ha sikerülne is,akkor kiegészítik a második érvvel: nem a megfelelő indokok miatt cselekednének (pl.: Egy ember megment valakit, azért, hogy az életben maradjon, vagy annak reményében, hogy megjutalmazzák.).

Ezeken kívül még számos etikai kérdést felvetnek a robotok, így például: az orvosi robotok a (távoli) jövőben hajthatnának-e végre eutanáziát? Vagy egyáltalán hogyan kezeljük őket: egyenrangú félként vagy "rabszolgaként"? És ezek közül melyik a helyes?
Sokan korainak találhatják az ilyesfajta kérdéseket, azonban a robotok és a mesterséges intelligencia fejlődését nézve van alapjuk.

Szükség van-e egyáltalán a robotok etikus viselkedésére? Szubjektív véleményem szerint az etika egy, az emberek "kordában tartására" megalakult dolog. Irányelvek összessége, melyet lehet követni és lehet nem követni (pl.: bűnözők). Ezeknek az emberi szabályoknak a robotokra való alkalmazása nagy mértékben függ attól, hogy egyenrangú felek lesznek majd a teljesen fejlett robotok, vagy alárendeltek. Ha alárendeltek, akkor egyértelműen "rá lesznek kényszerítve" az etikus viselkedésre. Viszont, ha egyenrangúak lesznek, akkor nem ennyire egyértelmű. A másik tényező: az, hogy mit tartunk jónak vagy rossznak, eléggé szubjektív. Ha a robotoknak szabad akarata lesz, ezt a szubjektivitást ugyanúgy használhatják majd, mint az emberek. A cikk elején említett villamos problémában, kevés emberhez hasonlóan dönthetnek majd úgy, hogy ne térítsék el a vagont.
Azt megmondani viszont egyértelműen nem lehet, hogy az etika megléte vagy nem léte milyen következményekkel fog járni. Lehet, hogy a jövőben teljesen más fordulatot vesz a robotika alapjaiban, és nem lesz értelme tárgyalni ezeket a kérdéseket.

Nincsenek megjegyzések:

Megjegyzés küldése