Robotetikai kérdések

Posted by

Pokol Béla

A robotokkal együttélő világ morális kérdéseit vizsgálva az ezt kutatók három területet különítenek el: 1) a robotokat készítők és programozók felé irányuló követelmények és tilalmak területét (mint pl. az orvosetikáé),
2) másodszor a robotokba beprogramozandó követelmények is tilalmak területét, melyet először Assimov fogalmazott meg a „robotika három törvénye” címszó alatt, és végül – egy perspektivikus jövőben –
3) az öntudatot és tudatosságot elérő robotok esetében az ekkor esetleg őket is megillető morális igények és „emberi jogok” kérdéskörét. Mindhárom területre közös dilemmát jelent a főbb morálelméleti kiindulópontok közötti választás, melyeket a robotetikusok egyrészt a „deontológiai” kiindulóponttal azonosítanak (a szabály az szabály, és ezeket követni kell bármi is a következménye), másrészt az ezzel polárisan szembenálló „konzekvencionalista” iskolát, mely a cselekvés következményeinek mérlegelését látja a morális döntés alapjának, és azt kell a morálra törekvőnek választani cselekvésénél, amely a lehető legtöbb ember boldogságát tendenciájában növeli, és nem csökkenti; és végül harmadszor az „erényetika iskoláját”, mely nem az egyes szituációkban követendő követélményekre összpontosít a morál definiálásakor (mint az előbbi két iskola, noha éppen szembenállóan) hanem az ember személyiségének tartós cselekvési diszpozícióira, egyszerűbben: a szocializált morális értékeire. Ez utóbbinál nem azt kérdezi a morálra törekvő ember, hogy mi a szituációban az erkölcsi szabály, mert az egyre bonyolultabb modern világban a legtöbbször nincsenek is egyértelmű szabályok, hanem azt, hogy miként kell dönteni egy bátor, igazságos, hűséges, igazmondó stb. embernek, illetve ezen belül sokszor egy hivatás keretei között egy ilyen jellemzőkkel rendelkező (erényes) orvosnak, tanárnak, mérnöknek stb., mert csak ez lehet a morálisan helyes döntés.
A három iskola közül a deontológiai iskola a pontos szabályok mérlegelés nélküli követést előírva csak a legszűkebb specializált területen alkalmazott robotok esetében lehetséges, hisz minden szituációt kiszámítani és szabállyal ellátni csak ilyen szűk területen lehetséges, de még itt is felmerülhetnek előre nem látott szituációk, melyek félrefuttatják a robot döntését. Például be lehet táplálni egy harci robot döntési algoritmusába elvileg, hogy „gyereket soha ne ölj!”, de Afrika háborúinak gyerekkatonái között ez a harci robot előre eldöntött likvidálását jelentené. Az általános jellegű robotok esetében pedig teljes mértékben alkalmazhatatlan a deontológiai megközelítés. De a szintén az egyes szituációk mérlegeléséhez kötött konzekvencionalista morálfilozófiai iskola is csak életközelibb jellege miatt tűnik jobbnak, mert itt pedig az irányító premissza – „a lehetető legtöbb embernek a legnagyobb boldogságát növelje a választott döntés, és ne a csökkentés felé hasson!” – kivitelezhetetlen. Olyan nagytömegű információ feldolgozását kívánná ez meg, amely a legnagyobb kapacitású számítógépes adattárolás esetén is időn túli lenne a legtöbbször. Így egy védhető válasz erre az, hogy ami a másodiknak jelzett robotmorál területet illeti (ti. a robotok algoritmusába beprogramozott morális döntési premisszákat) ott a deontológiai és az erényetikai irányzatok egy hibridje a perspektivikusan legjobb beépített robotmorál verzió. E szerint inkább absztraktabb morális normák (morális erények) adják meg a döntési keretet, és a beépített célok és döntési kontextusok pontosítják mindenkor az adott szituációkban a robot által kiválasztott döntés meghatározóit.
Kérdéses azonban, hogy a fentiek szerin a robotokba beprogramozott morális meghatározók hatásosok lesznek-e, és feltételezhettünk-e a morális parancsokat betartó robotvilágot? Ugyanis, ha a robotok a neurális mélytanuló algoritmusaikkal a programjukat és később akár hardverjüket is állandóan át tudják építeni – mint ahogy már ma is van erre szűkkörű lehetőség -, akkor a külsődleges és számára funkció nélküli morális normák félresöprése szinte elkerülhetetlen. Vagyis bár be lehet programozni akár az érzelmeket imitáló programokat is a robotokba, és azok a mai szintű, alapvetően még emberi irányítás alatt álló robotokban még kifejthetik a morál normái által megkövetelt döntési szempontokat (tilalmakat, döntési prioritásokat), de az öntanulási képesség egy fokának elérése után már ezek követése is bizonytalan lehet. Egy távolabbi jövőben (exponenciális előrehaladás esetén akár húsz-harminc év múlva) azonban az emberi irányítás alól kiszabadult és öntudatot elsajátító robotvilág robotjainál hibás lenne feltenni az emberi világ normáinak tovább élését.

Bojcsuk Iván grafikája