Mindannyiunknak van tapasztalata arról, hogy az életünk különböző területein a tájékozódásunkat legitim episztemikus tekintélyek segítik. Ezek olyan személyek vagy intézmények, akiket a társadalom hiteles tudás közvetítőinek tekint. Ha például epegörcseim vannak és sejtésem szerint a laparoszkópos műtét jelenthet megoldást, nyilván a megfelelő sebészorvoshoz fordulok, aki a segítségemre lesz – ezzel elkerülöm a szomszédom esetleges kuruzsló tanácsait. Az efféle hagyományos tekintélyek megóvnak a felelőtlen ötletektől, mert rendelkeznek az adott területen szükséges bölcsességgel és készek felelősséget vállalni a tanácsaikért. Ugyanakkor késő modern korunkban markáns változásnak lehetünk tanúi: a hagyományos, „természetes” autoritás-struktúrák gyors átalakuláson mennek keresztül, és új tekintélyi viszonyok jönnek létre – olyanok, amelyeket az újabb technológiákhoz fűződő viszonyuk miatt „mesterségesnek” nevezhetünk. Ma már minden orvos számára ismerős az a pácienstípus, aki mielőtt (jó esetben) megjelenik a rendelőben, valamilyen MI-alapú chatbottal konzultál a panaszairól, és a gép által felállított diagnózissal, terápiás javaslattal érkezik. Teológus és lelkipásztor létemre is átérzem, milyen ismeretelméleti káosz-élményt és frusztrációt okozhat ez annak az orvosnak, akinek egy adott helyzetben felelősséget kell vállalnia a hatalmas orvosi tudásanyag helyes alkalmazásáért.
Marad tehát a kérdés: mit kezdjünk azzal a jelenséggel, hogy az emberek számos területen kvázi-tekintélyt tulajdonítanak olyan nyelvi kommunikációra képes, hallgatólagosan antropomorfizált gépi ágenseknek (MI-rendszereknek), amelyek azonban csak részlegesen képesek betölteni a rájuk osztott szerepet? Itt az előadás címében jelzett apóriával állunk szemben: bár az MI egyre hatékonyabban képes bizonyos autoritási funkciókat ellátni – például információt adni vagy megoldási javaslatokat tenni –, hiányzik belőle az emberi döntések alapjául szolgáló bölcsesség és az autentikus közösségi beágyazottság. Ez az aporetikus feszültség világossá teszi, hogy nem pusztán technológiai kérdésről van szó, hanem a tudás és hitelesség alapjait érintő kihívásról. Gondolatmenetemben ennek az apóriának a vizsgálatára vállalkozom: először tisztázom az autoritás keresztény kultúrkörben szokásos fogalmát két jellegadó vonása – a bölcsességi és a testületi dimenzió – mentén, majd rátérek a mesterséges intelligencia által keltett episztemikus illúziók témájára. Végül megvitatjuk, hogy képes lehet-e egy gépi intelligencia tekintélyi szerepet betölteni olyan komplex és felelős döntések terén, amelyek hagyományosan magasan kvalifikált humán döntéshozókhoz kötődnek és/vagy feltételezik a keresztény hit értékrendjét.
A tekintély két dimenziója: bölcsesség és kapcsolatiság
A keresztény hagyományban az autoritás (tekintély) szorosan kötődik a bölcsességhez. A bölcsesség jóval több puszta információk birtokbavételénél: az élet értelmét érintő mély igazságok belátását és értékek gyakorlatba ültetését jelenti. A hiteles tekintély mércéje nem egyszerűen a tudás mennyisége, hanem a megértés mélysége és az értékítélet helyessége. Ahogyan Linda Zagzebski rámutat: bizonyos helyzetekben racionális dolog episztemikus feljebbvalónkhoz fordulni, vagyis jól választott mások tekintélyére hagyatkozni, ha úgy ítéljük, hogy ők lelkiismeretesen és bölcsen keresik az igazságot. Egy ilyen episztemikus tekintély elfogadása feltételezi, hogy az illető (vagy intézmény) rendelkezik azzal a bölcs belátással és felelősségvállalással, amelyet egy algoritmus nem tudhat magáénak. A mesterséges intelligencia – bár emberfeletti mennyiségű információt képes pillanatok alatt feldolgozni és rendszerezni – természeténél fogva képtelen arra az érték alapú kritikai reflexióra és mély megértésre, amely a bölcsességet jellemzi. Az MI-eszközök valójában „statisztikai közhely-detektorok”: hatalmas adatbázisok alapján, statisztikai mintázatok szerint állítanak elő mainstream válaszokat, de hiányzik belőlük az értelemorientált gondolkodás és ítélőképesség, ami egy valódi episztemikus tekintélyt jellemez. A keresztény értelemben vett autoritás bölcsességi dimenziója éppen abban áll, hogy integrálni tudja a személyes tapasztalatot, a morális felelősséget és az emberi élet komplex összefüggéseit – mindazt, amit egy MI algoritmikus működése nem nyújthat. A hit távlatában nézve a hiteles bölcsesség végső soron abból nyeri erejét, hogy az Isteni Igazsághoz kapcsolódik – ezt a súlyt és mélységet pedig egy mesterséges rendszer ontológiailag nem vallhatja magáénak.
A keresztény tekintély másik alapvető vonása a testületi, közösségi dimenzió. A kinyilatkoztatott igazság nem izolált, magánjellegű felfedezések sorozata, hanem közösségi kontextusban megélt és megerősített valóság. Az Egyház tanítása szerint a Szentlélek az egész hívő népben munkálkodik; a sensus fidelium, a hívek hitérzéke biztosítja, hogy az igazságot a közösség együtt ismerje fel és őrizze meg. A hiteles tekintély így nem csupán felülről nyer igazolást, hanem a közösség egészének konszenzusában gyökerezik. Ezzel szemben az MI-alapú „mesterséges tekintély” legfeljebb egy virtuális korporativitást tudhat maga mögött. A gépi rendszer a látszat szintjén utalhat egy állítás kapcsán arra, hogy „a legtöbb ember szerint…”, vagy „az interneten fellelhető vélemények alapján”… – mintha egy közösség támogatását bírná. Ez azonban puszta illúzió: a tipizált statisztikai adat mögött nincs valós közösségi konszenzus. E közös részvétel és kapcsolati beágyazottság nélkül nincs keresztény értelemben vett tekintély. A mesterséges intelligencia által nyújtott „virtuális közösség” így megtévesztő: azt hihetjük, hogy a gép által felkínált információ mögött valamilyen kollektív bölcsesség áll, pedig valójában a betűk mögül hiányzik az a személyes kapcsolati háló és a közösségi hagyomány, amely a humán tekintély alapját adja. Enélkül pedig hiányzik az a szapienciális és korporatív mozzanat, amely a természetes tekintélyek sajátja.
Episztemikus illúziók a mesterséges intelligencia korában
A 21. század elején kibontakozó ún. „digitális ökoszisztéma” felerősítette a modern korra általánosan is jellemző technológiai forradalom társadalmi visszacsatolásait (ld. korábban pl. futószalag, televíziózás, internet életet átalakító szociológiai hatásait!). A technológia mára nem puszta eszköz, hanem az emberi érintkezés, kapcsolattartás és tudásszerzés elsődleges közege lett. Ambrus Gábor a kabbalisztikus Gólem-metaforát használja ennek a „megszaladásnak” a szemléltetésére: az ember megalkotja a maga eszközeit, amelyek először hasznos segítőtársak, majd lassan átveszik az irányítást alkotóik felett. A mesterséges intelligencia ebben az összefüggésben különleges helyet foglal el, hiszen képes szimulálni az emberi értelmet és kommunikációt, látszólagos autonómiával ruházva fel magát. Így az MI-alapú eszközök (pl. chatbotok) egyre inkább episztemikus autoritásként tűnnek fel: nemcsak információt szolgáltatnak, hanem sajátos tekintélyt is gyakorolnak a felhasználók felett. Ez a jelenség komoly kihívás elé állítja a társadalmat, amely eddig hagyományos tekintélystruktúrák segítségével tájékozódott a világban, amelyek az emberi bölcsességre, tapasztalatra és közösségi konszenzusra épültek.
Köztudott, hogy az MI nyelvi modellek működési mechanizmusa alapvetően statisztikai mintaillesztés. Míg egy emberi tanító, orvos vagy lelkipásztor évtizedek tapasztalatát és belátásait sajátjaként adja tovább, addig egy modern MI (mint amilyen például ChatGPT is) óriási adathalmazból valószínűségi alapon állítja össze a válaszait. Ebben rejlik az episztemikus illúzió veszélye: a gép válaszai gyakran meggyőzően hangzanak, de valójában csak a humán nyelvhasználat leggyakoribb mintázatait tükrözik vissza. Az MI nem érti a választ, nincs valódi intenciója vagy jelentésélménye – hiányzik belőle a megértés mélysége is. Hajlamosak vagyunk azt hinni, hogy ha egy gép magabiztosan állít valamit, akkor az igaz és megbízható. Valójában azonban az MI könnyen ad téves vagy trivializáló válaszokat, hiszen nincs valóságkapcsolata vagy igazságérzéke. Ez az episztemikus korlát összecseng azzal, amit már a bölcsességi dimenziónál láttunk: a gép nem tud különbséget tenni a közhely és a mély igazság között. Ráadásul nem képes felismerni saját korlátait sem – nincs metakogníciója, ami figyelmeztetné, ha téved, vagy ha egy kérdés túlmutat a kompetenciáján. Ez a jelenség könnyen kiváltja a naiv felhasználó csodálatát, aki ettől kezdve kritika nélkül elfogadja a gépi válaszokat. Ilyenkor a gép pszichológiai értelemben a felhasználó kapcsolati terében már el is foglalta a bölcs tanácsadó helyét – de valójában nem viseli annak felelősségét, és nem is tudja felmérni egy adott helyzet egyedi súlyát.
Egy további episztemikus illúzióhoz vezet az MI pszeudo-korporativitása, vagyis a virtuális tekintély kapcsolati beágyazottságának a meggyőző látszata. Amikor egy MI rendszer azt mondja: „sokak szerint a dolog így vagy úgy van”, illetve összegzi „az internet népének a becses véleményét” valamely témában, úgy tűnhet, mintha egy közösség szólna hozzánk. Mintha a humán korporatív tudás kristályosodna ki a válaszaiban, amit általában autoritások testesítenek meg. Csakhogy ez a közösségi konszenzus illúziója. A valóságban az MI nem tagja semmilyen közösségnek, így nem is tükrözhet valódi közösségi véleményt vagy bölcsességet. Amit nyújt, az legfeljebb egyfajta aggregált adattömeg, amelyből hiányzik a személyes felelősség és a dialógus élő dinamikája. A keresztény hagyományban az igazság közösségi kiérlelése – a zsinatok, a teológiai viták, a hívők érzéke – garantálja, hogy a döntések mögött ott legyen a Szentlélek által vezetett Egyház. Ezzel szemben a gép által sugallt „közmeggyőződés” mögött nincs hús-vér közösség, sem bármilyen felelősséggel bíró testület. Episztemikus igazságtalanság is fakadhat ebből: bizonyos csoportok vagy vélemények eleve nem képviseltek megfelelően az online adathalmazokban, így a gép „kollektív” válaszai erősen torzíthatnak. Az MI virtuális vagy mesterséges tekintélye tehát könnyen félrevezető lehet: úgy tesz, mintha mindenki egyetértően bólogatna a háttérben, holott lehet, hogy csak a legtöbbször ismételt (vagy leginkább kattintásvadász) vélemények visszhangját halljuk. Emiatt kritikus tudatossággal kell viszonyulnunk ezekhez a pszeudo-közösségi tekintélyformákhoz. Nem szabad elhinnünk, hogy a gép által sugallt konszenzus pótolja a valódi közösségi bölcsességet: a digitális pszeudo-korporativitásban könnyen elveszhet az a kapcsolatokba ágyazottság, ami eddig a tekintély hitelesítője volt.
Az MI korlátai a keresztény antropológia fényében
A katolikus egyház Antiqua et Nova című dokumentuma (2025) kifejezetten foglalkozik az MI autonóm ágenseinek jelenségével a keresztény kognitív antropológia fényében. Rámutat, hogy bár az MI-rendszerek látszólag autonóm módon működnek és egyre összetettebb döntéseket hoznak, alapvetően eltérnek az emberi személytől. A keresztény hagyomány szerint az emberi értelem, akarat és tudat szerves egységet alkot, amely az ember Isten képmására teremtettségéből fakad. Ezzel szemben a mesterséges intelligencia folyamatai fragmentáltak és statisztikai jellegűek – nincs egységes, öntudatos személyiség, amely ezeket integrálná. Az ember test és lélek egységeként kapcsolatokban él: viszonyban Istennel és embertársaival, értelme és akarata erkölcsi irányultságot kap. Az MI ezzel szemben nem személy: nincs lelki dimenziója, nincs hívő közössége, nem imádkozik, nem szeret és nem szenved. Így képtelen azokra a mélyebb episztemikus és etikai feladatokra, amelyek az emberi méltóságból következnek. E ponton ér össze mindaz, amiről eddig szó volt: a bölcsesség és közösség emberi sajátosságai egy tágabb teológiai igazságban gyökereznek, mégpedig abban, hogy az ember személy, az MI pedig nem az.
A felelősség kérdése az egyik legélesebb vízválasztó ember és MI között. A valódi tekintély mindig felelősséget hordoz. Az orvos felel a betegéért, a lelkipásztor felel a rá bízott lelkekért, a tanító felel a tanítványaiért – döntéseiknek erkölcsi súlya van, melyet viselniük kell. Az MI ezzel szemben nem alanya a döntéseinek. Egy algoritmus nem érez lelkiismeret-furdalást, nem vállal következményeket, és nem vonható erkölcsi értelemben felelősségre. Ahogy az Antiqua et Nova dokumentum is hangsúlyozza: a teljes morális felelősség csak személyes létezőre ruházható. A gép mögött persze ott vannak a fejlesztők és üzemeltetők felelősségei, de maga a gépi „döntéshozó” egy program, amely nem tudja, mit cselekszik. Éppen ezért a mesterséges intelligenciát nem ruházhatjuk fel autentikus episztemikus autoritással. Tekintélye legfeljebb funkcionális lehet (pl. segít adatokat elemezni), de sohasem morális-szapienciális. Fontos kimondanunk: az MI nem válhat szoros értelemben vett tekintéllyé, mert nem tud felelősséget vállalni a tévedésért, nem tud bűnbánatot tartani, és nem tud etikailag jót akarni a másik személy javára.
A másik alapvető hiány az MI esetében a személyközi kapcsolatokból fakadó hitelesség hiánya. Egy pap vagy egy orvos tekintélye nem csak tudásából ered, hanem abból is, ahogyan kapcsolódik azokhoz, akiket szolgál. A bizalom, amely felé irányul, személyes ismeretségből, empátiából, közös értékrendből, a közösség visszajelzéséből épül fel. A közösségi beágyazottság azt jelenti, hogy a tekintély hordozója egy tradíció része, kapcsolódik elődeihez és átvevőihez. Az MI viszont nem tagja a közösségnek – kívülálló, nincs saját „élettörténete” a mienk között. Hiányzik belőle az az interperszonális hitelesség, amely például egy hosszú évek óta praktizáló, jó hírű orvost övez, vagy ami egy szent életű tanítót övez a közösségében. Az Antiqua et Nova kiemeli: az emberi tudás mindig relációkban bontakozik ki – tanár és tanítvány, pásztor és nyáj, orvos és beteg viszonyrendszerében. A gép viszont nem lép kapcsolatba, csak adatokat kezel. Így aztán hiába impresszív a tudása, közléseiből hiányzik az autentikus közösségi hitelesség. Hiányzik a „tekintély aurája”, amit nem lehet programozni, mert az a személyes kapcsolatok ajándéka. Enélkül, még ha ideig-óráig elfogadjuk is a gépi tanácsot, hosszú távon ki fog derülni, hogy a gép tekintélye üres illúzió marad – mögötte nincs sem személyes, sem közösségi elköteleződés vagy bölcsesség, ami a tartóoszlopa lehetne.
Összegzés
Nem kell persze „episztemikus apokalipszist” vizionálnunk az MI térnyerése láttán, de világossá vált, hogy a kognitív szférában alapvető változások zajlanak. Összegzésképp megállapíthatjuk: a mesterséges intelligencia által képviselt „mesterséges tekintély” jelensége kérdőre vonja és átalakítja a hagyományos episztemikus autoritás dinamikáit. A technológiai fejlődés egy új helyzetet teremtett, amelyben újra kell gondolnunk, mit bízunk a gépekre, és mit nem. Meg kell tanulnunk felismerni azokat a mentális és döntési folyamatokat, amelyeket racionálisan delegálhatunk az MI-nek – pl. adatgyűjtés, gyors számítások, előzetes információk feldolgozása –, és el kell különítenünk azoktól a nem delegálható, emberi bölcsességet és felelősséget igénylő tevékenységektől, mint amilyen egy beteg sorsáról való etikai döntés vagy a hit dolgaiban való tanácsadás. E kettő közti határvonalat nem egyszer s mindenkorra, hanem dinamikusan kell meghúznunk és újraértékelnünk, ahogy a technológia fejlődik – de mindig az emberi méltóság és közjó iránytűjével.
Előadásunk vezérfonala az volt, hogy vajon betölthet-e tekintélyi szerepet a gépi intelligencia a keresztény bölcsesség és közösségi hitelesség terén. A vizsgálat során kirajzolódott az apória lényege: miközben az MI látszólag egyre több autoritási funkcióra képes, hiányzik belőle két kulcsfontosságú elem – a személyes bölcsesség és a közösségi beágyazottság –, amelyek nélkül nincs autentikus tekintély. Fel kell ismernünk, hogy az MI csupán részleges, kiegészítő szerepet játszhat az emberi episztemikus autoritás mellett. Helyes keretek között együttműködhetünk vele – például használhatjuk információs támogatásra –, de nem tekinthetjük a bölcsesség vagy a közösségi ítélet forrásának. Ami az emberi döntés magva, azt nem adhatjuk át neki. Ilyen a lelkiismereti döntés, a morális felelősségvállalás, a hit dolgában való tanúságtétel – mindaz, ami az ember Isten képmására teremtettségéből fakadó méltóságának része. Az MI lehet hasznos szolga, de nem lehet mester: eszköz marad, melynek az emberi bölcsesség irányítása alatt a helye. Ha ezt tudatosan szem előtt tartjuk, akkor megőrizhetjük episztemikus autonómiánkat és a keresztény antropológiai értékeink integritását a digitális korszakban is.
Megfontolandó kérdések a továbbgondoláshoz:
- Milyen konkrét kritériumok mentén húzhatjuk meg a határt az MI-re rábízható szakmai feladatok és a nem delegálható, bölcsességet igénylő döntések között az orvosi és teológiai gyakorlatban?
- Hogyan előzhető meg az episztemikus igazságtalanság abban, ahogyan az MI-t integráljuk a döntéshozatalba? (Például: ne nyomja el a gépi javaslat a tapasztalt szakember vagy a laikus hívő értékes intuícióját.)
- Szükség van-e új etikai protokollokra vagy irányelvekre, amelyek biztosítják, hogy az MI használata felelősségteljes maradjon a klinikai és lelkipásztori munkában? Ki és hogyan vállaljon felelősséget az MI által befolyásolt döntésekért?
- Miként őrizhető meg a sensus fidelium – a hívő közösség hitérzéke – egy olyan korban, amikor esetleg teológiai kérdésekben is hozzáférhetővé válik egy MI „véleménye”? Hogyan tartható fenn a közösségi párbeszéd elsőbbsége a gépi válaszokkal szemben?
- Hogyan képezhetjük a jövő szakembereit (orvosokat, teológusokat, etikusokat) arra, hogy kritikusan és bölcsen viszonyuljanak a mesterséges intelligencia tanácsaihoz, megőrizve a hit és értelem egyensúlyát a saját döntéseikben?