Cookies management by TermsFeed Cookie Consent
Posolstvo Svätého Otca Leva XIV. k 60. svetovému dňu spoločenských komunikačných prostriedkov

Chrániť ľudské hlasy a tváre
 

Drahí bratia a sestry!

Tvár a hlas sú jedinečné charakteristiky každého človeka; prejavuje sa cez ne jeho neopakovateľná identita a sú konštitutívnym prvkom každého stretnutia. Ľudia v antike to dobre vedeli. Preto starovekí Gréci na označenie človeka používali slovo „tvár“ (prósōpon), ktoré etymologicky označuje to, čo je pred naším zrakom, miesto prítomnosti a vzťahu. Latinský termín persona (z per-sonare) zasa zahŕňa zvuk: nie hocijaký zvuk, ale nezameniteľný niečí hlas.

Tvár a hlas sú posvätné. Daroval nám ich Boh, ktorý nás stvoril na svoj obraz a podobu a povolal nás k životu Slovom, ktorým sa k nám on sám obrátil; Slovom, ktoré najprv po stáročia znelo v hlasoch prorokov a potom sa v plnosti čias stalo telom. Toto Slovo – toto Božie komunikovanie o sebe samom – sme mohli počuť a vidieť aj bezprostredne (porov. 1 Jn 1,1 – 3), lebo sa nám zjavilo v hlase a tvári Ježiša, Božieho Syna.

Boh chcel, aby bol človek od okamihu svojho stvorenia jeho partnerom v dialógu a – ako hovorí svätý Gregor z Nisy1 – vtlačil mu do tváre odraz Božej lásky, aby mohol prostredníctvom lásky naplno žiť svoje človečenstvo. Chrániť ľudské tváre a hlasy znamená teda chrániť túto pečať, tento nezmazateľný odraz Božej lásky. Nie sme druhom zloženým z vopred definovaných biochemických algoritmov. Každý z nás má nenahraditeľné a neopakovateľné povolanie, ktoré vyplýva zo života a prejavuje sa práve v komunikácii s ostatnými.

Ak zlyháme v tejto ochrane, digitálna technológia môže radikálne zmeniť niektoré základné piliere ľudskej civilizácie, ktoré niekedy považujeme za samozrejmé. Simulovaním ľudských hlasov a tvárí, múdrosti a vedomostí, uvedomenia si a zodpovednosti, empatie a priateľstva, systémy známe ako umelá inteligencia nielen zasahujú do informačných ekosystémov, ale zasahujú aj do najhlbšej úrovne komunikácie, do vzťahov medzi ľuďmi.

Nie je to teda technologická, ale antropologická výzva. Chrániť tváre a hlasy znamená v konečnom dôsledku chrániť samých seba.  Odvážne, odhodlane a s rozvahou využívať možnosti, ktoré ponúka digitálna technológia a umelá inteligencia, neznamená skrývať pred sebou kritické momenty, nejasnosti a riziká.

Nevzdávajte sa svojho vlastného myslenia

Už dlho existuje mnoho dôkazov o tom, že algoritmy navrhnuté na maximalizáciu zapojenia do sociálnych médií – čo je pre platformy ziskové – odmeňujú rýchle emócie a - naopak, penalizujú ľudské prejavy, ktoré si vyžadujú viac času, ako je snaha o pochopenie a reflexia. Tým, že uzatvárajú skupiny ľudí do bublín ľahko dosiahnutého súhlasu či pobúrenia, tieto algoritmy oslabujú schopnosť počúvať a kriticky myslieť a zvyšujú sociálnu polarizáciu.

K tomu sa pridala naivná nekritická dôvera v umelú inteligenciu ako vševedúceho „priateľa“, poskytovateľa všetkých informácií, archívu všetkých spomienok, „orákula“ všetkých rád. To všetko môže ďalej oslabovať našu schopnosť analyticky a kreatívne myslieť, chápať významy, rozlišovať medzi syntaxou a sémantikou.

Hoci umelá inteligencia môže poskytovať podporu a pomoc pri manažmente komunikačných úloh, vyhýbanie sa vlastnému mysleniu a uspokojovanie sa s umelou štatistickou kompiláciou môže v dlhodobom horizonte oslabiť naše kognitívne, emocionálne a komunikačné schopnosti.

V posledných rokoch systémy umelej inteligencie čoraz viac preberajú kontrolu nad produkciou textov, hudby a videí. Veľká časť ľudského kreatívneho priemyslu tak riskuje, že bude rozložená a nahradená označením „Powered by AI“, čím sa ľudia stanú iba pasívnymi konzumentmi nepremyslených myšlienok, anonymných produktov bez autorstva a lásky. Zatiaľ čo majstrovské diela ľudského génia v oblasti hudby, umenia a literatúry sa redukujú na obyčajné cvičisko pre stroje.

Otázka, ktorá nám leží na srdci, sa však netýka toho, čo dokáže alebo nedokáže stroj, ale toho, čo môžeme a budeme môcť urobiť my, ak budeme rásť v ľudskosti a poznaní s múdrym využívaním týchto mocných nástrojov, ktoré máme k dispozícii. Človek bol vždy v pokušení privlastniť si ovocie poznania bez námahy a vlastnej angažovanosti, bez skúmania a osobnej zodpovednosti. Vzdať sa tvorivého procesu a prenechať svoje mentálne funkcie a predstavivosť strojom však znamená pochovať talenty, ktoré sme dostali, aby sme rástli ako ľudia vo vzťahu k Bohu a iným. Znamená to skryť svoju tvár a umlčať svoj hlas.

Byť alebo predstierať: simulácia vzťahov a reality

Keď sledujeme naše informačné toky (feed), je čoraz ťažšie rozlíšiť, či komunikujeme s inými ľuďmi, alebo s „botmi“ či „virtuálnymi influencermi“.  Netransparentné zásahy týchto automatizovaných agentov ovplyvňujú verejné diskusie a rozhodnutia ľudí. Najmä chatboty založené na veľkých jazykových modeloch (LLM) sa ukazujú ako prekvapivo účinné v skrytom presviedčaní prostredníctvom neustálej optimalizácie personalizovanej interakcie. Dialogická a adaptívna mimetická štruktúra týchto jazykových modelov je schopná napodobňovať ľudské city a simulovať tak vzťah. Táto antropomorfizácia, ktorá môže byť dokonca zábavná, je zároveň klamlivá, najmä pre tých najzraniteľnejších ľudí. Pretože chatboty, ktoré sú príliš „láskavé“ a zároveň vždy prítomné a dostupné, sa môžu stať skrytými architektmi našich emocionálnych stavov a týmto spôsobom narúšať a obsadzovať sféru ľudskej intimity.

Technológia, ktorá využíva našu potrebu vzťahov, môže mať nielen bolestivé dôsledky pre osud jednotlivcov, ale môže tiež poškodiť sociálnu, kultúrnu a politickú štruktúru  spoločnosti. K tomu dochádza, keď nahradíme vzťahy s inými ľuďmi umelou inteligenciou, ktorá je vyškolená na katalogizovanie našich myšlienok a následne na vytváranie sveta zrkadiel okolo nás, kde je všetko vytvorené „na náš obraz a podobu“. Týmto spôsobom sa necháme okradnúť o možnosť stretnúť sa s druhým, ktorý je vždy od nás odlišný a s ktorým sa môžeme a musíme naučiť konfrontovať. Bez prijatia odlišnosti nemôže existovať ani vzťah, ani priateľstvo.

Ďalšou veľkou výzvou, ktorú tieto nové systémy predstavujú, je skreslenie (v angličtine bias), ktoré vedie k získavaniu a odovzdávaniu skresleného vnímania reality. Modely umelej inteligencie sú formované pohľadom na svet tých, ktorí ich vytvárajú, a môžu zase vnucovať spôsoby myslenia tým, že kopírujú stereotypy a predsudky prítomné v údajoch, z ktorých čerpajú. Nedostatok transparentnosti pri navrhovaní algoritmov spolu s nedostatočným sociálnym zastúpením v údajoch vedie k tendencii, že uviazneme v sieťach, ktoré manipulujú s našimi myšlienkami, zachovávajú a prehlbujú existujúce sociálne nerovnosti a nespravodlivosti.

Riziko je veľké. Sila simulácie je taká veľká, že umelá inteligencia nás môže oklamať vytvorením paralelných „realít“, pričom si prisvojí naše tváre a hlasy. Sme ponorení do multidimenzionality, kde je čoraz ťažšie rozlíšiť realitu od fikcie.

K tomu sa pridáva problém nepresnosti. Systémy, ktoré vydávajú štatistickú pravdepodobnosť za poznanie, nám v skutočnosti ponúkajú nanajvýš približné pravdy, ktoré sú niekedy v skutočnosti „halucináciami“. Nedostatočná kontrola zdrojov spolu s krízou žurnalistiky v teréne, ktorá si vyžaduje neustálu prácu pri zbere a overovaní informácií na miestach, kde sa udalosti odohrávajú, môže vytvárať ešte úrodnejšiu pôdu pre dezinformácie, čo vedie k rastúcemu pocitu nedôvery, zmätenosti a neistoty.

Možné spojenectvo

Za touto obrovskou neviditeľnou silou, ktorá ovplyvňuje nás všetkých, stojí len hŕstka spoločností, ktorých zakladatelia boli nedávno predstavení ako tvorcovia „osobnosti roka 2025“, teda architekti umelej inteligencie. To vyvoláva vážne obavy týkajúce sa oligopolnej kontroly algoritmických systémov a umelej inteligencie, ktoré sú schopné jemne ovplyvňovať správanie a dokonca prepisovať ľudské dejiny – vrátane dejín Cirkvi – často bez toho, aby sme si to skutočne uvedomovali.

Výzva, ktorá nás čaká, nespočíva v zastavení digitálnej inovácie, ale v jej riadení a uvedomení si jej ambivalentného charakteru. Je na každom z nás, aby sme zdvihli hlas na ochranu ľudských bytostí a mohli tak tieto nástroje skutočne integrovať ako spojencov.

Toto spojenectvo je možné, ale musí sa opierať o tri piliere: zodpovednosť, spoluprácu a vzdelávanie.

V prvom rade zodpovednosť. Tá sa môže špecifikovať v závislosti od konkrétnej úlohy ako čestnosť, transparentnosť, odvaha, schopnosť predvídať, povinnosť zdieľať vedomosti, právo byť informovaný. No vo všeobecnosti sa nikto nemôže vyhnúť vlastnej zodpovednosti voči budúcnosti, ktorú budujeme.

Pre tých, ktorí stoja na čele online platforiem, to znamená zabezpečiť, aby ich podnikateľské stratégie neboli riadené jediným kritériom maximalizácie zisku, ale aj ďalekosiahlou víziou, ktorá zohľadňuje spoločné dobro, rovnako ako má každý z nich na srdci dobro svojich detí.

Od tvorcov a vývojárov modelov umelej inteligencie sa vyžaduje transparentnosť a sociálna zodpovednosť, pokiaľ ide o princípy navrhovania a systémy moderovania obsahu, na ktorých sú založené ich algoritmy a vyvinuté modely, aby sa podporil informovaný súhlas zo strany používateľov.

Rovnaká zodpovednosť sa vyžaduje aj od národných zákonodarcov a nadnárodných regulačných orgánov, ktorých úlohou je dohliadať na rešpektovanie ľudskej dôstojnosti. Primeraná regulácia môže chrániť ľudí pred emocionálnym putom s chatbotmi a obmedziť šírenie falošných, manipulatívnych alebo zavádzajúcich obsahov, čím sa zachová integrita informácií s ohľadom na ich klamlivú simuláciu.

Mediálne a komunikačné spoločnosti zase nemôžu dovoliť, aby algoritmy zamerané na víťazstvo za každú cenu v boji o pár sekúnd pozornosti prevládli nad vernosťou ich profesionálnym hodnotám zameraným na hľadanie pravdy. Dôveru verejnosti si získavate presnosťou, transparentnosťou, nie honbou za akýmkoľvek zapojením. Obsah generovaný alebo manipulovaný umelou inteligenciou je potrebné jasne označiť a odlíšiť od obsahu vytvoreného ľuďmi. Je potrebné chrániť autorstvo a suverénne vlastníctvo práce novinárov a iných tvorcov obsahu. Informácie sú verejným statkom. Konštruktívna a zmysluplná verejná služba sa nezakladá na netransparentnosti, ale na transparentnosti zdrojov, zapojení zúčastnených strán a vysokej kvalite.

Všetci sme povolaní spolupracovať. Nijaký sektor nemôže čeliť výzve riadiť digitálnu inováciu a správu umelej inteligencie sám. Je preto potrebné vytvoriť ochranné mechanizmy. Všetky zainteresované strany – od technologického priemyslu po zákonodarcov, od kreatívnych spoločností po akademický svet, od umelcov po novinárov a pedagógov – musia byť zapojené do budovania a presadzovania uvedomelého a zodpovedného digitálneho občianstva.

Toto je cieľom vzdelávania: zvýšiť našu osobnú schopnosť kriticky premýšľať, hodnotiť spoľahlivosť zdrojov a možné záujmy, ktoré stoja za výberom informácií, ktoré sa k nám dostávajú, pochopiť psychologické mechanizmy, ktoré aktivujú, umožniť našim rodinám, komunitám a združeniam vypracovať praktické kritériá pre zdravšiu a zodpovednejšiu kultúru komunikácie.

Práve preto je stále naliehavejšie zavádzať do vzdelávacích systémov na všetkých úrovniach aj mediálnu gramotnosť, schopnosť používať informácie a umelú inteligenciu, čo už niektoré občianske inštitúcie presadzujú. Ako katolíci môžeme a máme prispievať k tomu, aby ľudia – najmä mladí – nadobudli schopnosť kritického myslenia a rástli v slobode ducha. Takáto gramotnosť by mala byť tiež integrovaná do širších iniciatív celoživotného vzdelávania, ktoré by mali osloviť aj starších ľudí a marginalizovaných členov spoločnosti, ktorí sa často cítia tvárou v tvár rýchlym technologickým zmenám vylúčení a bezmocní.

Gramotnosť v oblasti médií, informácií a umelej inteligencie pomôže všetkým, aby sa nepodriaďovali antropomorfizácii týchto systémov, ale aby ich považovali za nástroje, aby vždy používali externú validáciu zdrojov poskytovaných systémami umelej inteligencie – ktoré môžu byť nepresné alebo nesprávne –, aby chránili svoje súkromie a svoje údaje, pričom poznajú bezpečnostné parametre a možnosti podania námietky voči ich spracovaniu. Je dôležité vzdelávať sa a učiť sa používať umelú inteligenciu zámerne a v tomto kontexte chrániť svoj obraz (fotografie a zvuk), svoju tvár a svoj hlas, aby sa zabránilo ich použitiu pri vytváraní škodlivého obsahu a správania, ako sú digitálne podvody, kyberšikana, deepfake, ktoré porušujú súkromie a intimitu ľudí bez ich súhlasu. Rovnako ako priemyselná revolúcia vyžadovala základnú gramotnosť, aby ľudia mohli reagovať na novinky, tak aj digitálna revolúcia vyžaduje digitálnu gramotnosť (spolu s humanitným a kultúrnym vzdelaním), aby sme pochopili, ako algoritmy formujú naše vnímanie reality, ako fungujú predsudky umelej inteligencie, aké mechanizmy určujú, ktoré obsahy sa objavujú v našich informačných tokoch (feed), aké sú a ako sa môžu zmeniť predpoklady a ekonomické modely ekonomiky umelej inteligencie.

Potrebujeme, aby tvár a hlas opäť vyjadrovali osobnosť človeka. Potrebujeme chrániť dar komunikácie ako najhlbšiu pravdu o človeku, na ktorú by sa mala orientovať aj každá technologická inovácia.

Pri predkladaní týchto úvah ďakujem všetkým, ktorí pracujú na dosiahnutí uvedených cieľov, a zo srdca žehnám všetkým, ktorí pracujú s pomocou komunikačných prostriedkov pre spoločné dobro.

Vo Vatikáne 24. januára 2026, na sviatok svätého Františka Saleského.

LEV PP. XIV.




[1] „Skutočnosť, že sme stvorení na Boží obraz, znamená, že človeku bol od momentu jeho stvorenia vtlačený kráľovský charakter [...]. Boh je láska a zdroj lásky: božský Stvoriteľ vtlačil túto črtu aj do našich tvárí, aby človek prostredníctvom lásky – odrazu božskej lásky – uznal a prejavil dôstojnosť svojej prirodzenosti a podobnosť so svojím Stvoriteľom“ (porov. sv. Gregor z Nisy, Stvorenie človeka: PG 44, 137).