Mākslīgais intelekts nav pielīdzināms cilvēkam, to nedrīkst pielūgt vai ļaut tam aizstāt cilvēciskās attiecības, bet tas ir izmantojams "tikai kā instruments, kas papildina cilvēka intelektu". Pāvesta Franciska pēdējos gados izteiktie brīdinājumi par mākslīgo intelektu veido dokumenta "Antiqua et Nova" (atsauce uz "veco un jauno gudrību") pamatu. Tā ir Ticības mācības un Kultūras un izglītības dikastēriju kopīgu pārdomu rezultāts. Dokuments ir adresēts vecākiem, skolotājiem, priesteriem, bīskapiem un visiem, kas aicināti izglītot un nodot tālāk ticību, kā arī tiem, kas atzīst zinātnes un tehnoloģiju attīstības nepieciešamību "kalpot cilvēkam un kopējam labumam". Notu, kas publicēta 28. janvārī, apstiprināja pāvests Francisks. "Antiqua et Nova" 117 punktos uzsvērti mākslīgā intelekta (MI) attīstības izaicinājumi un iespējas izglītības, ekonomikas, darba, veselības, starptautisko attiecību, kā arī kara kontekstā. Pēdējā gadījumā, kā brīdina dokuments, mākslīgais intelekts varētu palielināt militārās spējas "pāri cilvēka kontrolei", paātrinot "destabilizējošu bruņošanās sacensību, kas izraisītu katastrofālas sekas cilvēktiesībām". Dokumentā detalizēti uzskaitīti mākslīgā intelekta radītie draudi un ieguvumi. Satraukumu rada visas inovācijas, kuru sekas joprojām nav paredzamas - pat tās, kas pašlaik šķiet nekaitīgas, piemēram, teksta un attēlu ģenerēšana. Mākslīgā intelekta un cilvēka intelekta atšķirība Abu dikasteriju pārdomas koncentrējas uz ētiskajiem un antropoloģiskajiem aspektiem, kas ir dokumenta centrā. Daudzas piezīmes ir veltītas "galvenajai" atšķirībai starp mākslīgo intelektu (MI) un cilvēka intelektu. Cilvēciskais intelekts "atklājas attiecībās", tas ir Dieva veidots. Mākslīgajam intelektam "trūkst spēju attīstīties tieši šādā nozīmē". Tā perspektīva ir "tīri funkcionāla", kad cilvēks tiek vērtēts tikai caur viņa darba un sasniegumu prizmu, kamēr viņa cieņa ir neatņemama un neaizskarama. Tas attiecas arī uz "nedzimušu bērnu", "cilvēku bezsamaņas stāvoklī" vai "cietušu senioru" gadījumā. Tāpēc maldinošs ir vārda "intelekts" lietojums attiecībā uz mākslīgo intelektu: tā nav cilvēka intelekta mākslīgā forma, bet gan "viens no tā produktiem". Spēks nedaudzu rokās Tāpat kā jebkuru cilvēka ģēnija produktu, arī mākslīgo intelektu var virzīt gan "pozitīviem, gan negatīviem mērķiem", atgādina "Antiqua et Nova". Dokumentā netiek noliegts, ka mākslīgais intelekts var ieviest "svarīgas inovācijas" dažādās jomās [48], taču tas var arī saasināt marginalizācijas, diskriminācijas, nabadzības, "digitālās atstumtības" un sociālās nevienlīdzības parādības [52]. Jo īpaši "ētiskas bažas" rada tas, ka "lielākā daļa varas pār galvenajiem mākslīgā intelekta pielietojumiem ir uzkrāta dažu spēcīgu uzņēmumu rokās" [53], kā rezultātā ar šo tehnoloģiju var manipulēt, lai "gūtu personisku vai korporatīvu labumu" vai lai "virzītu sabiedrisko domu konkrētas nozares interesēs" [53]. Karš Dokumentā tiek analizēti dažādi dzīves aspekti saistībā ar mākslīgo intelektu. Neizpaliek arī atsauce uz karu. Mākslīgā intelekta "analītiskās spējas" varētu izmantot, lai palīdzētu valstīm censties panākt mieru un drošību, taču "nopietnas ētiskas bažas" rada autonomas un nāvējošas ieroču sistēmas, kas spēj "identificēt un uzbrukt mērķiem bez tiešas cilvēka iejaukšanās" [100]. Pāvests Francisks mudina steidzami aizliegt to izmantošanu. G7 samitā Apūlijā viņš teica: "Nevienai mašīnai nekad nevajadzētu izlemt, vai atņemt dzīvību cilvēkam". Mašīnas, kas spēj autonomi precīzi nogalināt, un citas masu iznīcināšanas tehnoloģijas rada reālus draudus "cilvēces vai veselu reģionu izdzīvošanai" [101]. Šīs tehnoloģijas piešķir karam nekontrolējamu iznīcinošu spēku, kas ietekmē daudzus nevainīgus civiliedzīvotājus, nesaudzējot pat bērnus, - brīdina "Antiqua et Nova". Lai neļautu cilvēcei ieslīgt "pašiznīcināšanās purvā", ir nepieciešams "ieņemt nepārprotamu nostāju pret jebkādu tehnoloģiju pielietošanu, kas fundamentāli apdraud cilvēka dzīvību un cieņu". Cilvēku attiecības Runājot par cilvēku attiecībām, dokumentā norādīts, ka mākslīgais intelekts var "veicināt saiknes", bet vienlaikus izraisīt arī "kaitīgu izolāciju" [58]. "Mākslīgā intelekta antropomorfizācija" (cilvēka īpašību piedēvēšana lietām) rada grūtības arī bērnu attīstībai, kuri tiek mudināti izprast "cilvēciskās attiecības utilitārā veidā", kā tas ir tērzēšanas robotu gadījumā [60]. Tiek uzskatīts par nepareizu attēlot mākslīgo intelektu kā cilvēku, un tā izmantošana negodīgos nolūkos ir "nopietns ētikas pārkāpums". Tāpat "mākslīgā intelekta izmantošana, lai maldinātu citos kontekstos, piemēram, izglītībā vai cilvēku attiecībās, tostarp seksualitātes jomā, ir dziļi amorāla un prasa rūpīgu uzraudzību" [62]. Ekonomika un darbs Līdzīga modrība ir nepieciešama arī ekonomikas un finanšu jomā. Īpaši darba jomā tiek norādīts, ka, lai gan mākslīgajam intelektam ir "potenciāls" palielināt kompetenci, produktivitāti vai radīt jaunas darbavietas, tajā pašā laikā tas var "pazemināt darbinieku kvalifikāciju, pakļaut viņus automātiskai pārraudzībai un samazināt viņu lomu līdz stingrām un atkārtotām funkcijām" [67]. Šāds process var pat "apslāpēt" jebkādu inovācijas spēju. Dokumentā uzsvērts: "Mēs nedrīkstam censties aizstāt cilvēku darbu ar tehnoloģisko progresu, jo tādējādi cilvēce kaitē pati sev" [70]. Veselība Liela uzmanība tiek pievērsta veselības aprūpes tēmai. Lai gan mākslīgajam intelektam ir liels potenciāls dažādos medicīnas lietojumos (piemēram, diagnostikas jomā), pastāv risks, ka ārsta un pacienta attiecību aizstāšana ar mijiedarbību tikai ar mašīnām varētu "padziļināt vientulību, kas bieži pavada slimības". Resursu optimizācijai arī nevajadzētu "kaitēt visneaizsargātākajiem" vai izraisīt "aizspriedumus un diskrimināciju" [75], kas varētu nostiprināt "medicīnu bagātajiem". Šādā sistēmā tie, kam ir finanšu resursi, gūst labumu no moderniem profilakses līdzekļiem un personalizētas medicīniskās informācijas, bet citi cīnās, lai piekļūtu pamata pakalpojumiem. Izglītība Izglītības jomā arī tiek norādīti iespējamie riski. Ja mākslīgais intelekts tiek izmantots saprātīgi, tas var uzlabot piekļuvi mācībām un nodrošināt studentiem "tūlītēju atgriezenisko saiti" [80]. Tomēr problēma ir tā, ka daudzas programmas "aprobežojas ar gatavu atbilžu sniegšanu, nevis mudina skolēnus pašiem tās atrast vai veidot savus tekstus". Tā rezultātā zūd informācijas vākšanas prasmes un kritiskās domāšanas attīstība [82]. Tāpat ir svarīgi paturēt prātā risku, ka dažas programmas rada "izkropļotu vai nepatiesu informāciju" vai "neprecīzu saturu", kas var veicināt viltus ziņu leģitimizāciju [84]. Fake News un Deepfake Saistībā ar viltus ziņām dokumentā norādīts, ka pastāv nopietns risks, ka mākslīgais intelekts var "radīt manipulētu saturu un nepatiesu informāciju" [85], tādējādi radot mākslīgā intelekta "halucinācijas", t.i., viltus saturu, kas šķiet patiess. Vēl satraucošāka ir šāda fiktīva satura apzināta izmantošana manipulācijām. Piemēram, kad tiek apzināti izplatīti viltoti attēli, video vai skaņas ieraksti (algoritmu pārstrādāti vai ģenerēti), lai "maldinātu vai kaitētu" [87]. Līdz ar to ir izteikts aicinājums vienmēr rūpīgi "pārbaudīt koplietojamā satura patiesumu" un jebkurā gadījumā izvairīties no "tādu vārdu un attēlu koplietošanas, kas aizskar cilvēka cieņu". Tajā arī uzsvērta nepieciešamība izslēgt visu, "kas kurina naidu un neiecietību, noniecina cilvēka seksualitātes skaistumu un intimitāti, kā arī ekspluatē vājos un neaizsargātos" [89]. Privātums un kontrole Jautājumā par privātumu un kontroli dokumentā uzsvērts, ka daži datu veidi var skart cilvēka dziļāko intimitāti "un, iespējams, pat viņa sirdsapziņu" [90]. Dati tagad tiek iegūti ar minimālu informāciju, kas palielina risku, ka viss kļūst par "sava veida izrādi, kuru var izspiegot un uzraudzīt" [92]. Tiek arī norādīts, ka "digitālo uzraudzību var izmantot, lai kontrolētu ticīgo dzīvi un viņu ticības izpausmes" [90]. Kopīgas mājas Vides aizsardzības kontekstā mākslīgā intelekta pielietojums var tikt uzskatīts par "daudzsološu". Tiek pieminēti modeļi, kas prognozē ekstrēmas klimata parādības, atbalsta glābšanas pasākumus vai veicina ilgtspējīgu lauksaimniecību [95]. Tomēr tajā pašā laikā pašreizējie mākslīgā intelekta veidi prasa "milzīgu enerģijas un ūdens daudzumu un ievērojami palielina CO2 emisijas". Līdz ar to slogs videi kļūst "smags". "Ilgtspējīgu risinājumu izstrāde ir būtiska, lai samazinātu to ietekmi uz mūsu kopīgām mājām". Atsauce uz Dievu "Pārliecība, ka Dievu var aizstāt ar savu roku darbu, ir elkdievība" – uzsvērts jaunajā dokumentā, kurā citēti Svētie Raksti, lai brīdinātu, ka mākslīgais intelekts var būt "kārdinošāks par tradicionālajiem elkiem" [105]. Tajā tiek atgādināts, ka mākslīgais intelekts ir tikai cilvēces "bāls atspulgs". "Mākslīgo intelektu nevajadzētu pielūgt, jo, to darot, cilvēks pats kļūst par savas radības vergu". No tā izriet pēdējais ieteikums: "Mākslīgais intelekts būtu jāizmanto tikai kā instruments, kas papildina cilvēka intelektu, nevis aizstāj tā bagātības" [112]. Vaticannews.va Foto:Vecteezy.com/Khunkorn Laowisit |