
Wykaz jasnych nakazów i zakazów zrzucałby z człowieka odpowiedzialność za autentyczną refleksję na temat korzystania z AI. To podejście nie należy do logiki Ewangelii.
O kwestii przygotowywania kazań z pomocą ChatGPT wypowiedziało się ostatnio w portalu Więź.pl dwóch księży profesorów: Andrzej Draguła oraz Jan Słomka. Ponieważ jednak kazania dotyczą nie tylko wygłaszających, ale także słuchających, cenne może być uzupełnienie wspomnianych przemyśleń głosem z drugiej strony ambony. Jednocześnie tekst ten nie ma na celu reprezentowania głosu świeckich i jest raczej zbiorem osobistych – może czasem nazbyt filozoficznych – refleksji.
WIĘŹ – łączymy w czasach chaosu
Więź.pl to pogłębiona publicystyka, oryginalne śledztwa dziennikarskie i nieoczywiste podcasty – wszystko za darmo! Tu znajdziesz lifestyle myślący, przestrzeń dialogu, personalistyczną wrażliwość i opcję na rzecz skrzywdzonych.
Czytam – WIĘŹ jestem. Czytam – więc wspieram
Nie trzeba chyba nikogo przekonywać, że temat jest aktualny. Sztuczna inteligencja (AI) – w różnej formie, nie tylko ChatGPT – zdaje się wszczynać rewolucje wszędzie, gdzie się pojawia (a przynajmniej tak się ją często przedstawia). Rozważając jednak pytanie o to, czy ksiądz może używać AI do przygotowania kazania, należy stwierdzić, że jej zastosowanie nie różni się zasadniczo od korzystania z innego typu pomocy – na przykład z „kazań-gotowców” czy z możliwości kaznodziejskiego „ghostwritingu” (w tym wypadku: praktyki pisania przez osoby trzecie gotowego kazania dla danego księdza).
Co do oceny moralnej takich praktyk, rozstrzygająca jest intencja księdza, nie zaś rodzaj materiału, z którego korzysta. Co do istoty problemu – tego, że kaznodzieja może z niewłaściwych powodów czy dla niewłaściwych celów wykorzystać jakiś materiał do przygotowania kazania – AI nic tu nie zmienia. Zwiększa ona natomiast, rzecz jasna, dostępność i efektywność takiego typu „oszukiwania” ze strony księży.
Bez paniki, bez naiwności
Pozytywnie zaskakuje fakt, że Kościół katolicki wcale nie zostaje w tyle za galopującym rozwojem AI. Głos w jej sprawie wybrzmiał już, na przykład, w dokumencie „Antiqua et nova. Nota na temat relacji pomiędzy sztuczną inteligencją a inteligencją ludzką”. Tekst prezentuje się bardzo rzetelnie, szczególnie pod względem filozoficznym (adekwatność jego ujęcia mechanizmów AI trudno mi w pełni ocenić). Podtytuł zdradza, czego dotyczy zasadnicza część tekstu: ujęcia relacji (oraz różnicy) między inteligencją ludzką a sztuczną.
Główny temat dokumentu zbiega się z rozważaniami ks. Słomki, który argumentuje, że wytworom AI brak prawdziwego sensu, przysługującego jedynie wypowiedziom ludzkim. Autorzy „Noty” nie wnioskują jednak na tej podstawie, że technologii tego typu nie należy używać. Od samego początku w dokumencie tym podkreśla się, że „Kościół zachęca do postępu w nauce, technologii, sztuce i każdej innej dziedzinie ludzkiej działalności (…) w doskonaleniu świata widzialnego” („Antiqua et nova”, 2).
![]()
Z perspektywy samego kaznodziei aktem zaufania wobec siebie, swojego powołania i Boga, mogłaby być większa wiara we własne możliwości oraz działanie łaski, dzięki czemu potrzeba korzystania z AI stałby się mniejsza
Kościół bazuje tu na przekonaniu, że technologia sama w sobie nie jest ani dobra, ani zła – ocenie moralnej w ścisłym sensie podlegają jedynie ludzkie (osobowe) intencje i czyny (39). Jednocześnie przywołany dokument nie pozostaje naiwny i jasno przestrzega przed niebezpieczeństwami, które niesie z sobą tak szybki postęp AI.
Rodzi się więc praktyczne pytanie: w jaki sposób mądrze korzystać z tej technologii, by służyła „człowiekowi i dobru wspólnemu” (5)?
Rozeznawanie zamiast legalizmu
Proponowane przez dokument kryterium – „dążenie do tego, aby sztuczna inteligencja «zawsze wspierała i promowała najwyższą wartość godności każdej osoby oraz pełnię jej powołania»” (43) – pozostawia pewien niedosyt. Wyrażenia „najwyższa wartość godności osoby” czy „pełnia jej powołania” są bowiem bardzo szerokie i można je interpretować na różne sposoby. Należy jednak zwrócić uwagę, że sygnowany przez papieża Franciszka „Antiqua et nova” napisany został w duchu rozeznawania, nie legalizmu.
Jeśli chodzi o korzystanie z AI – podobnie jak i w przypadku innych kwestii moralnych – wykaz jasnych reguł, wyznaczających, co można, a czego nie można robić, mógłby dać wierzącemu złudne poczucie bezpieczeństwa. Tego typu zapis zrzucałby bowiem z człowieka odpowiedzialność za autentyczną refleksję na temat własnych działań. Choć w Kościele (często bardziej na poziomie duszpasterskim niż doktrynalnym) były i są obecne legalistyczne tendencje, to podejście nie należy do logiki Ewangelii. W końcu, to „szabat został ustanowiony dla człowieka, a nie człowiek dla szabatu” (Mk 2,27).
Sensotwórcze przetworzenie
Co jednak z kwestią przygotowywania kazań przy pomocy AI? Dokument nie odnosi się do tego pytania wprost. Należy więc zastosować powyższe ogólne kryterium do tej szczegółowej kwestii.
Tak jak zaznaczyłem wcześniej, pod względem oceny moralnej działania kaznodziei, wygłoszenie kazania napisanego przez AI oraz wziętego ze zbioru „gotowców” nie różnią się zasadniczo. Zdeprawowany ksiądz, który „Boga się nie boi i z ludźmi się nie liczy” (Łk 18,2), równie bezmyślnie może wygłosić kazanie napisane przez innego człowieka, jak i przez AI. Tak samo może tu brakować autentycznej refleksji, modlitwy i dialogu (między kaznodzieją a Słowem, a także między nim a słuchającymi go wiernymi). Tak samo kaznodzieja może ze złymi intencjami i dla złych celów korzystać z gotowych kazań napisanych przez św. Augustyna, jak i przez ChatGPT.
Jednocześnie zgadzam się z ks. Słomką (oraz „Antiqua et nova”), że AI NIGDY nie może być źródłem autentycznego, osobowego dialogu. Tym różni się ona od człowieka – nie posiada bowiem woli, uczuć, pragnień, prawdziwie ludzkich doświadczeń, umiejętności budowania relacji. Jednym słowem, nie posiada SERCE (nawet jeśli przejawia swego rodzaju intelekt). Podobnie rozumiem uwagę ks. Draguły z końca jego tekstu, że AI nie może podlegać Bożemu natchnieniu i nie ma sensu modlić się dla niej o łaskę.
Gdzie zatem leży granica między złym a dopuszczalnym użyciem AI do przygotowywania kazania? Znów, trudno tu oczekiwać niezawodnych reguł, które rozstrzygałyby tę kwestię we wszystkich przypadkach. Jeżeli kaznodzieja zwraca się do AI z czystego lenistwa, czy po to, by zabłysnąć, to z pewnością uznać to można za niewłaściwe. Jednocześnie, jeśli przy dobrych intencjach i ze świadomością ograniczeń samego AI, ksiądz szuka u niej inspiracji, cytatów (które zawsze należy zweryfikować u źródła), czy też pomocy w korekcie językowej lub w ułożeniu spójnego tekstu z kilku gotowych już myśli – nie widzę ku temu przeciwwskazań.
W moim przekonaniu – przeciwnie do ks. Słomki – z faktu, że treść wygenerowana przez AI sama w sobie nie jest „tekstem” we właściwym tego słowa znaczeniu, nie wynika, że nie może ona zostać wykorzystana przez kaznodzieję do utworzenia sensowej wypowiedzi. Wykorzystanie fragmentu „tekstu” wytworzonego przez AI nie musi być samo przez się czymś nieludzkim. Oczywiście, jeśli ksiądz miałby bezrefleksyjnie przyjmować to, co podaje mu AI, to przez sam fakt wypowiedzenia przez niego gotowej treści, puste słowa z chata nie napełnią się sensem. Wymagają one zawsze „sensotwórczego” przetworzenia przez osobę kaznodziei. Nie widzę jednak powodu, dla którego takie przetworzenie nie miałoby być możliwe.
Wiarygodność na ambonie
Powraca tu zasadnicze założenie, które przyjmuje „Antiqua et nova”: technologia sama w sobie nie jest dobra ani zła, odpowiedzialność zaś leży po stronie człowieka – w tym wypadku po stronie kaznodziei. To jemu należy zaufać, że będzie w sposób uważny i odpowiedzialny korzystał z AI.
Z perspektywy odbiorcy kazań może budzić to pewien niepokój (szczególnie w obliczu dramatycznego spadku zaufania do księży, z którym, jak się wydaje, mamy do czynienia). Jak ufać kaznodziejom, skoro słyszy się tyle słabych kazań? Skoro czasem po prostu wiadomo, że życie danego księdza nie przystaje do głoszonych przez niego słów (co za Augustynem ks. Draguła nazywa właściwą „kradzieżą” Słowa Bożego)?
Z drugiej strony być może wiara w to, że ci sami księża spełniają rolę kaznodziei w ramach danego im przez Boga powołania (co skutkuje chociażby tym, że w sposób ważny – choć nie zawsze „godziwy” – sprawują sakramenty), skłonić może do nieco większego zaufania? Przecież sam Bóg im zaufał, powierzając im misję głoszenia.
AI, jak każda technologia, może służyć człowiekowi również do dobrych celów, jak choćby przygotowania dobrego kazania. Gdyby zaś ktoś próbował, bez zaufania dla ludzkiego sumienia, narzucić sobie i innym sztywne reguły korzystania z niej, sam mógłby stać się jak ona – bez serca
Nie jest to bynajmniej argument za tym, by kogokolwiek usprawiedliwiać i zwalniać z obowiązku wkładania wysiłku w kaznodziejską pracę. Każdy ksiądz powinien przecież starać się robić co w jego mocy, żeby jego kazania były jak najlepsze. Przede wszystkim, na co zwraca uwagę ks. Draguła, powinien on troszczyć się o to, by samemu najpierw spotkać Boga – po to, by potem móc się owocem takiego spotkania dzielić.
Z mojej perspektywy – tej „z drugiej strony ambony” – aktem zaufania wobec księży i ich powołania mogłoby być oddanie im odpowiedzialności za korzystanie z AI, nie zaś próba unormowania tego odgórnymi zasadami. Z drugiej strony, być może z perspektywy samego kaznodziei aktem zaufania wobec siebie, swojego powołania i Boga, mogłaby być większa wiara we własne możliwości oraz działanie łaski, dzięki czemu potrzeba korzystania z AI stałby się mniejsza.
Mniej erudycji, więcej spotkania
Parę dni temu w grupie przyjaciół (wierzących świeckich) przeprowadziłem małą sondę na temat przygotowywania kazań przy pomocy AI. Doszliśmy wtedy wspólnie do przekonania, że od kaznodziei wolelibyśmy usłyszeć nawet kilka prostych zdań, które wypływają z jego autentycznego spotkania ze Słowem Bożym, niż erudycyjną czy „świątobliwą” (w złym sensie) homilię przygotowaną przy pomocy AI lub wziętą ze zbioru „gotowców”.
Bliższe jest to teologii homilii, do której wielokrotnie nawiązywał papież Franciszek. W adhortacji „Evangelii gaudium” napisał on: „odnówmy naszą ufność w przepowiadanie słowa, opierającą się na przekonaniu, że to Bóg pragnie dotrzeć do innych przez kaznodzieję i że to on rozciąga swą władzę dzięki ludzkiemu słowu” (136). Ta ufność może się także wyrażać w pozostawieniu sumieniu kaznodziei kwestii korzystania z AI.
Więź.pl to personalistyczne spojrzenie na wiarę, kulturę, społeczeństwo i politykę.
Cenisz naszą publicystykę? Potrzebujemy Twojego wsparcia, by kontynuować i rozwijać nasze działania.
Wesprzyj nas dobrowolną darowizną:
Jednocześnie niewątpliwie ważne pozostaje podnoszenie świadomości na temat ograniczeń AI i zagrożeń z nią związanych (co wyczerpująco omawia „Antiqua et nova” i o czym niedawno mówił papież Leon XIV podczas spotkania z młodzieżą na „Narodowej katolickiej konferencji dla młodych” w USA). „Rozmowa” z chatem nigdy nie zastąpi spotkania z człowiekiem z krwi i kości, a tym bardziej spotkania z Bogiem poprzez medytację nad Jego Słowem.
Mimo to AI, jak każda technologia, może służyć człowiekowi również do dobrych celów, jak choćby przygotowania dobrego kazania. Gdyby zaś ktoś próbował, bez zaufania dla ludzkiego sumienia, narzucić sobie i innym sztywne reguły korzystania z niej, sam mógłby stać się jak ona – bez serca.
W ramach dyskusji na temat kazań AI ukazały się następujące teksty:
ks. Andrzej Draguła, Pobożny banał. Kazanie z chatbota
ks. Andrzej Draguła, Kaznodzieje-złodzieje w czasach sztucznej inteligencji
ks. Jan Słomka, Porozrywane strzępy sensu. ChatGPT zamiast kaznodziei?








