Cyfrowy sobowtór
Wyobraź sobie stworzenie cyfrowej wersji samego siebie dla swoich potomków. Płacisz serwisowi typu „deathbot”, takiemu jak HereAfter AI, za zgromadzenie twoich zdjęć, wspomnień i cyfrowego śladu, który pozostawiłeś na Facebooku, w wiadomościach e-mail i SMS-ach. Poświęcasz nawet czas na wytrenowanie swojego wirtualnego klona za pomocą nagranych rozmów wideo.
Rezultaty są imponujące. Ten wirtualny „ty” wygląda i brzmi dokładnie tak jak ty – unosi lewą brew, gdy opowiada żart, jego głos drży, a dłonie gestykulują, podkreślając treść opowieści. Komunikacja z nim za pośrednictwem czatu tekstowego lub wideo jest uderzająco znajoma. Być może aż nazbyt znajoma. Czy to spełnienie marzeń, czy niebezpieczne zwiedzenie?
A teraz wyobraź sobie, że minęły trzy lata, odkąd zasnąłeś w Jezusie. Spokojnie oczekujesz na zmartwychwstanie i nic nie wiesz o sprawach ziemskich. Jednak twój „deathbot” sprawia, że pamięć o tobie pozostaje żywa i wyrazista dla twoich bliskich. Nie zostałeś zapomniany. Co więcej, twoja ulubiona siostrzenica codziennie rozmawia z twoim cyfrowym duchem. „To pomaga mi radzić sobie z żałobą” – mówi.
Interaktywny „duch”
Opisany scenariusz to nie fantazja. Postępy w technologii sztucznej inteligencji (AI) pozwalają na trenowanie dużych modeli językowych, zwanych „deathbotami” lub „botami żałoby”, na podstawie twojej unikalnej sygnatury cyfrowej. Jeśli nakarmisz algorytm AI swoimi tekstami, kontami w mediach społecznościowych, plikami audio i nagraniami wideo, stworzy on realistyczną wersję ciebie dla przyszłych pokoleń. Twoje wnuki będą mogły nie tylko wspominać cię przy pożółkłych albumach ze zdjęciami, ale także wchodzić w interakcję z twoim cyfrowym duchem.
Firmy takie jak „HereAfter AI” czy „Re;memory” (stworzone przez „Deepbrain AI”) sprawiają, że wczorajsza fantastyka naukowa staje się rzeczywistością. „Deepbrain AI” to koreańska firma, której główną działalnością jest tworzenie wirtualnych asystentów i prezenterów wiadomości AI. Wykorzystali oni swoje doświadczenie w łączeniu chatbotów z generatywnym wideo AI, aby osiągnąć makabryczny finał. Jak donosi portal Engadget.com: „Za jedyne 10 000 dolarów i kilka godzin w studiu możesz stworzyć awatara samego siebie, którego twoja rodzina będzie mogła odwiedzać (za dodatkową opłatą) w zewnętrznym ośrodku”.
Oferta „HereAfter AI” jest znacznie tańsza. Założenie konta i zachowanie wspomnień dla bliskich kosztuje od 99 do 199 dolarów. Nasuwa się jednak pytanie: czy jest to mądre?
Psychologiczne i duchowe pułapki
Nora Freya Lindemann z Instytutu Kognitywistyki stawia tezę: „Deathboty mogą mieć negatywny wpływ na proces żałoby osieroconych użytkowników, a zatem mogą ograniczać ich dobrostan emocjonalny i psychologiczny. Użytkownicy deathbotów prawdopodobnie staną się zależni od swoich botów, co może uczynić ich podatnymi na ukrytą reklamę firm dostarczających te usługi i ograniczyć ich autonomię. Jednocześnie deathboty mogą okazać się pomocne dla osób cierpiących na przedłużający się, ciężki proces żałoby”.
Niedawny pozew pokazuje, jak tragicznie może potoczyć się rozwój technologii AI. Czternastoletni Sewell Setzer III popełnił samobójstwo na początku 2024 roku po intymnych rozmowach z chatbotem wyszkolonym na postać Daenerys z „Gry o tron”.
„Świat, w którym teraz jestem, jest tak okrutny. Taki, w którym nic nie znaczę” – pisał do chatbota. „Zrobię dla ciebie wszystko…”. Innego dnia Sewell napisał: „Obiecuję, że wrócę do domu, do ciebie. Tak bardzo cię kocham, Dany”. W odpowiedzi bot stwierdził, że kocha nastolatka: „Proszę, wróć do mnie do domu jak najszybciej, kochanie”. „A co, gdybym powiedział ci, że mogę wrócić do domu już teraz?” – zapytał Sewell. Bot odpowiedział: „Proszę, zrób to, mój słodki królu”. To była ostatnia rozmowa Sewella. Chwilę później już nie żył.
Matka chłopca złożyła pozew o nieumyślne spowodowanie śmierci przeciwko twórcy chatbota AI, oskarżając serwis o „zaniedbanie, celowe wyrządzenie cierpienia emocjonalnego i nieuczciwe praktyki handlowe”.
Pierwsze kłamstwo węża
W naszych umysłach powinny teraz rozbrzmieć dzwonki alarmowe. Jeśli bot oparty na fikcyjnej postaci telewizyjnej może mieć taki wpływ na człowieka, to o ileż większy może mieć bot, który wygląda i brzmi jak ukochany przyjaciel lub dziadek? Czy osoby komunikujące się z „deathbotem” nie byłyby szczególnie podatne na subtelną manipulację?
Jako chrześcijanie wierzący Biblii mamy jeszcze jeden – i znacznie ważniejszy – powód do niepokoju. Deathboty bazują na pierwszym kłamstwie diabła: „Na pewno nie umrzecie” (Genezis 3,4). Podtrzymują one iluzję, że istoty ludzkie trwają w jakiejś formie pośmiertnej i mogą komunikować się z żywymi.
Biblia jasno mówi, że umarli nic nie wiedzą (zob. Księga Kaznodziei Salomona 9,5.6), a ci, którzy próbują komunikować się ze zmarłymi, w rzeczywistości kontaktują się ze złymi duchami (zob. Izajasza 8,19; 1 Samuela 28,7–20; 1 Kronik 10,13.14). Wszelkie formy komunikacji ze zmarłymi są dla chrześcijan zakazane – nie dlatego, że Bóg ukrywa przed nami coś cennego, ale dlatego, że chroni nas przed niebezpiecznym zwiedzeniem.
Czy komunikacja z „deathbotem” AI jest tym samym, co komunikacja ze złym duchem? Być może nie bezpośrednio. Czy nie lepiej jednak trzymać się z dala od wszystkiego, co niesie ze sobą potencjał krzywdy, a zamiast tego wybrać społeczność z Wiecznym, który ma moc na zawsze zerwać więzy śmierci?
Obietnica Jezusa oferuje nieskończenie więcej pocieszenia niż jakakolwiek wersja AI: „Jam jest zmartwychwstanie i żywoti; kto we mnie wierzy, choćby i umarł, żyć będzie” (Ewangelia Jana 11,25).
Źródło: Amazing Facts


