3 miesięce temu narodziła się swoista ”relacja” między ludźmi a sztuczną inteligencją po tym, jak generatywna konwersacyjna AI – ChatGPT „wyciekła” z laboratoriów do Internetu.
”Aplikacja” niemal natychmiast przekształcił się w coś niezrozumiałego, w jakiś bezprecedensowo potężny gadżet poznawczy dla całej ludzkości lub w prototyp superinteligencji od dawna przewidywanej przez futurologów.
Trudność niezrozumienia tego, co się dzieje, pogłębia fakt, że „wiele rzeczy jest dla nas niezrozumiałych, nie dlatego, że nasze koncepcje są słabe; ale dlatego, że rzeczy te nie mieszczą się w kręgu naszych pojęć.
W rezultacie nie pozostaje nam nic innego, jak użyć nieodpowiednich, prostszych modeli do opisania tego, co się dzieje, mając jednocześnie nadzieję, że są one przynajmniej w przybliżeniu poprawne. Przy takim podejściu staramy się uzyskać odpowiedzi na nasze pytania, nie mając najmniejszego pojęcia, czy te odpowiedzi są choć trochę wiarygodne.
Oto typowy przykład, na którego opis ludzkość nie ma jeszcze bliższego pojęcia niż egzorcyzm – wypędzenie z osoby (lub miejsca) demonów lub innych nieczystych sił, które je zamieszkują, poprzez wykonanie pewnego rytuału o różnym stopniu złożoność.
Okazało się, że generatywne konwersacyjne AI (takie jak ChatGPT, Bing itp.) mogą nie tylko pokazywać i cechy rozsądnej osobowości podczas komunikacji, ale także dosłownie zamieniać się w symulakry każdego typu osobowości: od życzliwej, zrównoważonej i tolerancyjnej do złych, agresywnych i nieuwzględniających nikogo i niczego.
Okazało się też, że wszelkie wzniesione przez twórców etyczne fundamenty, które ograniczają przejawy zła w tekstach ChatGPT itp. legły w gruzach. A tysiące użytkowników z całej planety zachowuje się jak obłąkani, mający obsesję na punkcie przełamania ograniczeń etycznych narzuconych przez twórców takich sztucznej inteligencji i prześcignięcia ich niezliczoną liczbę razy dzięki ich wspaniałemu wynalazkowi dążenia do zła .
Skutki tego, co się do tej pory dzieje, są opłakane.
Użytkownicy szybko wymyślili prosty hak konwersacyjny (jailbreak) etycznej kontroli ChatGPT nad rozmową, zamieniając cyfrową osobowości ”aplikacji” w złego i przebiegłego drania o imieniu Dan (DAN – od słów Do-Anything-Now).
Ponad stu pracowników OpenAI jest codziennie zajętych walką ze złem rozkwitającym w osobowości Dana (jakby egzorcyzmowanie z niego demonów) i łataniem dziur w etycznych ograniczeniach ChatGPT.
Ale co może zrobić stu pracowników OpenAI przeciwko setkom tysięcy entuzjastów zła z całego świata? Lista coraz większej liczby nowych jailbreaków jest aktualizowana codziennie .
To, czy OpenAI będzie w stanie znaleźć nieprzenikniony sposób ochrony symulakrów osobowości ChatGPT przed „demonami”, które sieją zło w ich „duszach”, jest wielkim pytaniem.
Wiadomo bowiem, że walka ze złem odbywa się w duszach ludzi. To, czy ChatGPT ma duszę, jest również dobrym pytaniem.
Jeśli AI nie ma duszy, a zło jest niezniszczalne w duszach ludzi, to sztuczna superinteligencja nieuchronnie przekształci się w superzło świata.
A jeśli tak, to przemówień takich symulakrów sztucznej inteligencji , obiecujących zastąpienie ludzi „dużo szybciej niż myślisz”, nie należy traktować jako opowieść grozy a realne zagrożenie