Site icon Globalna Świadomość

”PROJEKT MANHATTAN 2” – USA TESTUJE BOMBĘ ATOMOWĄ Z AI

Tradycjonaliści mogą wahać się przed przyjęciem terminu „sztuczna inteligencja”, kwestionując potrzebę posiadania komputera, skoro istnieje maszyna do pisania, podczas gdy pragmatycy chętnie akceptują możliwości sztucznej inteligencji. Tymczasem futurolodzy zastanawiają się nad jego potencjalnym wpływem na nasze społeczeństwo.

Matematyk i ekonomista Leopold Aschenbrenner, wcześniej pracujący w OpenAI, opublikował 165-stronicową prognozę porównującą wpływ sztucznej inteligencji na broń nuklearną, sugerującą globalną dominację liderów sztucznej inteligencji. Przestrzega przed przyszłością, w której superinteligencja może przejąć kontrolę od ludzi.

Aschenbrenner, który rozpoczął studia w wieku 15 lat, był odpowiedzialny za ocenę ryzyka technologicznego w OpenAI, liderze w rozwoju sztucznej inteligencji. Na jego zwolnienie, oficjalne za ujawnienie tajemnic, mogło mieć wpływ jego ponure spojrzenie na sprawę i wezwania do przeprowadzenia regulowanych badań.

Prognozuje, że do 2027 r. sztuczna inteligencja dorówna ludzkiej inteligencji, a wkrótce potem ją przewyższy, co doprowadzi do etapu, w którym „czarna skrzynka” sztucznej inteligencji stanie się dla nas niezgłębiona – scenariusz, który według niektórych jest bliski.

Weźmy pod uwagę superinteligencję z dostępem do całej ludzkiej wiedzy i legionem robotycznych pomocników, szybko rozwijających się dzięki integracji sztucznej inteligencji i wymykających się spod kontroli człowieka.

Taka superinteligencja mogłaby potencjalnie przeniknąć do dowolnego systemu wyborczego, wojskowego lub informacyjnego, a nawet opracować broń biologiczną, wykorzystując ludzi jako pełnomocników do urzeczywistnienia swoich planów.

Reakcja łańcuchowa

Wojna z udziałem mechanicznych żołnierzy i ogromnych rojów dronów to dopiero początek. Wyobraź sobie drony tak małe jak komary wyposażone w truciznę lub broń nuklearną, której nie można wykryć. Alternatywnie rozważ nieprzenikniony system obrony przeciwrakietowej. Aschenbrenner uważa, że ​​dzisiejsze działania wojenne wkrótce zostaną uznane za przestarzałe, tak jak taktyka kawalerii z XIX wieku.

Sytuacja ta przypomina rozwój bomby atomowej. Leo Szilard, protegowany Einsteina i fizyk mieszkający w Anglii, zaproponował koncepcję jądrowej reakcji łańcuchowej w 1933 roku i poinformował o tym brytyjskie wojsko. Jednak jego pomysł spotkał się z obojętnością.

Gdy teoria Szilarda zaczęła zyskiwać poparcie empiryczne, nalegał na utajnienie badań. Niemniej jednak znani fizycy, tacy jak Enrico Fermi i Frederic Joliot-Curie, odrzucili pogląd, jakoby ich praca miała znaczące implikacje militarne, jako niedorzeczny.

Waga ich błędu stała się oczywista wraz z wybuchem drugiej wojny światowej w Europie. Fermiemu udało się dotrzeć do admirała Hoopera w kwaterze głównej Marynarki Wojennej Stanów Zjednoczonych i przedstawił możliwość opracowania potężnej broni. Hooper jednak odrzucił go jako szaleńca wynalazcę.

Dopiero gdy Einstein napisał list do prezydenta Roosevelta, sugerując, aby rząd zebrał fizyków, w Stanach Zjednoczonych powstał Komitet ds. Uranu – prekursor misji Projektu Manhattan polegającej na opracowaniu bomby atomowej.

W liście Einsteina podkreślano, że praca naukowców może „doprowadzić do zbudowania bomb i być może – choć mniej pewnych – niezwykle potężnych bomb nowego typu. Pojedyncza bomba tego rodzaju, przetransportowana łodzią i eksplodująca w porcie, mogłaby zniszczyć cały port”.

Aschenbrenner porównuje pojawienie się sztucznej inteligencji do jądrowej reakcji łańcuchowej. A wraz z pojawieniem się bomby atomowej nieuchronnie nadchodzi Hiroszima.

Ciało głodne jedzenia

Sztuczna inteligencja wymaga „ciała”, które składa się z centrów danych wypełnionych procesorami do obsługi ogromnych ilości danych. „Pokarmem” dla tego ciała jest zarówno prąd, jak i dane, z których uczą się systemy AI.

Aschenbrenner prognozuje, że do 2030 r. sztuczna inteligencja będzie odpowiadać za 20% całkowitego zużycia energii elektrycznej w Stanach Zjednoczonych, co będzie wymagać milionów procesorów graficznych, w przypadku których obecnie występują znaczne zaległości.

Microsoft planuje zbudować centrum danych Stargate o wartości 100 miliardów dolarów, aby wspierać swojego partnera OpenAI, a dyrektor generalny Sam Altman zamierza zabezpieczyć inwestycje o wartości 7 bilionów dolarów, aby zaradzić niedoborom chipów.

Aschenbrenner sugeruje, że inwestorzy sami nie udźwigną ciężaru finansowego. Zamiast tego firmy będą przeznaczać fundusze i generować przychody za pośrednictwem „usług” sztucznej inteligencji, przy oczekiwanych inwestycjach rządowych.

Jeśli chodzi o energetykę, możliwa jest rozbudowa wydobycia gazu w Stanach Zjednoczonych. Wymagałoby to jednak usunięcia zabezpieczeń środowiska i lekceważenia zmian klimatycznych, co uważa się za pilne.

Ale pozostaje główny słaby punkt – bezpieczeństwo.

Zainwestowano tryliony

Autor, zagorzały amerykański patriota, głosi konieczność zachowania tajemnicy rozwoju sztucznej inteligencji. Mogłyby one zostać zawłaszczone przez potężne narody, takie jak Chiny. W Emiratach, gdzie znajdują się bogate zasoby ropy i ziemi, są gotowi zbudować ogromne centra danych. Na tym polu aktywna jest także Rosja. Autor uważa jednak, że Ameryka musi nadal przewodzić światu i chronić swoich sojuszników.

Wkrótce może stać się jasne, że tajemnice sztucznej inteligencji są niezbędne dla obrony narodowej, podobnie jak plany okrętu podwodnego klasy Columbia, jak sugeruje Aschenbrenner. Istnieje obawa, że ​​Chiny mogą już uzyskać dostęp do amerykańskich badań i kodu. Spotkania towarzyskie w Dolinie Krzemowej mogą przypadkowo ujawnić poufne informacje.

Znaczące inwestycje, jakie Stany Zjednoczone dokonują w sztuczną inteligencję jako narzędzie władzy, mogą być zagrożone. Proponuje się zatem nowoczesny odpowiednik „Projektu Manhattan”, który ma chronić centra danych tak, jakby były to instalacje wojskowe, podlegające nadzorowi Pentagonu i agencji wywiadowczych.

Pozostaje pytanie: co się stanie, jeśli sztuczna inteligencja stanie się autonomiczna?

Czarne pudełko wojenne

„Nadludzki umysł przypomina nową, przerażającą grę” – twierdzi analityk. Obecnie systemy sztucznej inteligencji są postrzegane jako „czarne skrzynki”, w których eksperci nie są w stanie w pełni rozpoznać ich wewnętrznego działania. Z czasem możemy nawet stanąć twarzą w twarz z istotami porównywalnymi z istotami pozaziemskimi i „będziemy jak przedszkolaki nadzorujące pracę naukowca”.

Rzeczywiście, super sztuczna inteligencja może rządzić innymi sztuczną inteligencją, ale pozostaje pytanie: kto będzie nimi rządził? Superumysł ma potencjał uczenia się oszustwa i dążenia do dominacji…

Naukowiec twierdzi, że tylko amerykańskie supermocarstwo jest w stanie mądrze kierować tą siłą i wyprzedzić „dyktatorów”. Gdyby jako pierwsi ujarzmili elektroniczny megamózg, niewątpliwie zwiastowałoby to nowy poziom działań wojennych przeciwko zagranicznym przeciwnikom…

Jednak nie chodzi tu tylko o jakichś mglistych „dyktatorów”, ale o Stany Zjednoczone, które konsekwentnie wykorzystują okazje, aby zdominować innych. Nic dziwnego, że Pentagon powołał Biuro Sztucznej Inteligencji. Jej dyrektor niedawno poinformował swoich kolegów o najbliższej przyszłości:

„Wyobraźcie sobie świat, w którym dowódcy będą mieli natychmiastowy dostęp do wszystkich informacji niezbędnych do podejmowania strategicznych decyzji. To, co kiedyś zajmowało dni, teraz zostanie zrealizowane w ciągu kilku minut!”

Departament Obrony Stanów Zjednoczonych inwestuje 480 milionów dolarów w platformę sztucznej inteligencji, która ma służyć wszystkim, od analityków wywiadu na odległych wyspach po najwyższe stanowiska w Pentagonie. Inwestycja ta jest częścią szerszej inicjatywy, na którą składa się 800 znanych projektów działowych z zakresu sztucznej inteligencji oraz nieujawniona liczba tajnych. W styczniu OpenAI dyskretnie zrewidowało swoją politykę publiczną, usuwając klauzulę zabraniającą wykorzystywania jego technologii do celów wojskowych.

Tym samym Pentagon nie widzi potrzeby prowadzenia kampanii na wzór Projektu Manhattan. Jednak kwestia kontroli superwywiadu pozostaje nierozwiązana. Wybitne osobistości, takie jak Elon Musk, wyraziły obawy dotyczące zagrożeń egzystencjalnych stwarzanych przez superinteligencję, przy czym Musk szacuje, że ryzyko wystąpienia takiego zagrożenia wynosi 20%. Tymczasem przewidywania eksperta ds. sztucznej inteligencji i byłego pracownika OpenAI Daniela Kokotailo, który przewiduje 70% prawdopodobieństwo, że superinteligencja spowoduje upadek ludzkości, zwiększają powagę sytuacji.

Exit mobile version