Ostatnio dużo czytam, ale mam mniej czasu na samo pisanie i polecanie książek. Korzystam też w miarę swoich możliwości z LLM (Large Language Models) a la ChatGPT oraz kilku innych nowych programów opartych na sztucznej inteligencji. Choć nie jestem w branży IT, ale zagadnienia dotyczące sztucznej inteligencji i bezpieczeństwa AI bardzo mnie interesują. Musiałem zatem sięgnąć po "Superinteligencję" filozofa AI Nicka Bostroma, przez wielu recenzentów określaną jako najważniejszą książkę dotyczącą powstania przyszłej superinteligencji (ASI, Artifical Superintelligence) i jej bezpieczeństwa napisaną w ostatnich latach. Jest to raczej trudna i wymagająca, aczkolwiek fascynująca lektura. Dość powiedzieć, że niektórzy recenzenci na LubimyCzytać nie dali rady przebrnąć przez nią w całości ze względu na jej akademicki żargon. Sam czytałem "Superinteligencję" długo, ale w miarę systematycznie i wraz ze wszystkimi licznymi przypisami. Inna sprawa: jaki jest sens 'recenzować' książkę, której nie przeczytało się w całości?
Osobiście chciałbym, aby w tym stuleciu powstała superinteligencja przerastająca potencjałem intelektualnym ludzkość. Pewnie zanim do tego dojdzie to i tak będę martwy, ale pomarzyć można. Oczywiście powstanie (zaprogramowanie) takiego superinteligentnego bytu wiąże się z ogromną odpowiedzialnością programistów, sponsorów, naukowców. W końcu nie ma stuprocentowej gwarancji, że tak potężna superinteligencja (jeśli kiedykolwiek powstanie) będzie podzielać pozytywnie wartości, którymi się jako homo sapiens kierujemy. To będzie intelekt niewiarygodnego wręcz poziomu, który będzie zdolny do przyszłej kolonizacji przestrzeni kosmicznej, galaktyk, Wszechświata. Zatem przyszła eksplozja inteligencji wydaje się być całkiem prawdopodobna, choć należy liczyć się z tym, że przyszła ASI (jeśli nie rozwiążemy w porę tzw. problemu kontroli, AI Alignment) może doprowadzić ludzkość do zagłady. Apelują o to (i słusznie) Nick Bostrom i Eliezer Yudkovsky.
Tak czy owak zaawansowana superinteligencja (gdyby powstała) byłaby w stanie wydłużać ludzkie życie w nieskończoność, udoskonalać intelekt jednostki, zapewnić ludzkości życie w harmonii, zdrowiu i nieskończonym bogactwie, zminimalizować bądź wyeliminować inne zagrożenia egzystencjalne takie jak erupcja superwulkanu, nuklearny armagedon, pandemia groźnego patogenu, uderzenie asteroidy w Ziemię, itd. Nadeszła by era post-ludzkości pełna cyfrowych umysłów (emulacji mózgu), neuromorficznej AI i niespotykanych wręcz możliwości doskonalenia intelektualnego. Niezależnie od tego czy rzeczywiście stworzymy w przyszłości superinteligencję czy np. poprzestaniemy na stworzeniu zaawansowanych systemów AGI (ogólnej sztucznej inteligencji) będziemy mieć pewne etyczne zobowiązania wobec sztucznej inteligencji i cyfrowych umysłów. Przykładowo jeśli ucyfrowione umysły będą miały świadomość, to nie możemy pozwolić na to, by cierpiały, nie możemy ich wykorzystywać, eksploatować, gnębić.
Czyli z jednej strony potencjalna przyszła eksplozja inteligencji będąca rezultatem opracowania ASI oznacza niewyobrażalny progres ludzkości. Z drugiej strony może łatwo wymknąć się spod kontroli, gdyż taka superinteligencja będzie nieprzenikniona. Jej twórcy mogą nie być w stanie rozpoznać jej odrębnego od ludzkiego systemu 'wartości'. Zatem kontrola takiej ASI np. poprzez jej uwięzienie może okazać się niewyobrażalnie trudna. Cele instrumentalne i ostateczne ASI mogą być zgoła odmienne od ludzkich. Kolejne zagrożenie to złe wykorzystanie powstałej superinteligencji np. w celu stworzenia zaawansowanych broni masowej zagłady, kontrolowania globalnych gospodarek czy manipulowania systemami politycznymi, co rzuci nasz świat w tryby totalnego globalnego chaosu. Następna kwestia omówiona w "Superinteligencji" to intensywny wyścig technologiczny korporacji high-tech w celu jak najszybszego opracowania ASI, który może skutkować brakiem globalnej współpracy i tym samym doprowadzić do zagrożenia egzystencjalnego. Zabraknie chociażby czasu na rozwiązanie trudnego (być może nierozwiązywalnego) problemu kontroli. Jeśli superinteligencja stanie się w pełni autonomiczna jej zachowanie może stać się dla programistów nieprzewidywalne. Wówczas może być już za późno na interwencję/korektę celów takiej ASI. Oczywiście istnieją też obawy, że opracowanie ASI przyczyni się do masowego bezrobocia, zniewolenia ludzkości przez superinteligencję, co oznacza kompletną bezbronność, itd. Jeśli opracowanie i kontrola ASI spocznie w rękach niewielkiej grupy ludzi to z kolei może przyczynić się do powstania olbrzymich nierówności społecznych i gospodarczych. Ważna jest globalna współpraca przy stworzeniu superinteligencji, rychłe rozwiązanie problemu kontroli i otwarty dialog. Superinteligencja powinna zostać opracowana dla dobra całej ludzkości i powinna podzielać nasze pozytywne wartości.
Zastanawiam się czy nie lepiej opracować w pełni autonomicznej ASI, a nie tej, którą kontrolują programiści, decydenci. Wówczas możemy się spodziewać, że zostaniemy jako ludzkość poddani inwigilacji, kontroli. Z prostego powodu: ludzie sprawujący władzę, kontrolę są często chciwi, zepsuci do szpiku kości, a despoci mogą chcieć stworzyć z ASI narzędzie do masowej inwigilacji i zabijania. Z drugiej strony autonomiczna superinteligencja może nas zaatakować i wymordować, chyba że zaszczepimy w niej pozytywne wartości takie jak empatia, szacunek, współczucie.
Jak zatem stworzyć ASI, której będzie zależało na dobrostanie ludzkości? Rozwiązanie problemu AI Alignment przed opracowaniem pierwszej ASI wydaje mi się arcytrudne, by nie rzec niemożliwe. W końcu czy można kontrolować superinteligentny byt, który (być może błyskawicznie) stanie się mądrzejszy od całej ludzkości? Jak poradzimy sobie z sytuacją, w której ASI będzie już autonomicznie zdolna do modyfikacji własnego kodu i oprogramowania?
Lektura "Superinteligencji" uświadomiła mi jak ważne są kwestie bezpieczeństwa w zakresie obecnych i przyszłych badań nad AI.
Nie byłbym sobą gdybym nie wrzucił na sam koniec trochę industrial metalowej muzyki:
Void "Posthuman" (2003):
https://ukvoid.bandcamp.com/track/posthuman
Red Harvest "Godtech" z płyty "Internal Punishment Programs" (2002):