Źródło: mises.org
Tłumaczenie: Jakub Juszczak
Sztuczna inteligencja (SI) nie potrafi odróżnić rzeczywistości od fikcji. Nie jest też kreatywna ani nie potrafi tworzyć nowych treści, ale powtarza, kopiuje i przeformułowuje to, co już zostało powiedziane (ale być może w nieznany dotychczas dla nas ludzi sposób).
Jestem pewien, że ktoś nie zgodzi się z tym ostatnim sformułowaniem, być może wskazując na fakt, że sztuczna inteligencja może wyraźnie generować na przykład nowe piosenki czy teksty. Zgadzam się z tym, ale w zasadzie to mija się z celem moich rozważań. Sztuczna inteligencja generuje „nowy” tekst piosenki tylko poprzez czerpanie z danych, które zebrano na bazie tekstów poprzednich piosenek. Następnie wykorzystuje ona te informacje (indukcyjnie zidentyfikowane w nich wzorce) po to, aby wygenerować coś, co dla nas wydaje się być nowym utworem (i może faktycznie nim być). Nie ma w tym jednak żadnego artyzmu, czy żadnej kreatywności. To tylko strukturalne powtórzenie tego, co już istnieje.
Oczywiście możemy debatować nad tym, w jakim stopniu ludzie mogą myśleć w sposób nowatorski oraz czy ludzki proces uczenia może opierać się wyłącznie lub głównie na naśladowaniu innych. Jednak nawet gdybyśmy zgodzili się na potrzeby dyskusji, że wszystko, co wiemy i robimy, ma charakter zwykłej reprodukcji, ludzie mają ograniczoną zdolność do dokładnego zapamiętywania i zawsze będą popełniać błędy. Wypełniamy również nasze luki w rozumieniu tym, co subiektywnie (nie obiektywnie) ma dla nas sens (co pokazuje test Rorschacha). Nawet w tym bardzo okrojonym scenariuszu, z którym się nie utożsamiam, ludzie generują coś nowego, wykraczającego poza to, co jest w stanie zrobić sztuczna inteligencja.
Zarówno niezdolność do odróżnienia rzeczywistości od fikcji, jak i indukcyjne uzależnienie od istniejących wzorców wynikających z zebranych danych to problemy, którym można zaradzić poprzez zmiany w stopniu zaawansowania oprogramowania — ale mimo tego jest ono wciąż podatne na manipulacje.
Manipulacja i propaganda
Kiedy w lutym tego roku Google uruchomiło swoją sztuczną inteligencję o nazwie Gemini, natychmiast stało się jasne, że działa ona w oparciu o lewicowe ideały. Sztuczna inteligencja usilnie umieszczała ideały różnorodności w każdą możliwą odpowiedź oraz, między innymi, odmówiła pokazywania zdjęć białych ludzi (w tym w sytuacji, gdy poproszono o wykonanie zdjęć przedstawiających Ojców Założycieli USA).
Guru branży technologicznej i inwestor z Doliny Krzemowej Marc Andreessen podsumował to na X (dawniej Twitter): „Wiem, że trudno w to uwierzyć, ale SI autorstwa wielkich koncernów technologicznych generują takie wyniki ponieważ precyzyjnie realizują konkretną ideologiczną, radykalną, stronniczą agendę narzuconą jej przez swoich twórców. Pozornie dziwaczne wyniki są w 100% zamierzone. Działają zgodnie z założeniami twórców algorytmów”.
Rzeczywiście, istnieje koncepcja sztucznej inteligencji wykraczająca poza podstawowe algorytmy realizujące zadania kategoryzacji i generowania danych. Odpowiedzi nie mają charakteru czysto indukcyjnego ani generycznego. Takie zabiegi techniczne są konieczne, aby sztuczna inteligencja była użyteczna. Stosowane są odpowiednie algorytmy filtracji oraz adekwatne reguły decyzyjne po to, aby upewnić się, że odpowiedzi generowane przez sztuczną inteligencję są zgodne z oczekiwaniami użytkowników, a przy tym dokładne i adekwatne. Biorąc pod uwagę sytuację prawną, twórcy sztucznej inteligencji muszą również upewnić się, że sztuczna inteligencja nie narusza na przykład praw własności intelektualnej ani nie angażuje się w mowę nienawiści. Sztuczna inteligencja jest również projektowana (dostrajana) tak, aby nie oszalała ani nie obrażała swoich użytkowników (tak jak miała robić to Tay).
Ponieważ takie filtry są stosowane, a „zachowanie” sztucznej inteligencji jest już odpowiednio ukierunkowane, nie jest trudno iść za ciosem. Jak bowiem określić, kiedy odpowiedź jest zbyt obraźliwa, a kiedy przesadnie kontrowersyjna, lecz dopuszczalna w dyskursie publicznym? To cienka i trudna do nakreślenia granica, którą należy SI narzucić oraz zaprogramować.
Otwiera to również możliwość kierowania generowanymi przez SI odpowiedziami znacznie poza zwykłe zapewnianie ich adekwatnej jakości. Mając już zaprogramowane odpowiednie filtry, łatwo jest sprawić, aby sztuczna inteligencja wydawała oświadczenia określonego typu lub takie, które popychają użytkownika w danym kierunku (pod względem wybranych faktów, ich interpretacji czy światopoglądu). Można również wykorzystać filtry do nadania sztucznej inteligencji sprecyzowanego nacechowania ideologicznego, jak sugeruje Andreessen, na przykład w kierunku lewicowym.
W ten sposób sztuczna inteligencja może być wykorzystywana jako skuteczne narzędzie propagandowe, co dostrzegły zarówno tworzące je korporacje, jak i rządy i agencje regulujące ich działanie.
Dezinformacja i błędy
Państwa od dawna odmawiają przyznania się do tego, że korzystają z propagandy oraz używają jej do kierowania i kontrolowania swoich obywateli. Dzieje się tak po części dlatego, że chcą zachować pozory legitymizacji ich władzy jako demokratycznych rządów, które działają w oparciu o opinie ludzi (a nie je kształtują). Propaganda ma zły wydźwięk, gdyż niezaprzeczalnie jest bowiem środkiem kontroli.
Jednak przeciwnicy państwa — zarówno wewnętrzni, jak i zewnętrzni — mają rozumieć siłę propagandy. Stąd nie wahają się jej użyć po to, aby wywołać chaos w naszym demokratycznym społeczeństwie. Rząd więc musi uchronić nas przed taką formą manipulacji. Oczywiście rzadko kończy się na zwykłym przeciwdziałaniu. Widzieliśmy to wyraźnie podczas pandemii koronawirusa, podczas której rząd wraz z firmami zajmującymi się mediami społecznościowymi zakazał wyrażania opinii, które nie były zgodne z oficjalną linią propagandy (jak pokazała sprawa Murthy przeciwko Missouri).
Sztuczną inteligencją można równie łatwo manipulować w celach propagandowych, jak algorytmami wykorzystywanymi w mediach społecznościowych. Nie mniej jednak dodatkowym atutem jest to, że opinię wyraża nie człowiek a maszyna Użytkownicy mają tendencję do ufania, że to co zgłasza sztuczna inteligencja, jest prawdą. Jak rozważaliśmy w poprzednim artykule dotyczącym tematyki rewolucyjności AI, nie jest to słuszne założenie, ale mimo to jest to szeroko rozpowszechniony pogląd.
Sztuczna inteligencja może zostać poinstruowana, aby nie komentować pewnych treści, których twórcy (lub organy państwa) nie chcą, aby ludzie widzieli lub uczyli się. Zatem, w skutek tego, staje się ona skutecznie „pozbawiona danych”. Tego typu „niechciane” informacje nie będą się rozprzestrzeniać, ponieważ ludzie nie będą na nie narażeni. Na przykład, pokazywanie różnych reprezentacji Ojców Założycieli (jak Gemini Google) lub prezentowanie, , tylko keynesowskich teorii makroekonomicznych po to, aby zasugerować ludziom, że nie ma innej perspektywy badawczej na ekonomię. Ludzie nie będą bowiem nabyć wiedzy jeśli zablokuje się im jej poznanie.
Oczywiście nie wskazuje to, że wszystko co jest obecnie prezentowane użytkownikowi, to prawda. W rzeczywistości, sama sztuczna inteligencja nie jest w stanie odróżnić faktów od prawdy, a jedynie generuje odpowiedzi zgodnie z kierunkiem i tylko w oparciu o dane, którymi została nasycona. Pozostawia to wiele miejsca na przeinaczanie prawdy, zatem może sprawić, że świat uwierzy w jawne kłamstwa. Sztuczna inteligencja może być zatem łatwo wykorzystywana do przejmowania kontroli, niezależnie od tego, czy czyni się to wobec państwa, obywateli znajdujących się pod jego rządami, czy nawet obywateli obcego mocarstwa.
Prawdziwe zagrożenie ze strony SI
Jakie jest zatem prawdziwe zagrożenie ze strony sztucznej inteligencji? Jak zwróciliśmy uwagę w pierwszym artykule, duże modele językowe nie wyewoluują (nie są w sanie tego zrobić) w ogólną sztuczną inteligencję. Musi być tak, ponieważ początek istnienia świadomości nie ma nic wspólnego z indukcyjnym przesiewaniem dużych zbiorów danych wygenerowanych przez ludzi. Szczerze mówiąc, nie dowiedzieliśmy się nawet, czym jest świadomość. Zatem, myślenie, że ją stworzymy (lub że w jakiś sposób wyłoni się ona z algorytmów odkrywających statystyczne korelacje językowe w istniejących tekstach) jest w istocie pewną przesadą. Sztuczna inteligencja o ogólnym charakterze jest wciąż hipotetyczna.
Jak zauważyliśmy w drugim artykule, sztuczna inteligencja nie stanowi również zagrożenia ekonomicznego. Nie sprawi ona, że ludzie staną się ekonomicznie zbędni oraz nie spowoduje masowego bezrobocia. Sztuczna inteligencja jest w swej istocie kapitałem produkcyjnym, który ma wartość w od niesieniu do tego, w jakim stopniu służy konsumentom, przyczyniając się do zaspokajania ich potrzeb. Niewłaściwie wykorzystywana sztuczna inteligencja jest tak samo bezwartościowa jak niewłaściwie wykorzystywana fabryka — będzie miała tendencję do stania się bezużyteczną. Nie oznacza to jednak, że sztuczna inteligencja nie będzie miała wpływu na gospodarkę. Będzie i już ma, ale w krótkim okresie wpływ ten nie jest tak duży, jak niektórzy się obawiają. Natomiast w dłuższej perspektywie, wpływ ten jest prawdopodobnie większy, niż się spodziewamy.
Prawdziwym zagrożeniem jest wpływ AI na przepływ i treść informacji. Dzieje się tak po części dlatego, że indukcja jest nieodpowiednim źródłem zdobywania wiedzy — prawda i fakty nie wynikają z częstotliwości lub prawdopodobieństwa statystycznego. Gdyby SI istniała wieki temu, dowody i teorie Mikołaja Kopernika czy Galileusza zostałyby wyeliminowane jako nieprawdopodobne (fałszywe) przez algorytmy sztucznej inteligencji wyszkolone na wszystkich (podobno najlepszych) pismach na temat geocentryzmu. Postęp nauki i rozrost stanu wiedzy nie zajdą, jeśli zaufamy tylko teoriom historycznym czy aktualnym przedstawieniom rzeczywistego świata.
To jest to prawdziwe niebezpieczeństwo, na które wskazywał słynny już list otwarty, podpisany przez Elona Muska, Steve'a Wozniaka i innych: „Czy powinniśmy pozwolić maszynom zalać nasze kanały informacyjne propagandą i nieprawdą? Czy powinniśmy zautomatyzować wszystkie miejsca pracy, w tym te oferujące spełnienie zawodowe ludziom? Czy powinniśmy rozwijać nie-ludzkie umysły, które ostatecznie mogą nas przewyższyć zdolnościami obliczeniowymi, będą w stanie nas przechytrzyć czy postarzać oraz finalnie zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją?”
Poza ekonomicznie błędnym stwierdzeniem o „zautomatyzowaniu wszystkich miejsc pracy”, ostrzeżenie to jest dobrze ujęte. Sztuczna inteligencja nie zacznie nas nienawidzić niczym Terminator i nie podejmie próby eksterminacji ludzkości. Nie zamieni nas wszystkich w biologiczne baterie, jak w Matrixie. Będzie jednak — zwłaszcza gdy zostanie skorumpowana — dezinformować i wprowadzać nas w błąd, powodując chaos i potencjalnie czyniąc nasze życie „samotnym, biednym, paskudnym, brutalnym i krótkim”.
Źródło ilustracji: pixabay