Realne zagrożenia sztucznej inteligencji

Wraz z rozwojem systemów sztucznej inteligencji pojawia się coraz więcej dyskusji na temat potencjalnych zagrożeń związanych z tą rewolucyjną technologią. Wielu naukowców i futurologów widzi w sztucznej inteligencji poważne zagrożenie. Stephen Hawking w swojej ostatniej książce, opublikowanej już po jego śmierci, napisał, że gdy sztuczna inteligencja będzie mogła tworzyć coraz doskonalsze układy, co pozwoli jej rekurencyjnie samej się ulepszać już bez udziału człowieka, może się okazać, że będziemy mieli do czynienia z eksponencjalnym rozwojem inteligencji i w rezultacie powstaną maszyny, których inteligencja będzie przewyższała naszą, bardziej niż nasza przewyższa inteligencję ślimaka. Z kolei dyrektor generalny Tesli i SpaceX, Elon Musk, wyznał na Twitterze, że sztuczna inteligencja jest dla nas “bardziej niebezpieczna niż wojna nuklearna.

Świat kinematografii już od lat sześćdziesiątych ubiegłego wieku przedstawia sztuczną inteligencję głównie w sposób antagonistyczny. Od Hala 9000 z Odysei Kosmicznej (1968) przez Skynet z serii filmów Terminator (1984) po Ultrona ze świata Marvela – świadome maszyny prędzej czy później buntują się przeciw swoim twórcom i dążą do całkowitej zagłady ludzkości. W większości filmów tego rodzaju, bunt ten jest możliwy, ponieważ doskonalona przez człowieka technologia, w pewnym momencie zyskuje świadomość. Z kolei moment, w którym to się dzieje, jest zawsze przeoczony przez twórcę. Co prawda mowa o filmach sci-fi, ale często powtarzający się motyw niedostrzeżenia narodzin świadomości u maszyn jest jak najbardziej realny. Gdyby w rzeczywistym świecie, w wyniku rozwoju systemów sztucznej inteligencji, maszyny nagle zyskały jaźń, najprawdopodobniej autorzy samo-świadomych algorytmów również przeoczyliby ten moment. Powodem tego jest brak dostatecznej wiedzy z zakresu neurologii na temat tego, czym jest i jak działa świadomość. Nie wiadomo również, czy podobnie jak we wcześniej wspomnianych filmach, świadome maszyny będą dążyły do unicestwienia ludzkości. Jednak sam fakt, że po 250 tysiącach lat dominacji nad innymi zwierzętami pod względem inteligencji, człowiek musiałby ustąpić miejsca komuś innemu, jest dla nas wystarczająco niepokojący.

Użytkownicy, którzy prowadzą werbalną interakcję z chatbotami wykorzystującymi technologie przetwarzania i rozumienia języka naturalnego często są zachwyceni odpowiedziami, które otrzymują. Reakcje generowane np. przez chatGPT, czy nawet przez zwykłych asystentów głosowych w naszych telefonach, są tak kognitywnie zaawansowane, że można odnieść wrażenie, iż świadoma inteligencja to kwestia najbliższej przyszłości. Jednak ten niepokojąco inteligentny “frontend” przestanie nas przerażać, gdy dowiemy się, że pomimo niesamowitej technologii rozumienia i przetwarzania tekstu, systemy te nie dorównują inteligencją nawet najprymitywniejszym zwierzętom. Modele sztucznych sieci neuronowych musiałyby być miliony razy bardziej złożone, aby można było mówić o jakimkolwiek podłożu umożliwiającym obecność świadomości (jeżeli jest to w ogóle możliwe w przypadku niebiologicznych sieci neuronowych).

Nie oznacza to jednak, że nie mamy się czego obawiać, ponieważ zagrożeń będących rezultatem rozwijania systemów sztucznej inteligencji nie należy szukać wśród apokaliptycznych przepowiedni futurystów, ale w technologiach, z których korzystamy już dziś.

Co prawda nie musimy się obawiać, że maszyny pozbędą się ludzi z powierzchni Ziemi, ale całkiem realne jest pozbycie się ich z wielu miejsc pracy. Do tej pory było to zagrożenie które spędzało sen z powiek przede wszystkim pracownikom fabryk zatrudnionych na liniach produkcyjnych, ale wraz z rozwojem systemów sztucznej inteligencji, pojawia się również zagrożenie dla osób pracujących w innych branżach. Wielu z nas już od jakiegoś czasu korzysta z zautomatyzowanych systemów, które jeszcze niedawno wykonywali ludzie. Coraz częściej korzystamy z samoobsługowych kas w supermarketach. Jeszcze niedawno bilet na pociąg kupowaliśmy u pani z okienka, teraz robimy to w automacie na dworcu lub przez telefon. Samoobsługowe kasy i sprzedające automaty pojawiają się sklepach i miejscach publicznych jak grzyby po deszczu sprawiając, że branża, w której obecnie pracuje największy odsetek zatrudnionych (4,6% ogólnej liczby pracowników – dane GUS), z biegiem czasu będzie stawać się coraz bardziej zautomatyzowana. Dzwoniąc na infolinię bardzo często możemy natknąć się ma voiceboty, które w odróżnieniu od człowieka są do naszej dyspozycji 24 godziny na dobę. Ze względu na język, polskie wersje wirtualnych pracowników infolinii pozostawiają jeszcze wiele do życzenia, ale są już obecne i wraz z rozwojem technologii przetwarzania i rozumienia języka naturalnego będą tak samo skuteczne jak ich anglojęzyczne odpowiedniki, które trudno jest odróżnić od ludzi. Innym przykładem zawodów, które są zastępowane przez sztuczną inteligencję, są księgowi. Wiele firm już teraz korzysta z automatycznego przetwarzania faktur, które pozwalają na automatyczne rozliczanie transakcji. W niektórych przypadkach, księgowi zostali zastąpieni przez oprogramowanie do automatycznego przetwarzania danych, które pozwala na szybsze i dokładniejsze rozliczanie transakcji.

Całkiem innego rodzaju zagrożeniem mogą być wszechobecne narzędzia i aplikacje, które zostały stworzone w celu ułatwienia nam życia, a które w rezultacie przyczyniają się do tworzenia szkodliwych nawyków. Lubimy na przykład korzystać z asystentów głosowych takich jak Alexa lub Google Assistant zsynchronizowanymi z innymi urządzeniami IoT inteligentnych domów. Mogą udzielić nam one niezbędnych informacji lub wykonać nasze polecenia, podczas gdy my jesteśmy zajęci aby zrobić to osobiście; pozwolą zaoszczędzić czas włączając lub wyłączając oświetlenie w różnych miejscach jednocześnie. Coraz częściej jednak wydajemy im dyspozycje nie dlatego, że jesteśmy zajęci czymś innym lub w celu zaoszczędzenia czasu, ale dlatego, że nam się po prostu nie chce. Pozornie nie ma w tym nic złego. Niektórzy mogą sobie nawet pomyśleć, że jest to jedno z zastosowań, ale gdy zamiast powiedzieć “Alexa, włącz następny odcinek The Last of Us”, będziemy musieli zrobić to “tradycyjnie”, zauważymy, że ta niewymagająca większego wysiłku czynność wydaje nam się męcząca – trzeba wziąć pilota, włączyć telewizor, następnie włączyć aplikację streamingową, wejść na swój profil i wybrać dany odcinek serialu. Po dłuższym czasie wyręczania się asystentem głosowym, może okazać się, że najprostsze czynności mogą stać się dla nas wielkim wysiłkiem. Podobnie jest z narzędziami przeznaczonymi do nauki. Wiele edukacyjnych aplikacji, wykorzystujących systemy sztucznej inteligencji, działa jak miecz obosieczny. Z jednej strony są one niezastąpioną pomocą, szczególnie w samodzielnej nauce. Na przykład, rozwiązując pracę domową z matematyki, można sprawdzić nie tylko wynik, ale cały sposób rozwiązania zadania. Z drugiej strony są nadużywane przez uczniów, którzy zamiast samodzielnie rozwiązywać zadania mające na celu rozwijanie umiejętności lub utrwalania wiedzy, coraz częściej przepisują gotowe rozwiązania zadań generowane przez aplikacje, lub podpisują się pod wypracowaniami w całości napisanymi np. przez chatboty oparte na modelu języka GPT-3. W rezultacie narzędzia, które zostały stworzone aby polepszyć proces nauki, mogą przyczynić się do jego pogorszenia.

Kolejne wersje popularnego ostatnio chatbota ChatGPT mają posiadać składniowy znak wodny, dzięki któremu będzie można określić, czy rozprawka, artykuł lub nawet cała książka zostały napisane przez człowieka, czy przez maszynę. Zabezpieczenie to jest reakcją twórców z OpenAI na nieetyczne wykorzystywanie stworzonych przez nich narzędzi. Jednak jest to dowód, że twórcy coraz bardziej zaawansowanych systemów sztucznej inteligencji nie są w stanie do końca przewidzieć jaki wpływ na społeczeństwo mogą mieć ich produkty. Z kolei dla nas jest to powód do niepokoju.

Similar Posts

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.