Szukaj Pokaż menu
Witaj nieznajomy(a) zaloguj się lub dołącz do nas
…NIECODZIENNIK SATYRYCZNO-PROWOKUJĄCY

Przyszłość nadeszła 10 lat wcześniej niż się niedawno spodziewaliśmy. Jak niebezpieczny (i przydatny) jest ChatGPT?

48 313  
133   81  
Początek grudnia upływał pod znakiem fazy pucharowej mundialu, opowieści prezesa Glapińskiego o jego kocie i doniesień na temat możliwości chatbota stworzonego przez Open AI. ChatGPT zyskał już miano pogromcy rzeszy ludzi pióra, a raczej klawiatury. Bo po co nam dziennikarze, urzędnicy, twórcy reklam, a nawet pisarze, skoro maszyna napisze artykuł, ustawę czy opowiadanie? Tłumy pismaków rzeczywiście powinny ustawiać się w kolejce do pośredniaka?

Połknął miliardy słów, a teraz je wypluwa

Nim odpowiem na pytanie postawione we wstępie, warto wyjaśnić, czym jest ChatGPT. On sam przedstawia się jako asystent, duży model języka stworzony przez ludzi z OpenAI, czyli amerykański podmiot powołany do życia przeszło siedem lat temu (początkowo jako organizacja non profit, ale z czasem wyodrębniono strukturę nastawioną na generowanie zysków). To po prostu program komputerowy, który szkolono z pomocą metody RLHF (Reinforcement Learning from Human Feedback), tj. uczenia wzmacniającego, wykorzystującego informacje zwrotne od ludzi. W modelu tym człowiek pełni rolę asystenta algorytmu oraz jego użytkownika. Narzędzie otrzymuje olbrzymie ilości danych (wsad stanowiło ponoć 300 mld słów), które ma wykorzystywać w komunikacji, a ta ostatnia jest monitorowana i poprawiana, dzięki czemu odpowiedzi stają się coraz lepsze.

Q0OmtTt.jpg

Efektem jest bot konwersacyjny, niezwykle prosty w obsłudze (z punktu widzenia użytkownika): wystarczy w pasku wpisać pytanie lub polecenie i otrzymuje się odpowiedź. Tu pojawia się jednak pierwsza pułapka, bo chociaż owa odpowiedź może wyglądać wiarygodnie, to jej treść nierzadko ma niewiele wspólnego z prawdą. Przykłady? Chatbot zapytany o polskie wyspy szybko je wymienił, ale w jednym szeregu z Wolinem i Uznamem pojawiła się Rugia, czyli największa wyspa Niemiec. Na pytanie o premierów Polski po 1989 roku wymienił dziewięć osób (w rzeczywistości było ich blisko dwa razy więcej). Zapomniał o Janie Olszewskim i szefach rządów od czasów Marcinkiewicza – może stwierdził, że to za duża abstrakcja. Z kolei Jan Skrzetuski to jego zdaniem postać z Pana Tadeusza, chociaż w tym przypadku był w stanie poprawnie odpowiedzieć za drugim razem.

Cq0PuPR.jpg

NluG42D.jpg

Co jeszcze potrafi bot? Bez trudu stworzy regulamin, np. korzystania z piaskownicy, napisze wiersz czy opowiadanie na zadany temat. Z podawaniem odległości między wskazanymi miejscowościami nie było większego problemu. Potrzebujecie porady domowej na temat uprawy kwiatów, wywabiania plam albo robienia ciast? Nie ma problemu, maszyna służy pomocą. A to zaledwie niewielki fragment tego obrazu – w sieci już zaroiło się od przykładów, mniej lub bardziej przydatnych zastosowań chatbota. Zadania matematyczne? Wychodziły w kratkę, chociaż doceniam fakt, że program nie tylko podawał wynik, ale też wskazywał, w jaki sposób należy podejść do konkretnego zagadnienia. I to wszystko odbywało się w języku polskim, płynnie i w sposób w pełni zrozumiały.

PtbANig.jpg

m7usQz0.jpg

Sami twórcy zwracają uwagę na pewne niedociągnięcia: odpowiedzi są często zbyt rozwlekłe, ponieważ algorytm nie zadaje pytań pomocniczych, które ułatwiłyby mu zadanie. Narzędzie reaguje też na konkretne pytania: może uznać, że nie zna odpowiedzi, ale wystarczy zapytać trochę inaczej, by ta sama kwestia została natychmiast wyjaśniona. Istnieje też bariera czasowa: bot nie ma dostępu do treści powstałych po 2021 roku, więc nie wie, że zmienił się władca Wielkiej Brytanii. Ale to i tak nie ma większego znaczenia, bo podczas rozmowy z nim dowiedziałem się, że królem na Wyspach jest Jerzy VI, czyli ojciec zmarłej w tym roku Elżbiety II. Zapewne nie muszę dodawać, że monarcha nie żyje od przeszło 70 lat. Jeżeli zatem ktoś chce się przygotowywać do matury z takim kompanem, radzę zastanowić się dwa razy.

o52Tklk.jpg

ChatGPT jest świadom swoich niedoskonałości. Chociaż z tą świadomością to nadużycie – informuje użytkownika, że czegoś nie wie lub nie potrafi odpowiedzieć na pytanie. Tłumaczy to m.in. faktem dużej, ale jednak ograniczonej ilości danych i brakiem dostępu do internetu – narzędzie nie potrafi wyszukiwać informacji na stronach i radzi, by skorzystać z wyszukiwarki internetowej. Stąd można dojść do prostego wniosku: przecież wystarczy „uwolnić” bota, dać mu dostęp do sieci i stanie się rozwiązaniem znacznie lepszym, może nawet bliskim ideału. Doświadczenia z przeszłości pokazały, że nie musi tak być.

0lDL3M8.jpg

Wyłączyli bota, bo stał się Korwinem

Część z Was pamięta zapewne chatbota imieniem Tay, którym w 2016 roku pochwalił się Microsoft. Także i w jego przypadku podczas treningów użyto dużej ilości danych przygotowanych przez trenerów. Jednak w tamtej historii posunięto się krok dalej i bot nie tylko wchodził w interakcje z użytkownikami, ale też uczył się od nich, a odbywało się to za pośrednictwem Twittera. Efekt? W zaledwie kilkanaście godzin Tay zaczął tworzyć treści rasistowskie czy seksistowskie. Microsoft musiał w pośpiechu wyłączyć swój cud techniki.

UMIs7mN.jpg

W tym przypadku sprawdziło się porzekadło „kto z kim przestaje, takim się staje”. Eksperyment giganta technologicznego pokazał, że budowanie takich algorytmów na ludzkie podobieństwo jest bardzo niebezpieczną zabawą, bo człowiek jest po prostu bardzo niedoskonały. A prawd jest tyle, ilu ludzi w pokoju (jeżeli w pokoju znaleźliby się Polacy, to prawd będzie pewnie dwa razy więcej niż osób). Na potwierdzenie tych słów przywołam jeszcze historię bota Lee Luda, który kilka lat temu szybko zyskiwał popularność na Messengerze. Narzędzie rozwijane przez start-up Scatter Lab trzeba było wyłączyć, bo zaczęło stosować mowę nienawiści wobec niepełnosprawnych i społeczności LGBT. I ponownie: algorytm sam z siebie nie doszedł do wniosku, że nienawidzi lesbijek. Jego odpowiedzi bazowały na miliardach prawdziwych konwersacji użytkowników komunikatora KakaoTalk. Bot upodobnił się do człowieka, co z jednej strony pozwoliło mu brzmieć naturalnie podczas rozmowy, ale z drugiej wprowadziło do dialogu ludzkie słabości.

vR1fGuh.jpg

Twórcy botów stają zatem przed poważnym dylematem: dostarczyć ludziom narzędzie pracujące wedle określonych wytycznych, korzystające z ograniczonej ilości danych, które zostaną odpowiednio przefiltrowane, czy też pójść na żywioł, usuwając bariery. Jeśli boty mają być ludzkie, powinny przecież odzwierciedlać wszystkie nasze cechy, także te najgorsze. To bardzo istotna kwestia, która jeszcze przez długie lata będzie miała wpływ na rozwój sztucznej inteligencji. A skoro już o tym mowa: czy ChatGPT można określić mianem SI?

QNTnuHF.jpg

Gdzie nie spojrzeć, tam sztuczna inteligencja

Sprawy mają się niestety tak, że dzisiaj to pojęcie jest bardzo mocno nadużywane. Inteligentne są już nie tylko smartfony czy zegarki, ale też odkurzacze, pralki i czajniki. Praktycznie każdego dnia karmieni jesteśmy doniesieniami o sztucznej inteligencji wykorzystywanej w bankach, firmach IT, samochodach, wojsku czy rolnictwie. Kiedy pod koniec listopada OpenAI uruchomiło ChatGPT, natychmiast zaroiło się od tekstów i filmów na temat potęgi sztucznej inteligencji. Podobno to przełomowe wydarzenie. Sęk w tym, że o tych przełomowych wydarzeniach media trąbią co kilka miesięcy.

vWQWtek.jpg

W 2014 roku głośno zrobiło się o sukcesie niejakiego Eugene'a Goostmana, czyli trzynastolatka z Ukrainy, który w rzeczywistości był botem. Ale nie byle jakim – udało mu się zdać test Turinga. Chodzi w nim o to, że człowiek prowadzi rozmowę z innymi stronami i na tej podstawie ma określić, czy któraś z nich jest robotem. Jeżeli maszyna zostanie uznana za człowieka, zalicza test. Kiedy zatem piłkarze szykowali się do mundialu w Brazylii, media uderzały we wzniosłe tony: oto nadciąga kres rzeczywistości zdominowanej przez człowieka, nadchodzi era maszyn. I natychmiast wieszczono apokalipsę rodem z Terminatora.

Eo8G3ql.jpg

Dwa mundiale później obserwujemy coś podobnego. Ale po drodze przytrafiło się kilka podobnych historii. Oto w 2016 roku TVP Info donosiło, że „Sztuczna inteligencja nie dała szans człowiekowi. Komputer rozgromił Koreańczyka”. Z tekstu można było się dowiedzieć m.in., że:

Skonstruowany przez firmę Google komputer wyposażony w specjalny program pokonał mistrza świata w go, wyjątkowo skomplikowanej grze planszowej. Koreańczyk Lee Sedol trzykrotnie uległ maszynie AlphaGo.
Z kolei pod koniec marca tego roku czytelnicy serwisu chip.pl dowiedzieli się, że „Sztuczna inteligencja pokonała ośmiu mistrzów świata w brydżu. Padł jeden z ostatnich bastionów”. Tak, za każdym razem owa sztuczna inteligencja doprowadza do upadku jakiegoś bastionu człowieka. Nie można przy tym zapominać, że ta narracja nie pojawiła się w ostatnich latach – przecież jeszcze w latach 90. XX wieku Deep Blue, komputer stworzony przez IBM, wygrał partię szachów z arcymistrzem Garri Kasparowem. Ten sukces maszyny nakręcił pewnie niejedną apokaliptyczną wizję, od których zaroiło się na przełomie wieków.

J1VPCzw.png

Regularnie dowiadujemy się zatem, że właściwie nie mamy już czego szukać na tej planecie, mija kilka miesięcy, życie trwa nadal… aż pojawia się kolejna rewolucja sztucznej inteligencji. Teraz padło na ChatGPT, który… nie jest sztuczną inteligencją. To jej namiastka. Bliższe prawdy jest chyba mówienie o modelu uczenia maszynowego, algorytmie generującym w czasie rzeczywistym naturalnie brzmiące odpowiedzi na pytania. Skąd ten pęd do wskazywania wszędzie SI? Częściowo wynika to po prostu z niewiedzy: temat podejmują osoby, które się na tym nie znają. Skoro ktoś inny, najczęściej w USA, napisał, że AI (Artificial Intelligence) istnieje i odnosi sukcesy, to tak musi być. Ale sprawa ma też drugie dno: firmy nadużywają tego pojęcia w celach czysto marketingowych.

ozJ0top.jpg

Takie działanie nie jest wyłącznie znakiem naszych czasów, a zjawisko to otrzymało nawet swoją nazwę: snake oil (dosłownie „olej wężowy”). W minionych stuleciach po Europie i Ameryce Północnej krążyli sprzedawcy, którzy obiecywali swoim klientom lek na wszystkie bolączki. Tym panaceum był właśnie snake oil. W rzeczywistości były to specyfiki bezwartościowe, czasem wręcz szkodliwe, ale właściwy marketing zapewniał im sukces. Dzisiaj takie substancje sprzedaje się pewnie rzadziej (co nie oznacza, że całkowicie zniknęły – wystarczy poszukać w serwisach e-commerce), ale została z nami nazwa odnosząca się do zwyczajnego naciągania.

Dpu2bUn.png

Hasło „sztuczna inteligencja” zostało już przez wielu komentatorów uznane za snake oil XXI wieku. Jesteśmy każdego dnia karmieni informacjami o SI, która coś ułatwia, umożliwia, naprawia, racjonalizuje, rewolucjonizuje. Ale w wielu przypadkach to zwykłe bzdury. Serwis ThinkAutomation przywołuje badania, z których wynika, że około 40 proc. europejskich start-upów pozycjonujących się jako firmy wykorzystujące SI, w rzeczywistości nie ma wiele wspólnego z tym tematem. A część podmiotów owszem, używa narzędzi tego typu, ale w bardzo powtarzalny sposób, który nie wpływa na rozwój technologiczny. Nierzadko SI mylone jest po prostu z automatyzacją.

oWFSgHK.png

W ostatnich latach głośno zrobiło się o firmach Clara Labs, SpinVox czy Expensify, które rzekomo korzystały ze sztucznej inteligencji. We wszystkich tych przypadkach okazało się jednak, że pracę maszyn wykonywali… ludzie. Zazwyczaj w takich przypadkach wykorzystuje się kiepsko opłacanych pracowników z krajów słabiej rozwiniętych. A klientów i inwestorów przekonuje się, że za te czary odpowiedzialna jest skomplikowana technologia. Serio. To zjawisko też ma swoją nazwę: technika Czarodzieja z Oz. Osobom, które nie czytały powieści lub jej nie pamiętają, przypomnę, że tytułowy mag okazuje się cyrkowym sztukmistrzem. Ściemniaczem.

Jak mawiał klasyk: Kasa, misiu, kasa

Dlaczego firmy nadużywają w przekazie rewelacji na temat sztucznej inteligencji? Bo to im się opłaca. Inwestorzy czy duzi gracze z sektora IT są otumanieni bajkami o myślących maszynach. Firma analityczna Statista policzyła, że w 2011 roku start-upy działające w segmencie SI pozyskały łącznie około 600 mln dolarów finansowania. W 2020 roku portfele były otwierane znacznie szerzej: firmy otrzymały 36 mld dolarów. Olbrzymia różnica, ale warto dodać, że w ubiegłym roku tylko w drugim kwartale na ten cel przeznaczono aż 20 mld dolarów, a wynik roku poprzedzającego udało się z nawiązką poprawić już w czerwcu. Gorączka złota XXI wieku – tylko głupi by nie skorzystał.

GFGFMGa.jpg

Nie oznacza to oczywiście, że uznaję ludzi z OpenAI za ściemniaczy i wskazuję ChatGPT jako kolejny przejaw „oleju z węża”. Po prostu uczulam, by nie nazywać bota, nawet bardzo rozwiniętego, sztuczną inteligencją. Jednocześnie trzeba mieć na uwadze, że amerykańska firma prawdopodobnie pochwaliła się swoim osiągnięciem nie bez przyczyny. Z ich produktu na razie można korzystać za darmo, ale przecież zbudowanie i obsługa takiego bota pochłania spore fundusze. Sam Altman, szef OpenAI, stwierdził nawet, że koszty tego przedsięwzięcia są olbrzymie. Można sobie wyobrazić, że obecny pokaz możliwości to wstęp do pozyskania nowych inwestorów lub monetyzacji tego projektu na masową skalę. W ciągu kilku dni od udostępnienia bota na konwersację z nim zdecydowało się ponad milion osób, a znacznie więcej (!) przeczytało lub usłyszało o nim w mediach nowego i starego typu. Wymarzony i pewnie zamierzony szum.

Swoją drogą, największego zamieszania mógł on narobić w Mountain View, gdzie swoją siedzibę ma Google. Po latach korzystania z wyszukiwarek internetowych, głównie tej jednej, ludzie przekonali się, że w odpowiedzi na zadane pytanie maszyna nie musi im wyrzucać listy linków, z których pokaźna część będzie nieprzydatna albo sponsorowana (te opcje nie muszą się wykluczać). Było pytanie, jest konkretna odpowiedź – jak w przypadku przepisu na sernik zaprezentowanego na jednej z grafik dołączonych do tekstu. To może zmienić oczekiwania internautów, a co za tym idzie, wywołać popłoch w niektórych gabinetach w Dolinie Krzemowej.

HKlvsKB.jpg

Jest dobrze, będzie lepiej...

ChatGPT w swoim działaniu wykorzystuje GPT 3.5 – model językowy stworzony przez OpenAI. To właśnie ta architektura, zaprezentowana światu wiosną 2020 roku, jest silnikiem całego przedsięwzięcia i to pod jej adresem należy wygłaszać ewentualne słowa podziwu. Warto mieć jednak na uwadze, że nie jest to ostatnie słowo OpenAI: podmiot przygotowuje się do premiery GPT 4. I wiele wskazuje na to, że będzie to wielki skok jakościowy: o ile GPT 3 wyróżniał się liczbą 175 mld parametrów, o tyle w 2023 roku powinna się pojawić architektura 500 razy większa. To rozbudza wyobraźnię. I skłania do refleksji, że popisy ChatGPT, zamieszanie wokół tego projektu, są elementem większej układanki.

SKnKx7O.png

bIeUFjX.png

Komentując możliwości nowego bota, Elon Musk, jeden z założycieli OpenAI (miliarder po kilku latach wycofał się z tego przedsięwzięcia) nazwał go „przerażająco dobrym” i stwierdził, że niewiele nas dzieli od „niebezpiecznie mocnej SI”. Biorąc to pod uwagę, niektórzy przedstawiciele branży kreatywnej zapewne postanowią sprzątnąć rzeczy ze swojego biurka i wyjechać w Bieszczady. Przecież nie ma sensu trzymać się stanowiska, które zaraz przestanie istnieć. W rzeczywistości jednak programy tego typu nie muszą być miotłą, która za jednym zamachem usunie z sektora miliony osób. Owszem, to narzędzie już teraz mogłoby zastąpić Adama Glapińskiego na stanowisku szefa NBP. Ale nie oszukujmy się – tę rolę mogłyby pełnić znacznie mniej rozwinięte modele, które bez większego trudu opowiedziałyby o kocich pieszczotach, wizycie w sklepie i dziwnie zbudowanym płaskowyżu…

Na razie wydaje się mało prawdopodobne, by bot OpenAI miał masowo odbierać ludziom pracę. Wcześniej pojawił się przykład regulaminu napisanego przez to narzędzie. I jeśli będziemy się ograniczać do zadań na tym poziomie, to sprawa może się udać. Trudno sobie jednak wyobrazić, że taki algorytm zabierze się zaraz za pisanie umów czy ustaw, jak wyobrażają to sobie niektórzy. Trzeba mieć na uwadze, że w aktach prawnych diabeł tkwi w szczegółach. Przypomnę, że na początku wieku z rządowego projektu nowelizacji ustawy o radiofonii i telewizji zniknął fragment „lub czasopisma”, przez co zmianie uległa część bardzo istotnych ustaleń tego dokumentu. Ta „korekta” doprowadziła do wybuchu afery, powołania sejmowej komisji śledczej, a w dłuższej perspektywie do przebudowy polskiej sceny politycznej. I chociaż zdaję sobie sprawę z tego, że część ustaw jest dzisiaj pisana na kolanie, tymże przepychana przez legislacyjną machinę, to chyba nikt nie zaproponuje na serio, żeby prawo tworzył nam bot. Nawet taki, który potrafi napisać w mgnieniu oka opowiadanie o pośle Bosaku.

W5flmqd.jpg

ChatGPT może przejąć proste zadania copywriterskie czy dziennikarskie, ale to już się dzieje. Programiści będą pewnie zachwyceni faktem, że bot rozpoznaje błędy w kodzie i nawet je poprawia. Sprzedawcy z Chin ucieszą się na myśl o maszynie, która tworzy opisy ich produktów bez zgrzytów gramatycznych i stylistycznych. Łatwo sobie wyobrazić, że ludzie z pomocą takich rozwiązań trenują rozmowy w innych językach, zamawiają produkty i rozwiązują proste problemy w działach odpowiedzialnych za obsługę klienta. Ale powtórzę: to już się dzieje. Niedawno, 10 grudnia, obchodziliśmy dzień bota. Z tej okazji kolejne firmy chwaliły się, ile narzędzi tego typu posiadają i jakie prace one wykonują. Pewnie pokaźną część z Was te opowiastki mogłyby zdziwić.

ghHjxKs.jpg

...ale na rewolucję jeszcze trochę poczekamy

Do wszechwładnej i rzeczywistej sztucznej inteligencji droga jednak daleka. Ktoś stwierdzi, że za dekadę mina mi zrzednie i odszczekam te słowa. Możliwe. Ale dziesięć lat temu też czytałem, że niebawem SI rzuci nas na kolana. Już za chwilę, już za momencik! Robotyzacja w połączeniu z rozwojem algorytmów miała odesłać człowieka na przymusową emeryturę. A potem okazywało się, że rozwinięty system do konwersji wiadomości dźwiękowej na tekstową w rzeczywistości jest kiepsko opłacanym Filipińczykiem. W tej dziedzinie musi naprawdę sporo wody upłynąć (czyt. miliardów dolarów spłonąć), nim będziemy mogli mówić o programach rzeczywiście konkurujących z ludzkim mózgiem.

Dpokyf2.jpg

Trzeba też mieć na uwadze, że jeśli starania w zakresie stworzenia SI porównamy do dyscypliny sportowej, to nie mówimy o skoku wzwyż czy o tyczce – nie chodzi o pokonanie jednej bariery, tej technologicznej. Po niej pojawią się etyczne, polityczne, prawne. Dotyczy to chociażby praw autorskich. Bo do kogo właściwie należy tekst napisany przez bota? Do niego samego? Do firmy OpenAI (lub innej, która stworzy taką usługę)? A może do każdego z nas, bo przecież szkolenie odbywa się z wykorzystaniem treści z sieci. Odpowiedź nie jest oczywista, a przepisy już od dawna nie nadążają za rozwojem technologicznym. Jeśli zatem pozostaniemy w retoryce sportowej, to wypada napisać, że w kwestii SI mamy do czynienia z biegiem przez płotki i po każdym z nich możliwa jest wywrotka.
9

Oglądany: 48313x | Komentarzy: 81 | Okejek: 133 osób

Dobra, dobra. Chwila. Chcesz sobie skomentować lub ocenić komentujących?

Zaloguj się lub zarejestruj jako nieustraszony bojownik walczący z powagą
Najpotworniejsze ostatnio
Najnowsze artykuły

01.05

30.04

Starsze historie

Sprawdź swoją wiedzę!
Jak to drzewiej bywało