GPT-3, najnowsze dzieło OpenAI, nabrało setki internautów - artykuły tworzone przez sztuczną inteligencję spotkały się ze świetnym odbiorem nieświadomych niczego czytelników.
źródło: opracowanie własne
GPT-3, najnowsze dzieło OpenAI, nabrało setki internautów - artykuły tworzone przez sztuczną inteligencję spotkały się ze świetnym odbiorem nieświadomych niczego czytelników.
Zaledwie kilka tygodni temu zajmujące się sztuczną inteligencją laboratorium badawcze OpenAI przedstawiło swoje najnowsze dzieło. Jest to kolejna odsłona narzędzia do autouzupełniania GPT-3 (skrót pochodzi od słów Generative Pre-trained Transformer 3, oznaczający generatywny wstępnie wytrenowany transformator), które automatycznie uzupełnia tekst na podstawie otrzymanych podpowiedzi. Chociaż narzędzie nie zostało jeszcze publicznie udostępnione już teraz wywołuje wiele kontrowersji, w znacznej części przez eksperyment przeprowadzony przez pewnego studenta...
Wypuszczona w zeszłym roku poprzedniczka GPT-3 - GPT-2 potrafiła sensownie kończyć zdania, a nawet tworzyć dłuższe fragmenty tekstu na dany temat, używając naturalnego języka charakterystycznego dla ludzi. Wypuszczenie niezwykle zaawansowanego algorytmu do produkcji tekstu zostało jednak wstrzymane przez OpenAl aż do listopada 2019 roku, z obawy, że może on zostać niewłaściwie wykorzystany.
W sierpniu 2020 roku, kiedy ukończony został model GPT-3 spróbowano innej strategii – algorytm udostępniony został wstępnie tylko badaczom, którzy złożyli wniosek o prywatną wersję beta. Mieli oni następnie przekazać producentowi swoje opinie.
Nad najnowszym tworem - GPT-3 pracowało przez rok ponad 30 badaczy, dzięki czemu tworzy go ponad 175 miliarda parametrów określających zależności między elementami sieci (to aż 100 razy więcej niż tych tworzących poprzednią wersje). Jest to model autoregresyjny, a więc stale sam się doskonalący bez udziału człowieka. Robi to poprzez szukanie nowych wzorców w danych. W dużym uproszczeniu GPT-3 przeszukuje ogromne bazy tekstów szukając tych statystycznie najlepiej odpowiadającym przekazanemu mu zadaniu. Na przykład, jeśli hasłem będzie „koronawirus” narzędzie automatycznie wykryje, że bardziej prawdopodobne hasła powiązane z nim to „maseczka” i „choroba”, odrzuci natomiast znacznie mniej trafne „kwiatki” czy „księżyc”. W teście SuperGlue sprawdzającym czytanie ze zrozumieniem GPT-3 osiąga znakomite wyniki, słabiej natomiast radzi sobie z analizą tekstu.
Kiedy o najnowszym algorytmie do tworzenia tekstu usłyszał Liam Porr, jeden ze studentów uczących się na Uniwersytecie Kalifornii w Berkeley, wpadł na pewien pomysł. Złożył wniosek przygotowany przez OpenAI, ale nie chciał czekać na przyznanie mu dostępu do GPT-3. Zamiast tego znalazł wspólnika - doktoranta, który już taki dostęp posiadał. Porr stworzył scenariusz, według którego miał działać GPT-3. Student podawał jedynie nagłówek, pasujący do starannie dobranego przez niego tematu, a na jego podstawie algorytm generował tekst, który następnie po nieznacznej obróbce, zamieszczany był na forach takich jak Hacker News pod pseudonimem „adolos”. Stworzone przez algorytm teksty okazały się być hitem - szybko zyskiwały na popularności. Oczywiście nieprzypadkowo - Porr wykorzystał sprawdzone na forach tematy i zlecił GPT-3 pisanie podobnych tekstów, dodatkowo forma wypowiedzi na blogach i forach, nie wymagała od algorytmu rygorystycznej logiki.
Student kontynuował eksperyment przez 2 tygodnie, a następnie go zaniechał. Jak mówił w późniejszej rozmowie z MIT Technology Review celowo polecił algorytmowi stworzenie artykułu o produktywności („Czujesz się bezproduktywny? Może powinieneś przestać zbyt dużo o tym myśleć”), ponieważ bardzo dobrze sprawdzał się on w tworzeniu ładnych zdań, miał jednak problem z logiką i racjonalnością.
Miał być to zabawny eksperyment, jego wyniki okazały się jednak być bardzo kontrowersyjne. Przerażający jest zwłaszcza fakt, że zdecydowana większość czytelników nie tylko była zachwycona tekstami, ale nie miała żadnych podejrzeń na temat ich pochodzenia. Co ciekawe, gdy ktoś na forum wypowiadał zdanie, w którym sugerował, że post został napisany przez GPT-3 lub innego BOT-a do tworzenia contentu, natychmiast spotykał się z falą krytyki. Jak mówi sam autor tego doświadczenia, najbardziej zatrważające w nim było to, że przeprowadzenie go było aż tak łatwe.
Poniżej próbka tekstu napisanego przez GPT-3 podczas eksperymentu. Tekst został stworzony w języku angielskim, nie będzie przez nas tłumaczony na język polski, aby nie zatracić stylu wypowiedzi:
„Definition #2: Over-Thinking (OT) is the act of trying to come up with ideas that have already been thought through by someone else. OT usually results in ideas that are impractical, impossible, or even stupid.”
Nowa era contentu?
Ostatnio świat obiegła sensacyjna wiadomość, że Microsoft (współpracujący zresztą blisko z OpenAI), wydający między innymi Microsoft News i MSN, zastępuje 50 swoich redaktorów w Stanach Zjednoczonych i 27 w Wielkiej Brytanii sztuczną inteligencją. Zatrudniani przez firmę do tej pory redaktorzy i dziennikarze przygotowywali artykuły pojawiające się na stronie, w aplikacjach i przeglądarce Microsoft Edge, teraz mają robić to specjalnie stworzone algorytmy. Będą one skanować teksty znajdujące się już w sieci, wybierać z nich te najlepsze, a następnie przerabiać je i publikować ponownie. Podobno zwolnienia są częścią szerszego planu znanej marki, która pragnie większego udziału sztucznej inteligencji w działaniu firmy. Z pewnością jest to innowacyjne podejście, jednak, jeśli pomysł Microsoftu zostanie wcielony też w innych przedsiębiorstwach może się szybko okazać, że przestajemy produkować świeże treści wciąż przerabiając te już istniejące. Takie wykorzystanie sztucznej inteligencji budzi więc wiele kontrowersji.