NA ANTENIE: Z innej perspektywy
Studio nagrań Ogłoszenia BIP Cennik
SŁUCHAJ RADIA ON-LINE
 

Czy czat GPT ma jakieś poglądy?

Publikacja: 07.09.2023 g.19:06  Aktualizacja: 07.09.2023 g.19:09
Świat
To tylko jedno z pytań, jakie padło w kontekście korzystania i wykorzystywania sztucznej inteligencji. Dziś podczas Forum Ekonomicznego w Karpaczu dyskutowano o zagrożeniach, jakie się wiążą z tą technologią.
sztuczna inteligencja  - Pexels
Fot. (Pexels)

Prof. Jerzy Surma ze Szkoły Głównej Handlowej mówił na naszej antenie, że osoby, które stoją za czatem GPT, mogą nami łatwo manipulować...

Są twarde badania pokazane, że jest on taki trochę liberalno-lewicowy. Z czego to wynika? Ten algorytm ma jakieś poglądy? Nie ma żadnych. On po prostu dostał taki materiał na wejściu i odzwierciedla ten klimat lewicowo-liberalny w swoich odpowiedziach, bo taki dostał materiał do uczenia. Nagle się okazuje, że na takie systemy można bardzo silnie wpływać, np. na proces edukacji

 - mówił prof. Jerzy Surma.

Gość popołudniowego programu apelował, by do wszystkich przekazów cyfrowych podchodzić sceptycznie.

Doszli do takiego etapu, że bardzo łatwo jest manipulować, więc powinniśmy każdy przekaz cyfrowy przepuszczać przez taki filtr zdrowego rozsądku. Krytyczne myślenie i sceptycyzm - to powinniśmy pielęgnować

 - mówił prof. Surma.

 

Poniżej pełny zapis rozmowy:

Bartosz Garczyński: Jesteśmy po panelu na temat sztucznej inteligencji, więc zadam pytanie, które zadają sobie tak naprawdę wszyscy użytkownicy czy też wszyscy, którzy interesują się nowymi technologiami, czy obecnie powinniśmy się obawiać sztucznej inteligencji? Myślę, że to jest pytanie, które zaprząta głowę już nie tylko nawet specjalistom od IT, ale też filozofom i innym naukowcom.

Prof. Jerzy Surma: Dokładnie, sztuczna inteligencja, zwłaszcza ta generatywna sztuczna inteligencja, stała się niezwykle popularna gdzieś od jesieni 2022 roku i w sposób naturalny, mówię tutaj przede wszystkim o rozwoju czata GPT, pojawiły się takie podejrzenia, że jesteśmy już u progu tego, że mogłaby przejąć kontrolę nad ludzkością. Nie ukrywam, że producent czata GPT Sam Altman dokładnie w tym klimacie nawet zeznawał przed kongresem Stanów Zjednoczonych, właśnie z takim zaniepokojeniem.

Czyli to nie są wydumane teorie?

Ale właśnie to jest twórca tego systemu, który w tle jest zainteresowany biznesowym prosperity tej firmy i moim zdaniem w sposób intencjonalny wprowadza taki klimat zaniepokojenia, gdzie skupia uwagę inwestorów i milionów użytkowników, bo tutaj nie ukrywam, że zainteresowanie tym czatem GPT było bardzo wielkie. Natomiast środowisko naukowe jest tutaj bardzo silnie podzielone w tym kontekście i większość naukowców profesjonalnych, których znam, w ogóle nie postrzega tego zagadnienia w ten sposób, że mamy do czynienia z jakimś punktem, w którym faktycznie miałaby nastąpić jakaś katastrofa, więc zostawmy Sama Altmana, który wydaje mi się, że jest zainteresowany, by taka general artificial intelligence powstała i tak zresztą na stronie producenta, ku mojemu zaskoczeniu, dokładnie ten komunikat jest przekazany, ale jak weźmiemy tak naprawdę ojca deep learningu Geoffrey'a Hintona i jego o to pytano, a to jest absolutnie autorytet numer jeden w tej dziedzinie, to on bardziej mówił o innym rodzaju zagrożenia. Nie to, że ta sztuczna przejmie władzę, ale raczej ludzie, którzy stoją za sztuczną inteligencją mogliby przejąć władzę, że nagle pojawia się tutaj taki niesamowity element przewagi konkurencyjnej ludzi, którzy budują te systemy, mają wpływ na ich funkcjonowanie i on to np. przedstawił w takim scenariuszu, że przy pomocy sztucznej inteligencji łatwo będzie manipulować ludźmi. Budować np. różnego rodzaju scenariusze dezinformacji oparte o socjotechnikę, gdzie wejście w taką konwersację z  jakimś czat-botem, gdzie nieświadomy użytkownik kompletnie nie będzie wiedział, że ma do czynienia z maszyną. Tylko będzie myślał, że po drugiej stronie jest człowiek. On może być niezwykle przekonujący, on się może uczyć reakcji tego użytkownika - na podstawie odpowiedzi czy jeśli by to było na smartfonie, jak reaguje ten użytkownik, więc gdybym miał podać najbardziej bolesny scenariusz, ale chodzi mi tylko o to, jak to może być tragiczne, potrafię sobie wyobrazić system automatyczny, który kogoś o słabszej wrażliwości doprowadziłby do samobójstwa.

To bardzo mocno brzmi w takim razie. Ja powiem szczerze, że ja sam korzystałem z czata GPT. Ja byłem pod wrażeniem możliwości tego program, choć też parę razy się pomylił i przyznał się do tego, że się pomylił. Z czego to wynika? Jeżeli chodzi o sztuczną inteligencję, ona bazuje jednak na pewnych bazach danych i później przetwarza informacje z tych baz danych, które otrzymuje. Czy sztuczna inteligencja jest w stanie weryfikować w takim razie prawdziwość tych danych, które przekazuje i przyznać się właśnie do błędu tak, jak to było w moim przypadku? Z tego to wynika?

To jest super pytanie, dziękuję, że pan o to pyta, bo to jest fundament. Czat GPT czy tego typu czy systemu tego typu są w stanie generować całkiem wiarygodne odpowiedzi na podstawie bardzo złożonego procesu uczenia się i teraz na czym się uczył czat GPT: Wikipedia, książki, które są powszechnie dostępne, teksty w języku naturalnym, zwykle w języku angielskim, które są publicznie dostępne. Oczywiście tu nie mówimy o kilku książkach, tylko o setkach milionów de facto książek czy powiedzmy cała Wikipedia i publicznie dostępne strony. I teraz proszę zwrócić uwagę, czyli ten system odpowiada na postawie tego, czego się nauczył i mamy dwa bardzo ciekawe zjawiska. Jedno zjawisko  jest związane ze stronniczością czata GPT. Są twarde badania pokazane, że jest on taki trochę liberalno-lewicowy. Z czego to wynika? Ten algorytm ma jakieś poglądy? Nie ma żadnych. On po prostu dostał taki materiał na wejściu i odzwierciedla ten klimat lewicowo-liberalny w swoich odpowiedziach, bo taki dostał materiał do uczenia.

To jest ciekawe w gruntu polityki.

Dokładnie, bo to nagle się okazuje, że na takie systemy można bardzo silnie wpływać, np. na proces edukacji. Jeżeli dzieci miałyby się uczyć,. ma nadzieję, że to się nie wydarzy, ale powiedzmy z wykorzystaniem takich systemów, to proszę zwrócić uwagę, jak istotny jest ten materiał, te bazy dane językowe, które są wykorzystywane.

Ale panie profesorze, ludzie też są stronniczy, ci, którzy przygotowują materiały.

To prawda, dokładnie tak. My też żyjemy w jakiś bańkach, natomiast to jest tak, że zwykle działania tych systemów przyjmuje się bardzo bezkrytycznie. Zwłaszcza tutaj nie mówię o osobach dojrzałych, które mają jakieś takie naturalne krytyczne myślenie, pewien sceptycyzm do tego, co się dzieje. Myślę tutaj bardziej o dzieciach, młodzieży, która ma łatwość dostępu do tych technologii i taki duży bezkrytycyzm i tutaj łatwo jest, bym powiedział, w skali globalnej taką np. młodzieżą manipulować przez używanie tego typu systemów. Czyli jeżeli chcielibyśmy np. używać to w edukacji, to musiałby być bardzo skrupulatny proces tego, na jakiej podstawie ten system był uczony. Trochę tak, że jeżeli się kogoś dopuszcza, nauczyciela, żeby on wszedł do klasy, to musi przejść określoną edukację, zdać jakieś egzaminy. Potwierdzić swoją jakby wiarygodność, swój profesjonalizm, swoją wiedzę zanim w ogóle dopuści się go do dzieci. No to dokładnie coś takiego w przyszłości powinno też być realizowane w kontekście tych systemów.

Wspomniał pan tutaj o edukacji, jeżeli chodzi o dzieci i o możliwościach manipulacji, ale na panelu, który przed chwilą się zakończył mówił pan, że właściwie wypowiedziami sztuczna inteligencja czy też ludzie, którzy wykorzystują sztuczną inteligencję, wypowiedziami już manipulują. Doszło do tego w przypadku jednej z polityków i pokazuje do czego nas to może doprowadzić, jeżeli chodzi o analizę sceny politycznej. Zbliżają się w końcu wybory.

Dokładnie i powiem szczerze, że to jest dla mnie takie przykre doświadczenie o czym  mówię. Tego typu systemy można wykorzystać do klonowanie głosu. Czyli jeżeli ma się dostęp do głosu jakiejś osoby, powiedzmy ktoś jest na youtube, to wystarczy dosłownie kilkanaście minut wypowiedzi jakiejś osoby, jest się w stanie z wykorzystaniem tzw. modeli dyfuzyjnych w ramach sztucznej inteligencji zbudować taki system, że mogę wziąć dowolny tekst i wypowiedzieć głosem tej osoby, którą prawdę wykorzystać. I to zrobił, to jest przykre, nie chcę wchodzić w mojej wypowiedzi w politykę, to zrobił jeden z komitetów wyborczych, który w usta jednego z prominentnych polityków włożył tekst, którego on nigdy nie wypowiedział. Czyli przygotowano pewien materiał tekstowy, który głosem tego polityka wypowiedziano.

Po to, by go skompromitować.

Dokładnie, żeby go skompromitować i tego typu manipulacje są możliwe nie tylko na poziomie głosu, czyli klonowania głosu, ale też można klonować sekwencję wideo, czyli można doprowadzić do takiej sytuacji, że my widzimy polityka w jakiejś kompromitującej sytuacji, który wypowiada jakieś zadziwiające słowa i proszę sobie wyobrazić, że tego typu przekaz pojawi się w ciszy wyborczej, tuż przed decyzjami wyborczymi i nagle kogoś z pierwszych stron gazet widzimy w sytuacji dwuznacznej i jeszcze mówi jakieś tam rzeczy horrendalne. To tak to niestety dziś jest możliwe i przykro to powiedzieć, już pierwszy raz tego typu zjawisko na polskiej scenie politycznej się pojawiło.

To panie profesorze, samo zasuwa się pytanie, co robić w takim razie? Jak to regulować, jak przeciwdziałać temu?

Mamy tu dwa wymiary. Jeden taki - nazwijmy to - regulacyjny, formalny i tutaj to, co np. UE próbuje robić w tym obszarze, to tu akurat mogę pochwalić, że będzie taka regulacja, że będzie materiał jest wygenerowany przy użyciu systemu sztucznej inteligencji, to powinien być oznakowany.

Ale to też zależy od uczciwości osoby, która coś takiego publikuje.

Dokładnie, ale załóżmy, że jeżeli ktoś nie robi tego oznakowania, to podlega jakimś konsekwencjom prawnym, czyli jeśli ja kogoś publicznie szkaluję, to mogę być oskarżony, to tak samo w tym wypadku i uważam, że to jest dobry kierunek. Natomiast jakbym miał dać jakąś jakąś sugestię słuchaczom czy w ogóle to, co mówią moim studentom, to zaczynam od takich rzeczy zupełnie bazowych - krytyczne myślenie i zdrowy rozsądek i nie  mniej niesamowitą wrażliwość i krytycyzm co do tego, co jest pokazywane w mediach cyfrowych. Niestety doszli do takiego etapu, że bardzo łatwo jest manipulować, więc powinniśmy każdy przekaz cyfrowy przepuszczać przez taki filtr zdrowego rozsądku. Poczekajmy, zobaczmy, czy to się faktycznie wydarzyło. Nie podejmujmy na tej podstawie pochopnych decyzji. Tak na dzień dzisiejszy powinniśmy działać. To jest coś, co w sposób naturalny większość z nas ma w sercu, czyli taki zdrowy rozsądek, krytyczne myślenie, sceptycyzm - proszę to pielęgnować.

Czyli zdrowy rozsądek, sceptycyzm i krytyczne myślenie jako remedium na próbę manipulacji za pomocą sztucznej inteligencji.

https://radiopoznan.fm/n/hGWuFt
KOMENTARZE 0