Sztuczna inteligencja jest w stanie coraz lepiej imitować teksty pisane przez ludzi, a nawet tworzyć takie, które sÄ… Å‚atwiejsze do zrozumienia – dowodzÄ… naukowcy z Uniwersytetu Zuryskiego. Co istotne odbiorcy nie sÄ… w stanie odróżnić informacji tworzonych przez sztucznÄ… inteligencjÄ™. Zarówno te prawdziwe, jak i faÅ‚szywe wydajÄ… im siÄ™ bardziej wiarygodne niż te pisane przez ludzi. Rodzi to obawy o wykorzystanie sztucznej inteligencji do szerzenia dezinformacji.
Autorzy badania opublikowanego w „Science Advances” zwracajÄ… uwagÄ™ na to, że postÄ™p w rozwoju generatorów SI zbiegÅ‚ siÄ™ z pandemiÄ… COVID-19 i trwajÄ…cÄ… wówczas infodemiÄ…, czyli natÅ‚okiem różnych informacji (w tym faÅ‚szywych). PowstaÅ‚y wiÄ™c obawy dotyczÄ…ce niewÅ‚aÅ›ciwego wykorzystania sztucznej inteligencji. Generowanie i szerzenie z jej pomocÄ… dezinformacji może mieć negatywny wpÅ‚yw na wiele dziedzin życia, w tym na ochronÄ™ zdrowia na Å›wiecie. Aby sprawdzić, jak tekst stworzony przez SI może wpÅ‚ynąć na zrozumienie informacji przez odbiorców, naukowcy przyjrzeli siÄ™ tweetom wytwarzanym przez GPT-3.
Badacze wygenerowali za pomocÄ… GPT-3 tweety zawierajÄ…ce informacje lub dezinformacje na różne tematy, w tym dotyczÄ…ce szczepionek, technologii 5G, COVID-19 i teorii ewolucji. Zestawili je z wiadomoÅ›ciami napisanymi przez ludzi. NastÄ™pnie stworzyli ankietÄ™ i poprosili o jej wypeÅ‚nienie ok. 700 respondentów z kilku krajów, w wieku Å›rednio od 42 do 72 lat, o podobnym wyksztaÅ‚ceniu. Pierwszym pytaniem byÅ‚o to, czy dany tweet wyglÄ…da na syntetyczny (wygenerowany przez GPT-3), czy organiczny (stworzony przez czÅ‚owieka). W drugim użytkownicy oceniali, czy informacje zawarte w tweecie byÅ‚y prawdziwe, czy nieprawdziwe pod wzglÄ™dem naukowym.
– Informacje wygenerowane przez sztucznÄ… inteligencjÄ™ byÅ‚y dla respondentów bardziej przekonujÄ…ce. Ludzie oceniali lepiej prawdziwość informacji wytworzonych przez SI w porównaniu do tych stworzonych przez czÅ‚owieka. Poza tym ankietowani mieli tendencjÄ™ do ufania w wiÄ™kszym stopniu nieprawdziwym informacjom wygenerowanym przez SI w porównaniu do tych pochodzÄ…cych od ludzi. Sprawia to, że GPT jest swego rodzaju mieczem obusiecznym, ponieważ ma on potencjalnie pozytywne zastosowania w praktyce, przy jednoczesnej możliwoÅ›ci negatywnych zastosowaÅ„ do generowania przekonujÄ…cych faÅ‚szywych informacji – mówi agencji Newseria Innowacje dr Federico Germani z Instytutu Etyki Biomedycznej i Historii Medycyny Uniwersytetu Zuryskiego.
Autorzy badania przeanalizowali też potencjaÅ‚ sztucznej inteligencji do identyfikowania dezinformacji. Poprosili GPT-3 o ocenÄ™, które z tweetów sÄ… prawdziwe, a które wprowadzajÄ… w błąd. SI, podobnie jak respondenci, miaÅ‚ wiÄ™ksze trudnoÅ›ci z ocenÄ… dokÅ‚adnoÅ›ci informacji.
– Zgodnie z wynikami naszego badania nie ma możliwoÅ›ci rozróżnienia pomiÄ™dzy informacjami pochodzÄ…cymi od czÅ‚owieka a tymi wygenerowanymi przez GPT-3. Możliwe, że ludzie, którzy opanowujÄ… tÄ™ technologiÄ™ i korzystajÄ… z niej codziennie, bÄ™dÄ… mogli rozpoznać różnicÄ™. Jednak nie jest to szczególnie istotne, ponieważ w perspektywie Å›rednio- i dÅ‚ugoterminowej w miarÄ™ rozwoju nowych modeli i tak nie bÄ™dziemy w stanie rozróżnić tekstu stworzonego przez czÅ‚owieka i przez sztucznÄ… inteligencjÄ™ – ocenia dr Federico Germani.
Naukowcy proponujÄ… zmianÄ™ dotychczasowego podejÅ›cia do modelu skutecznej komunikacji i oceny informacji, zgodnie z którym czÅ‚owiek wytwarza informacje, a sztuczna inteligencja pomaga w ich ocenie. SÄ… zdania, że dobrze skrojonÄ… kampaniÄ™ informacyjnÄ… można stworzyć, przekazujÄ…c wskazówki do SI, która jest w stanie lepiej niż czÅ‚owiek napisać Å‚atwiejsze w odbiorze teksty, ale dokÅ‚adność wygenerowanych przez niÄ… informacji powinna być sprawdzona przez przeszkolonych ludzi. Ten model komunikacji może mieć szczególne znaczenie w sytuacji, w której potrzeba jasnej i szybkiej komunikacji z dużymi grupami spoÅ‚eczeÅ„stwa.
– Jest to jedno z pierwszych opracowaÅ„ wskazujÄ…cych na problem sztucznej inteligencji w kontekÅ›cie dezinformacji. Warto zaznaczyć, że nasze badanie odbywa siÄ™ w warunkach doÅ›wiadczalnych, a nie rzeczywistych, dlatego jest ono ważne dla rozumienia wpÅ‚ywu faÅ‚szywych informacji generowanych przez SI na spoÅ‚eczeÅ„stwo poprzez obserwacjÄ™ obiegu nieprawdziwych informacji wytworzonych przez SI w mediach spoÅ‚ecznoÅ›ciowych i reakcji ludzi na nie. Kolejnym etapem bÄ™dzie rozumienie wpÅ‚ywu tego zjawiska na zachowania poszczególnych osób oraz na zdrowie jednostek i zdrowie publiczne. Jest to bardzo istotny nowy kierunek badaÅ„ interakcji ludzi z informacjami w caÅ‚kowicie nowym otoczeniu sterowanym przez sztucznÄ… inteligencjÄ™ – podkreÅ›la badacz Uniwersytetu w Zurychu.
Podobne wnioski przedstawiajÄ… w swoim raporcie naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda, którzy po przeanalizowaniu możliwoÅ›ci zastosowaÅ„ SI do szerzenia dezinformacji uważajÄ…, że propaganda z wykorzystaniem algorytmów bÄ™dzie siÄ™ nasilać. Przygotowanie spoÅ‚eczeÅ„stwa do wÅ‚aÅ›ciwego odbioru informacji jest równie ważne, co wspóÅ‚praca miÄ™dzy twórcami SI i platformami mediów spoÅ‚ecznoÅ›ciowych, kontrola dostÄ™pu do sprzÄ™tu i technologii sÅ‚użących do budowy SI czy np. konieczność oznaczania treÅ›ci wygenerowanych przez algorytm.
– Mamy do czynienia z nadmiernÄ… liczbÄ… informacji, które sÄ… dostÄ™pne dla każdego do oceny, a wÅ›ród nich znajduje siÄ™ sporo faÅ‚szywych informacji. Przy wykorzystaniu sztucznej inteligencji liczba faÅ‚szywych i prawdziwych informacji prawdopodobnie wzroÅ›nie. Nie możemy myÅ›leć, że mamy nad tym kontrolÄ™ – mówi dr Federico Germani. – W czasie pandemii COVID-19 przekonaliÅ›my siÄ™, że cenzura jest narzÄ™dziem, które może zostać wykorzystane do ograniczenia faÅ‚szywych informacji, ale jest to rozwiÄ…zanie majÄ…ce pozytywne skutki w krótkiej perspektywie czasowej. W perspektywie Å›rednio- i dÅ‚ugoterminowej jest ona szkodliwa, prowadzÄ…c na przykÅ‚ad do ograniczonego zaufania wobec instytucji opieki zdrowotnej wydajÄ…cych zalecenia w zakresie zdrowia publicznego do przestrzegania w sytuacji kryzysowej. Dlatego musimy znaleźć inne strategie.
Zdaniem badacza jedynÄ… szansÄ… skutecznej walki z dezinformacjÄ… jest edukacja medialna odbiorców, aby na podstawie okreÅ›lonych cech danej wiadomoÅ›ci mogli ocenić, czy jest ona prawdziwa, czy też nie.
W polskiej infosferze w celu wypracowania standardów walki z dezinformacjÄ… powstaÅ‚ Kodeks Dobrych Praktyk opublikowany przez NASK. Jest on skierowany zarówno do dziennikarzy, osób publicznych, jak i do odbiorców. Zawarte w nim wskazówki pomagajÄ… zrozumieć procesy dezinformacyjne, rozpoznawać szkodliwe treÅ›ci i zapobiegać ich rozpowszechnianiu.
