Wiadomości Branżowe

Fake newsy stworzone przez sztuczną inteligencję trudne do rozpoznania. Wydają się internautom bardziej wiarygodne od wiadomości tworzonych przez ludzi

Fake newsy stworzone przez sztuczną inteligencję trudne do rozpoznania. Wydają się internautom bardziej wiarygodne od wiadomości tworzonych przez ludzi
Sztuczna inteligencja jest w stanie coraz lepiej imitować teksty pisane przez ludzi, a nawet tworzyć takie, które sÄ… Å‚atwiejsze do zrozumienia – dowodzÄ… naukowcy z Uniwersytetu Zuryskiego. Co istotne odbiorcy nie sÄ…

Sztuczna inteligencja jest w stanie coraz lepiej imitować teksty pisane przez ludzi, a nawet tworzyć takie, które sÄ… Å‚atwiejsze do zrozumienia – dowodzÄ… naukowcy z Uniwersytetu Zuryskiego. Co istotne odbiorcy nie sÄ… w stanie odróżnić informacji tworzonych przez sztucznÄ… inteligencjÄ™. Zarówno te prawdziwe, jak i faÅ‚szywe wydajÄ… im siÄ™ bardziej wiarygodne niż te pisane przez ludzi. Rodzi to obawy o wykorzystanie sztucznej inteligencji do szerzenia dezinformacji.

Autorzy badania opublikowanego w „Science Advances” zwracajÄ… uwagÄ™ na to, że postÄ™p w rozwoju generatorów SI zbiegÅ‚ siÄ™ z pandemiÄ… COVID-19 i trwajÄ…cÄ… wówczas infodemiÄ…, czyli natÅ‚okiem różnych informacji (w tym faÅ‚szywych). PowstaÅ‚y wiÄ™c obawy dotyczÄ…ce niewÅ‚aÅ›ciwego wykorzystania sztucznej inteligencji. Generowanie i szerzenie z jej pomocÄ… dezinformacji może mieć negatywny wpÅ‚yw na wiele dziedzin życia, w tym na ochronÄ™ zdrowia na Å›wiecie. Aby sprawdzić, jak tekst stworzony przez SI może wpÅ‚ynąć na zrozumienie informacji przez odbiorców, naukowcy przyjrzeli siÄ™ tweetom wytwarzanym przez GPT-3.

Badacze wygenerowali za pomocÄ… GPT-3 tweety zawierajÄ…ce informacje lub dezinformacje na różne tematy, w tym dotyczÄ…ce szczepionek, technologii 5G, COVID-19 i teorii ewolucji. Zestawili je z wiadomoÅ›ciami napisanymi przez ludzi. NastÄ™pnie stworzyli ankietÄ™ i poprosili o jej wypeÅ‚nienie ok. 700 respondentów z kilku krajów, w wieku Å›rednio od 42 do 72 lat, o podobnym wyksztaÅ‚ceniu. Pierwszym pytaniem byÅ‚o to, czy dany tweet wyglÄ…da na syntetyczny (wygenerowany przez GPT-3), czy organiczny (stworzony przez czÅ‚owieka). W drugim użytkownicy oceniali, czy informacje zawarte w tweecie byÅ‚y prawdziwe, czy nieprawdziwe pod wzglÄ™dem naukowym.

– Informacje wygenerowane przez sztucznÄ… inteligencjÄ™ byÅ‚y dla respondentów bardziej przekonujÄ…ce. Ludzie oceniali lepiej prawdziwość informacji wytworzonych przez SI w porównaniu do tych stworzonych przez czÅ‚owieka. Poza tym ankietowani mieli tendencjÄ™ do ufania w wiÄ™kszym stopniu nieprawdziwym informacjom wygenerowanym przez SI w porównaniu do tych pochodzÄ…cych od ludzi. Sprawia to, że GPT jest swego rodzaju mieczem obusiecznym, ponieważ ma on potencjalnie pozytywne zastosowania w praktyce, przy jednoczesnej możliwoÅ›ci negatywnych zastosowaÅ„ do generowania przekonujÄ…cych faÅ‚szywych informacji – mówi agencji Newseria Innowacje dr Federico Germani z Instytutu Etyki Biomedycznej i Historii Medycyny Uniwersytetu Zuryskiego.

A to już wiesz?  Sieci handlowe i producenci żywnoÅ›ci wycofujÄ… jaja z chowu klatkowego. Już co trzecie opakowanie jaj pochodzi z chowów alternatywnych

Autorzy badania przeanalizowali też potencjaÅ‚ sztucznej inteligencji do identyfikowania dezinformacji. Poprosili GPT-3 o ocenÄ™, które z tweetów sÄ… prawdziwe, a które wprowadzajÄ… w błąd. SI, podobnie jak respondenci, miaÅ‚ wiÄ™ksze trudnoÅ›ci z ocenÄ… dokÅ‚adnoÅ›ci informacji.

– Zgodnie z wynikami naszego badania nie ma możliwoÅ›ci rozróżnienia pomiÄ™dzy informacjami pochodzÄ…cymi od czÅ‚owieka a tymi wygenerowanymi przez GPT-3. Możliwe, że ludzie, którzy opanowujÄ… tÄ™ technologiÄ™ i korzystajÄ… z niej codziennie, bÄ™dÄ… mogli rozpoznać różnicÄ™. Jednak nie  jest to szczególnie istotne, ponieważ w perspektywie Å›rednio- i dÅ‚ugoterminowej w miarÄ™ rozwoju nowych modeli i tak nie bÄ™dziemy w stanie rozróżnić tekstu stworzonego przez czÅ‚owieka i przez sztucznÄ… inteligencjÄ™ – ocenia dr Federico Germani.

Naukowcy proponujÄ… zmianÄ™ dotychczasowego podejÅ›cia do modelu skutecznej komunikacji i oceny informacji, zgodnie z którym czÅ‚owiek wytwarza informacje, a sztuczna inteligencja pomaga w ich ocenie. SÄ… zdania, że dobrze skrojonÄ… kampaniÄ™ informacyjnÄ… można stworzyć, przekazujÄ…c wskazówki do SI, która jest w stanie lepiej niż czÅ‚owiek napisać Å‚atwiejsze w odbiorze teksty, ale dokÅ‚adność wygenerowanych przez niÄ… informacji powinna być sprawdzona przez przeszkolonych ludzi. Ten model komunikacji może mieć szczególne znaczenie w sytuacji, w której potrzeba jasnej i szybkiej komunikacji z dużymi grupami spoÅ‚eczeÅ„stwa.

– Jest to jedno z pierwszych opracowaÅ„ wskazujÄ…cych na problem sztucznej inteligencji w kontekÅ›cie dezinformacji. Warto zaznaczyć, że nasze badanie odbywa siÄ™ w warunkach doÅ›wiadczalnych, a nie rzeczywistych, dlatego jest ono ważne dla  rozumienia wpÅ‚ywu faÅ‚szywych informacji generowanych przez SI na spoÅ‚eczeÅ„stwo poprzez obserwacjÄ™ obiegu nieprawdziwych informacji wytworzonych przez SI w mediach spoÅ‚ecznoÅ›ciowych i reakcji ludzi na nie. Kolejnym etapem bÄ™dzie rozumienie wpÅ‚ywu tego zjawiska na zachowania poszczególnych osób oraz na zdrowie jednostek i zdrowie publiczne. Jest to bardzo istotny nowy kierunek badaÅ„ interakcji ludzi z informacjami w caÅ‚kowicie nowym otoczeniu sterowanym przez sztucznÄ… inteligencjÄ™ – podkreÅ›la badacz Uniwersytetu w Zurychu.

Podobne wnioski przedstawiajÄ… w swoim raporcie naukowcy z Georgetown University i Obserwatorium Internetu przy Uniwersytecie Stanforda, którzy po przeanalizowaniu możliwoÅ›ci zastosowaÅ„ SI do szerzenia dezinformacji uważajÄ…, że propaganda z wykorzystaniem algorytmów bÄ™dzie siÄ™ nasilać. Przygotowanie spoÅ‚eczeÅ„stwa do wÅ‚aÅ›ciwego odbioru informacji jest równie ważne, co wspóÅ‚praca miÄ™dzy twórcami SI i platformami mediów spoÅ‚ecznoÅ›ciowych, kontrola dostÄ™pu do sprzÄ™tu i technologii sÅ‚użących do budowy SI czy np. konieczność oznaczania treÅ›ci wygenerowanych przez algorytm.

A to już wiesz?  Szara strefa na rynku tytoniowym jest rekordowo niska. Mimo ciÄ…gÅ‚ego wzrostu akcyzy

– Mamy do czynienia z nadmiernÄ… liczbÄ… informacji, które sÄ… dostÄ™pne dla każdego do oceny, a wÅ›ród nich znajduje siÄ™ sporo faÅ‚szywych informacji. Przy wykorzystaniu sztucznej inteligencji liczba faÅ‚szywych i prawdziwych informacji prawdopodobnie wzroÅ›nie. Nie możemy myÅ›leć, że mamy nad tym kontrolÄ™ – mówi dr Federico Germani. – W czasie pandemii COVID-19 przekonaliÅ›my siÄ™, że cenzura jest narzÄ™dziem, które może zostać wykorzystane do ograniczenia faÅ‚szywych informacji, ale jest to rozwiÄ…zanie majÄ…ce pozytywne skutki w krótkiej perspektywie czasowej. W perspektywie Å›rednio- i dÅ‚ugoterminowej jest ona szkodliwa, prowadzÄ…c na przykÅ‚ad do ograniczonego zaufania wobec instytucji opieki zdrowotnej wydajÄ…cych zalecenia w zakresie zdrowia publicznego do przestrzegania w sytuacji kryzysowej. Dlatego musimy znaleźć inne strategie.

Zdaniem badacza jedynÄ… szansÄ… skutecznej walki z dezinformacjÄ… jest edukacja medialna odbiorców, aby na podstawie okreÅ›lonych cech danej wiadomoÅ›ci mogli ocenić, czy jest ona prawdziwa, czy też nie.

W polskiej infosferze w celu wypracowania standardów walki z dezinformacjÄ… powstaÅ‚ Kodeks Dobrych Praktyk opublikowany przez NASK. Jest on skierowany zarówno do dziennikarzy, osób publicznych, jak i do odbiorców. Zawarte w nim wskazówki pomagajÄ… zrozumieć procesy dezinformacyjne, rozpoznawać szkodliwe treÅ›ci i zapobiegać ich rozpowszechnianiu. 

Artykuly o tym samym temacie, podobne tematy