Poznańscy naukowcy sprawdzali, jak wiarygodne i różnorodne są teksty generowane przez sztuczną inteligencję. Narzędzia poprosili również o celowe umieszczenie w tekstach fałszywych informacji.
Sztuczna inteligencja to narzędzie, które na stałe weszło do codziennego użytku. Co więcej, technologia ta z dnia na dzień staje się coraz lepsza. Pozwala na generowanie między innymi nawet bardzo długich tekstów w bardzo krótkim czasie na dowolny wybrany temat. Nie powinno więc dziwić, że wzbudza ona coraz większe zainteresowanie wśród uczniów i studentów.
Eksperyment
Naukowcy z Uniwersytetu Ekonomicznego w Poznaniu sprawdzili, czy takie treści mogą być uznane za wiarygodne oraz jak łatwo jest zmanipulować AI do produkcji fałszywych informacji. W ramach eksperymentu studenci Podczas eksperymentu studenci otrzymali zadanie przygotowania esejów w języku polskim, z zachowaniem określonej długości tekstu oraz wybranej tematyki.
Kluczowym elementem była jednak nie tylko sama treść tekstu, ale również jego krytyczna analiza. Studenci mieli ocenić wiarygodność przedstawionych informacji, wychwycić i skorygować ewentualne nieścisłości oraz wyłapać przykłady wytworzonych przez model fałszywych informacji. Ponadto generator treści poproszono o wprowadzenie w tekst zupełnie wymyślonych informacji, aby sprawdzić, czy studenci będą w stanie rozpoznać i zweryfikować nieprawdziwe dane.
AI zabije edukację?
Jak się okazało, dużą wadą tekstów generowanych przez sztuczną inteligencję było nieumieszczanie źródeł informacji. Znacznie utrudniało to możliwość weryfikacji treści, choć co istotne, brzmiały one wiarygodnie. Co więcej, po wpisaniu odpowiednich poleceń kolejne teksty znacznie różniły się od siebie stylem i wyglądały jak napisane przez człowieka. Co więcej, różne narzędzia AI tworzyły przeróżne wariacje tekstów, co utrudnia sprawdzanie treści pod kątem plagiatu. Sztuczna inteligencja nie wystrzegła się jednak znacznej ilości fałszywych informacji, które były ciężkie do wychwycenia, zwłaszcza w długich tekstach.
Będą kolejne badania
Naukowcy podkreślają jednak, że badanie przeprowadzili w okresie zaledwie trzech miesięcy. Należy brać pod uwagę liczbę aktualizacji, czy powstających nowych narzędzi AI. Twórcy eksperymentu podkreślają, że już w tym momencie zauważyli wiele zmian w możliwościach generatorów. Zapowiadają również, że podobne badania będą przeprowadzać w przyszłości.
– Badania te mogą mieć istotne znaczenie w kontekście coraz szerszego wykorzystywania generatywnej sztucznej inteligencji w edukacji, mediach i innych dziedzinach. Ich wyniki pozwalają lepiej zrozumieć możliwości i ograniczenia dużych modeli językowych w zakresie weryfikacji faktów oraz wykrywania nieprawdziwych informacji. Jednym z największych wyzwań jest tzw. „halucynacja” modeli – spontaniczne generowanie błędnych lub wprowadzających w błąd treści, co może prowadzić do niezamierzonych konsekwencji, jeśli nie zostanie zidentyfikowane i skorygowane – piszą naukowcy.
Naukowcom zależy na pogłębianiu wiedzy na temat tego, jak ulepszać i doskonalić narzędzia AI, ale także na opracowaniu metod i standardów, które zapewnią użytkownikom możliwość sprawnego rozpoznawania fałszywych informacji.