Zjawisko masowej produkcji treści przez algorytmy sztucznej inteligencji zaczyna wpływać na świat nauki w sposób trudny do kontrolowania. Jak wskazuje The Conversation, lawina generowanych przez AI artykułów i badań o niskiej jakości osłabia zaufanie do naukowych źródeł i utrudnia weryfikację prawdziwych wyników, pisze Bytow24.
Według ekspertów tempo, w jakim systemy sztucznej inteligencji tworzą teksty, przekracza możliwości ludzkiej oceny. W efekcie pojawia się coraz więcej publikacji pozbawionych rzetelnych danych, które jednak zyskują pozory naukowości. To zjawisko określane jest mianem „AI slop” – naukowego szumu generowanego masowo bez kontroli jakości.
Lawina sztucznie tworzonych badań
Autorzy badania zwracają uwagę, że tysiące generowanych przez AI artykułów trafiają do czasopism naukowych każdego miesiąca. Część z nich powstaje bez udziału człowieka, a niektóre nawet zawierają fałszywe dane i zmyślone źródła.
„Wzrost liczby fałszywych badań powoduje, że naukowcy tracą zaufanie do literatury, na której powinni opierać swoje odkrycia” – podkreślono w analizie.
Brak skutecznych mechanizmów weryfikacji powoduje, że redakcje i recenzenci nie nadążają za tempem publikacji. To z kolei prowadzi do spadku jakości naukowej i zacierania granic między prawdą a fikcją.
Automatyzacja recenzji i jej skutki
Sztuczna inteligencja nie tylko tworzy teksty, ale zaczyna być używana również do ich recenzowania. W teorii ma to przyspieszyć proces publikacji, lecz w praktyce prowadzi do błędów i przepuszczania nieprawdziwych wyników.
„Automatyzacja recenzji oznacza, że teksty oceniane są przez modele uczące się na tych samych błędnych danych” – zaznacza autor badania.
W rezultacie nauka wchodzi w błędne koło, w którym generowane treści są następnie oceniane przez te same systemy, które je stworzyły. To powoduje utratę różnorodności opinii i pogłębienie problemu dezinformacji w nauce.
Skutki dla badań i edukacji
Zjawisko „AI slop” ma wpływ nie tylko na naukowców, ale i na studentów oraz wykładowców korzystających z internetowych źródeł wiedzy. Wiele tekstów oznaczonych jako naukowe powiela błędne dane, wprowadzając w błąd młodych badaczy.
W dłuższej perspektywie może to doprowadzić do zniekształcenia procesu nauczania i utraty wiarygodności uczelni. Problemem staje się również plagiatowanie – teksty generowane przez AI często nie mają jasno określonych autorów, co utrudnia egzekwowanie zasad etyki naukowej.
Jak ograniczyć szum informacyjny
Eksperci zalecają, by czasopisma naukowe wdrażały ścisłe zasady weryfikacji treści i jasno oznaczały materiały tworzone z pomocą sztucznej inteligencji. Coraz częściej pojawiają się też inicjatywy promujące „otwartą weryfikację”, gdzie czytelnicy mogą sprawdzać dane źródłowe i proces powstawania publikacji.
Proponowane rozwiązania obejmują:
- tworzenie baz danych z potwierdzonymi publikacjami,
- obowiązkowe ujawnianie udziału AI w tworzeniu tekstów,
- zwiększenie roli recenzentów-ludzi w procesie oceny.
To jedyny sposób, by przywrócić nauce zaufanie i zapobiec dalszemu rozprzestrzenianiu się dezinformacji w środowisku badawczym.
Przypomnijmy, że pisaliśmy już o tym, gdzie kupić grę S.T.A.L.K.E.R. w wersji planszowej oraz jakie są tryby rozgrywki i ceny.