Dziennikarze i odbiorcy mediów boją się sztucznej inteligencji. Chodzi o weryfikację źródeł informacji
Australijski uniwersytet RMIT opublikował najnowszy raport o wpływie AI na media. Publikacja wykazała, że zarówno dziennikarze jak i odbiorcy mediów są coraz bardziej zaniepokojeni generatywną sztuczną inteligencją w dziennikarstwie. – Obawa o wykorzystanie sztucznej inteligencji do rozpowszechniania wprowadzających w błąd lub zwodniczych treści znalazła się na szczycie listy wyzwań zarówno dla dziennikarzy, jak i odbiorców wiadomości – powiedział dr T.J. Thomson z Uniwersytetu RMIT w Melbourne w Australii.

Jak podaje Wikipedia, generatywna sztuczna inteligencja, analizowana w raporcie, to ogół narzędzi sztucznej inteligencji służących do generowania tekstu, obrazów, filmów i innych danych z wykorzystaniem modeli generatywnych, najczęściej na podstawie podanych przez użytkownika podpowiedzi (promptów).
Podsumowujący trzyletnie badania raport RMIT “Generative AI & Journalism” został opublikowany w ARC Centre of Excellence for Automated Decision-Making a Society.
Główny autor raportu, dr T.J. Thomson z Uniwersytetu RMIT w Melbourne w Australii, powiedział, że najbardziej niepokojący jest potencjał treści generowanych lub edytowanych przez sztuczną inteligencję do wprowadzania w błąd lub oszukiwania.
– Obawa o wykorzystanie sztucznej inteligencji do rozpowszechniania wprowadzających w błąd lub zwodniczych treści znalazła się na szczycie listy wyzwań zarówno dla dziennikarzy, jak i odbiorców wiadomości – powiedział Thomson.
– Stwierdziliśmy, że dziennikarze są słabo przygotowani do identyfikowania treści generowanych lub edytowanych przez sztuczną inteligencję, co pozostawia ich otwartymi na nieświadome przekazywanie takich treści swoim odbiorcom – dodał.
Czytaj więcej: Odbiorcy mediów nie chcą newsów tworzonych przez AI. "Sztuczna inteligencja nas nie wyręczy"
Dzieje się tak m.in. dlatego, że niewiele redakcji ma w swoich zasobach systematyczne procesy weryfikacji materiałów wizualnych, generowanych przez użytkowników.
Większość dziennikarzy, biorących udział w badaniu, nie była świadoma zakresu, w jakim sztuczna inteligencja jest coraz częściej integrowana zarówno z kamerami oraz oprogramowaniem do edycji i przetwarzania obrazu lub wideo.
– Sztuczna inteligencja jest czasami wykorzystywana bez wiedzy dziennikarzy lub serwisów informacyjnych – zaznaczył Thompson.
Podczas gdy tylko jedna czwarta ankietowanych odbiorców wiadomości generowanych przez media uważała, że spotkała się z generatywną sztuczną inteligencją w dziennikarstwie, około połowa nie była pewna lub tylko podejrzewała, że tak było.
– Wskazuje to na potencjalny brak przejrzystości ze strony organizacji informacyjnych, gdy korzystają one z generatywnej sztucznej inteligencji lub na brak zaufania pomiędzy serwisami informacyjnymi a odbiorcami – powiedział Thomson.
Czytaj więcej: Sztuczna inteligencja w mediach. Co czeka redakcje?
Okazało się, że odbiorcy wiadomości generowanych przez dziennikarzy korzystających ze sztucznej inteligencji, czują się z tym bardziej komfortowo wtedy, gdy sami używają jej do podobnych celów, takich jak np. rozmycie części obrazu.
– Ludzie, z którymi rozmawialiśmy, wspominali, że używali podobnych narzędzi podczas korzystania z aplikacji do wideokonferencji lub podczas korzystania z trybu portretowego na smartfonach – wyjaśnił Thomson.
Thomson powiedział, że zarówno odbiorcy wiadomości, jak i dziennikarze byli ogólnie zaniepokojeni tym, w jaki sposób organizacje informacyjne wykorzystują - i mogą wykorzystywać - generatywną sztuczną inteligencję.
– Większość naszych uczestników czułaby się komfortowo, używając sztucznej inteligencji w celu stworzenia ikon do infografiki, ale już dość niekomfortowo z pomysłem awatara sztucznej inteligencji prezentującego na przykład wiadomości – powiedział.
Czytaj więcej: Czy AI zabija krytyczne myślenie? "Bezmyślnie formułowanie promptów to plaga"
Badania nad generatywną sztuczną inteligencją zidentyfikowały również faworyzowanie środowisk miejskich nad pozamiejskimi, rzadsze pokazywanie kobiet w bardziej wyspecjalizowanych rolach i ignorowanie osób niepełnosprawnych.
– Te uprzedzenia istnieją z powodu ludzkich uprzedzeń osadzonych w danych szkoleniowych i/lub świadomych lub nieświadomych uprzedzeń tych, którzy opracowują algorytmy i modele sztucznej inteligencji – powiedział Thomson.
Jednak nie wszystkie narzędzia AI są sobie równe. Badanie wykazało, że narzędzia, które wyjaśniają swoje decyzje, ujawniają swoje materiały źródłowe i zapewniają przejrzystość wyników dotyczących ich wykorzystania, są mniej ryzykowne dla dziennikarzy w porównaniu z narzędziami, które nie mają tych cech.
Dziennikarze i odbiorcy obawiali się również, że generatywna sztuczna inteligencja zastąpi ludzi w redakcjach, prowadząc do zmniejszenia liczby miejsc pracy w branży.
– Obawy te odzwierciedlają długą historię wpływu technologii na ludzką siłę roboczą w branży dziennikarskiej – powiedział Thompson.

Newsletter







Sales&More i Bank Pekao S.A. wkraczają do gry! Sukces kampanii „Jak nie teraz, to kiedy… wbijesz na wyższy level?”
Serwisy społecznościowe, których już nie ma. Czego nas nauczyły?
Będzie wielki powrót do „Szkła kontaktowego”?
Filip Chajzer ponownie w „Dzień Dobry TVN”. Kolejne powroty na jubileusz programu
Całodobowy kanał poświęcony Smerfom już nadaje po polsku 
Dołącz do dyskusji: Dziennikarze i odbiorcy mediów boją się sztucznej inteligencji. Chodzi o weryfikację źródeł informacji
Miało być: powiedział (cytat w cudzysłowie). Czytasz jakiś tekst i napotykasz na kilka z powyższych wyrazów albo większą ich liczbę. W porządku, zapominasz o sprawie. Ale w innym miejscu znów trafiasz na te akurat słowa, co już normalnym raczej nie jest. Do tego dochodzą często powtórzenia tych słów w jednym tekście. Sięgasz jeszcze gdzie indziej po jeszcze inny tekst i znów widzisz: zanurzyć się, głębia, twórcy, eksplorować itd.