„Redaktor sztuczna inteligencja”. W mediach powstają Białe Księgi użycia AI
ChatGPT to był dopiero początek. Kolejne narzędzia sztucznej inteligencji wchodzą do newsroomów, wspomagając pracę dziennikarzy. Od wydawców wymaga to wprowadzania wewnętrznych kodeksów regulacyjnych. Jedni już takie dokumenty stworzyli, inni jeszcze nad nimi pracują.

„Przepraszam za błąd. Ma Pan rację – mój artykuł był za krótki i zbyt podobny do oryginalnego tekstu. Przygotuję nową, znacznie bardziej rozbudowaną wersję, napisaną całkowicie od podstaw i prostym, zrozumiałym językiem”.
Z tego owocu prawdopodobnej „rozmowy” dziennikarza z narzędziem AI, który trafił do artykułu w jednym z polskich portali internetowych, można się oczywiście zaśmiać. Pokazuje on jednak pewną praktykę.
W newsroomach, zwłaszcza tych internetowych, narzędzia oparte na silnikach sztucznej inteligencji są wykorzystywane na różne sposoby do codziennej pracy. W nieoficjalnych rozmowach dziennikarze przyznają, że narzędzia AI pomagają im w najróżniejszych zadaniach – od tłumaczeń z języka angielskiego, przez analizę dokumentów po poprawki błędów językowych w tekstach.
Zobacz: Clickbaity i sztuczna inteligencja oczami szefów mediów
Pomoc, nie wyręczanie. AI w redakcji
Słowo-klucz to „pomoc”. Problem pojawia się, kiedy dziennikarze, czy to z lenistwa, czy z nadmiaru obowiązków, zaczynają publikować materiały nie napisane samodzielnie, ale przez AI.
By uregulować współpracę z asystentami, kolejne redakcje wprowadzają lub planują wprowadzić kodeksy czy Białe Księgi z zasadami wykorzystywania pracy narzędzi bazujących na sztucznej inteligencji.
Taką Białą Księgę ma już od ponad roku „Rzeczpospolita”. Wydawca prestiżowego tytułu bardzo mocno akcentuje w dokumencie kwestie etycznego i transparentnego użycia technologii w pracy dziennikarskiej, bezpieczeństwa, własności intelektualnej czy ochrony danych wrażliwych.
– Nasze założenie było takie, że dziennikarze mogą i powinni korzystać z rozmaitych narzędzi, które usprawniają ich pracę, ale powinni być świadomi tego, że to oni ponoszą ostatecznie odpowiedzialność, za dzieło, które publikują pod własnym nazwiskiem, dlatego powinni być świadomi ryzyka związanego z korzystaniem z AI, jak również z ciążącej na osobie, która się nią posługuje odpowiedzialności – mówi portalowi Wirtualnemedia Michał Szułdrzyński, redaktor naczelny „Rzeczpospolitej. Dodaje, że redakcja wprowadziła stosowne zapisy „świadomego i etycznego korzystania AI” w umowach z autorami gościnnymi.
„Dekalog etycznego i świadomego wykorzystania AI", wprowadzony przez „Rzeczpospolitą" liczy 10 punktów. Ujęto w nim takie kwestie jak: etyka, bezpieczeństwo, własność intelektualna, transparentność, prywatność i ochrona danych wrażliwych.
Pierwszy punkt kodeksu poświęcony jest rzetelności i wiarygodności dziennikarzy. Czytamy w nim:
„Dziennikarstwo jest specyficzną dziedziną ludzkiej działalności. Sztuczna inteligencja (AI) to zbiorcza nazwa różnych technologii, które są w stanie wesprzeć dziennikarza w jego działalności, ale nie mogą go zastąpić. Wierzymy, że generatywna sztuczna inteligencja może być pomocna w szukaniu tematów, podpowiadaniu fraz kluczowych, ocenie tekstu itp. Redakcja „Rzeczpospolitej” tym różni się jednak od rynku, że gwarantuje jakość i wiarygodność, a to wciąż domena dziennikarzy”.
Kolejny punkt poświęcono świadomości, że AI to tylko narzędzie.
„Jak w przypadku każdego narzędzia ostateczna odpowiedzialność za efekty jego użycia spoczywa na tym, kto je wykorzystuje. Dlatego każdy dziennikarz, redaktor czy pracownik techniczny musi być świadom zarówno korzyści, jak i ryzyk związanych z korzystaniem z AI” – czytamy w kodeksie „Rzeczpospolitej”.
Bardzo ważny punkt dokumentu dotyczy kontekstu dezinformacji. „Już dziś zalew sztucznie generowanego kontentu zwiększa zagrożenie dezinformacją i manipulacją. Trzeba się nauczyć tak wykorzystywać AI, by tym zjawiskom przeciwdziałać, a nie je wzmacniać” - instruuje swoich dziennikarzy “Rzeczpospolita”.
Zobacz: Sprawdzamy, czy wydawcy mają się czego bać. My pytamy, AI Overviews od Google odpowiada
Kolejni wydawcy regulują zasady korzystania z AI
Nad własną „Białą Księgą AI” dla całego pionu wydawniczego i dziennikarzy pracuje Grupa PTWP - prace mają się zakończyć do końca maja.
– Obecnie przeprowadzamy duże wewnętrzne badanie, którego wyniki posłużą nam do przygotowania dokumentu. Dodatkowo planujemy też opracowanie własnych narzędzi opartych o sztuczną inteligencję, które pomogą dziennikarzom i wydawcom w codziennej pracy. Za projekt odpowiada nasza dziennikarka Anna Wittenberg, znakomicie znająca tematykę technologiczną – zdradza nam Paulina Gumowska, dyrektorka wydawnicza Grupy PTWP.
Anna Wittenberg dodaje: – Jako media musimy budować zaufanie czytelników. W dobie AI to najcenniejsze co mamy. Po tych dwóch latach, od kiedy generatywna sztuczna inteligencja na stałe wkroczyła do newsroomów, wiemy już, że z nami zostanie. W PTWP znamy już możliwości AI, zanim jednak zaczniemy ją wdrażać systemowo, chcemy ustalić jasne i przejrzyste zasady, na których będziemy to robić. Obserwując jako dziennikarka wykorzystanie narzędzi AI w innych branżach, widzę dużo zagrożeń. Dlatego wychodzimy od wartości naszej spółki – eksperckości, wiarygodności – i próbujemy umówić się na takie zasady korzystania z AI, które ich nie naruszą. Jasne zasady upewnią pracowników, że spółka nie będzie zastępować AI ich etatów.
Zobacz: Apel europejskich wydawców. Sztuczna inteligencja pasożytuje na prasie?
W Ringier Axel Springer Polska, wydawcy m.in. Onetu i "Newsweeka", zasady dotyczące korzystania z narzędzi AI obowiązują od ponad roku.
– Dedykowany dokument określa odpowiedzialności, podkreśla ryzyka i znaczenie praw autorskich. W redakcjach istnieją również bardziej szczegółowe zasady używania AI, które zostały wypracowane przez redakcje z udziałem działu prawnego oraz przedstawicieli obszaru technologii. Regulują one m.in. użycie narzędzi do generowania obrazów oraz treści – wyjaśnianam Agnieszka Skrzypek-Makowska, zastępca dyrektora komunikacji korporacyjnej w RASP.
Sztuczna inteligencja wspiera redakcje RASP w tworzeniu tytułów i skrótów, w transkrypcji treści wideo i transkrypcji tekstów na audio, tworzeniu quizów, a także do omawianiu i tłumaczeniu tekstów zagranicznych.
Już jedna trzecia treści mediów RASP powstaje z wykorzystaniem narzędzi sztucznej inteligencji, wdrożonych w ekosystemie platformy wydawniczej Ring Publishing (to cms na którym pracuje wydawca Onetu). Odpowiadają one za 27 proc. ruchu - poinformował wydawca na tegorocznym Światowym Kongresie Mediów Informacyjnych w Krakowie.
– Pracownicy RASP, w tym dziennikarze, mają dostęp do szerokich możliwości edukacyjnych w zakresie AI. Na początku 2024 roku powołano inicjatywę – Akademię AI, czyli działania edukacyjne dla pracowników RASP, które pomagają odnajdywać się w rzeczywistości sztucznej inteligencji i świadomego oraz odpowiedzialnego użycia technologii przez dziennikarzy – mówi Agnieszka Skrzypek-Makowska z RASP.
Grupa Wirtualna Polska już w 2023 roku powołała zespół, którego zadaniem było opracowanie zasad korzystania z narzędzi opartych na sztucznej inteligencji.
– Zasady te zostały wpisane do Kodeksu Etyki Dziennikarskiej WP i regulują m.in. odpowiedzialność za publikacje tworzone przy wsparciu AI, konieczność udziału dziennikarza w całym procesie oraz obowiązek zatwierdzania takich materiałów przez wydawcę. Treści wspierane przez AI podlegają tym samym standardom prawnym, etycznym i redakcyjnym co pozostałe publikacje – tłumaczy nam Michał Siegieda, rzecznik WP.
Wirtualna Polska nie publikuje treści stworzonych całkowicie w narzędziach AI. Dziennikarze mogą tylko się nimi wspomagać - zapewnia wydawca.
W Interii nie ma osobnego kodeksu określającego ramy współpracy dziennikarzy z AI. – Narzędzia zaprojektowane na bazie sztucznej inteligencji mogą być i są przydatnymi udogodnieniami w naszej codziennej pracy. Zakres i sposób ich wykorzystania są bardzo dynamiczne. Każdy przypadek traktujemy indywidualnie i omawiamy wewnętrznie w zespole – wyjaśnia Paweł Baryś z działu PR Grupy Polsat - Interia.
Zobacz: Naukowiec punktuje tekst na Onecie za zmyślone przez AI źródła. Tekst znika, portal wyjaśnia
AI i media. Jak pływać, żeby nie utonąć
W dającej się przewidzieć przyszłości era AI w mediach „trwa i trwa mać”. Jednak to nie ChatGPT pojedzie zrobić reportażu wojennego, nie nagłośni sam kolejnej kompromitującej polityka afery, nie dotrze do świadków tragicznego wypadku i z nimi nie porozmawia. Słowem, długo jeszcze mediów w ich podstawowej roli nie zastąpi. Redakcje muszą pamiętać, by we wspomaganiu się AI nie zgubić istoty tego zawodu.
– Posiadanie zbioru zasad korzystania z narzędzi sztucznej inteligencji dla dziennikarzy i redaktorów będzie w mojej ocenie koniecznością dla każdego, kto będzie chciał uchodzić za poważne medium. Potrzeba takich dokumentów, aby sztuczna inteligencja nie zwróciła się przeciwko nam, dziennikarzom. Taka biała księga pozwala unikać kompromitacji w oczach odbiorców i konkurencji – podsumowuje w rozmowie z Wirtualnamedia,pl Anna Wittenberg, dziennikarka technologiczna WNP.pl.
Dołącz do dyskusji: „Redaktor sztuczna inteligencja”. W mediach powstają Białe Księgi użycia AI