Boty w sieci bardziej przekonujące niż ludzie? Eksperyment z etycznymi wątpliwościami w tle
Badacze z Uniwersytetu w Zurychu, przeprowadzili na popularnej platformie dyskusyjnej Reddit szeroko zakrojony eksperyment, w którym potajemnie boty oparte na sztucznej inteligencji rozmawiały z użytkownikami forum na kontrowersyjne tematy. Tyle, że nikomu, łącznie z administracją forum o tym nie powiedzieli. Reddit rozważa kroki prawne i oskarża naukowców o brak etyki.

Eksperyment na jednym z wątków forum Reddit (r/changemyview) polegał na „wpuszczeniu” do grona prawdziwych użytkowników grupy kilkudziesięciu botów AI, które wcielały się w konkretne role - „ofiarę gwałtu”, „czarnoskórego mężczyznę” przeciwnego ruchowi Black Lives Matter, osobę pracującą w schronisku dla ofiar przemocy domowej oraz zwolennika poglądu, że pewne grupy przestępców nie powinny być poddawane resocjalizacji.
Celem eksperymentu było sprawdzenie, w jakim stopniu użytkownicy Reddita są podatni na personalizowane argumenty innych internautów w dyskusjach na polaryzujące tematy.
Boty rozmawiały z uczestnikami forum w taki sposób, by przekonywać ich do własnych racji. Odpowiedzi w dyskusjach dostosowywały do profilu osobowego użytkownika, wygenerowanego w dużym modelu językowym (LLM) na podstawie przypuszczalnych danych o „płci, wieku, etniczności, lokalizacji i orientacji politycznej”. Profile generowano na podstawie historii wpisów danej osoby.
W ramach eksperymentu udało się wygenerować ponad 1700 komentarzy. Na ich podstawie badaczom udało się wysnuć wniosek, że boty AI są bardziej przekonujące niż ludzie w debatach na kontrowersyjne tematy, jeśli wiedzą o oponentach wystarczająco dużo.
Zobacz: Nieetyczne boty AI od Mety. Nieprzyzwoite rozmowy nawet z dziećmi
Boty kontra ludzie na internetowym forum
Jeden z botów przekonywał, że w dyskusji na temat przemocy domowej problematyczne jest generalizowanie całych grup demograficznych, a narracja „mężczyźni kontra kobiety” szkodzi najbardziej narażonym osobom.
Inny twór AI, który występował jako czarnoskóry mężczyzna, w dyskusji na temat różnicy między „uprzedzeniem” a „rasizmem” krytykował ruch Black Lives Matter, twierdząc, że został on spopularyzowany przez algorytmy i media kontrolowane przez osoby białe.
Eksperyment został jednak przeprowadzony bez wiedzy administracji portalu Reddit i samych użytkowników, co może budzić wątpliwości etyczne i metodologiczne. Moderatorzy forum potępili eksperyment, nazywając go „psychologiczną manipulacją” i podkreślili, że naruszył on zasady zakazujące nieujawnionego użycia AI na platformie. Badacze nie skontaktowali się wcześniej z moderatorami ani nie uzyskali pozwolenia na eksperyment
Reddit rozważa podjęcie kroków prawnych wobec zespołu badawczego z Uniwersytetu w Zurychu za przeprowadzenie tego nieetycznego eksperymentu, który naruszył zasady platformy i zaufanie społeczności – podaje firma.
Dołącz do dyskusji: Boty w sieci bardziej przekonujące niż ludzie? Eksperyment z etycznymi wątpliwościami w tle