SzukajSzukaj
dołącz do nas Facebook Google Linkedin Twitter

Czy AI zabija krytyczne myślenie? "Bezmyślnie formułowanie promptów to plaga"

Nieumiejętne korzystanie ze sztucznej inteligencji może osłabiać zdolność krytycznego myślenia - wynika z raportu opublikowanego przez Microsoft i Carnegie Mellon. Jednocześnie świadome korzystanie z tych narzędzi pomaga w osiąganiu bardzo dobrych rezultatów. - Żeby móc dobrze ocenić jakość pracy sztucznej inteligencji i wyników, które nam dostarcza, trzeba być ekspertem w danej dziedzinie - ocenia ekspertka. 
 

Raport “The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers” wskazuje na wpływ korzystania ze sztucznej inteligencji na zdolności poznawcze w miejscu pracy. 

Badacze przeanalizowali 900 przypadków zastosowania AI przez pracowników kognitywnych. Jak się okazało, osoby bezgranicznie ufające sztucznej inteligencji wykazały tendencję do ograniczania krytycznego myślenia.  

– Z wykorzystaniem narzędzi opartych na sztucznej inteligencji jest podobnie jak w przypadku samego internetu, bez którego część osób nie wyobraża sobie życia i wykorzystuje go do pozyskania wiedzy, dzielenia się nią, komunikacji, natomiast inne osoby korzystają z internetu w niecnych, przemocowych czy niezgodnych z prawem celach – mówi Wirtualnemedia.pl Marta Pawlak-Dobrzańska, people analytics expert w Great Digital, wykładowczyni na Akademii im. Leona Koźmińskiego na studiach podyplomowych „AI w HR”.

Pawlak-Dobrzańska dodaje: - Różnica polega na tym, że w przypadku sztucznej inteligencji, potrzeba ułatwienia sobie życia jest tak duża, że niektórzy tracą zdrowy rozsądek. I tutaj pojawia się brak krytycznego myślenia, gdy np. komuś wydaje się, że może bez żadnej selekcji wykorzystywać informacje pozyskane z czatów. Widać to chociażby w przestrzeni mediów społecznościowych, gdzie wielu użytkowników publikuje posty wygenerowane przez AI, które brzmią sztucznie, nienaturalnie, a ludzie i tak je publikują. 

Autorefleksja niezbędna?

To od użytkownika zależy czy poda autorefleksji treści przekazane mu przez sztuczną inteligencję.

Korzystając ze sztucznej inteligencji, to my podejmujemy decyzję, czy analizujemy przekazane nam dane, czy interpretacja przekazana przez AI jest słuszna. Niestety są osoby, które z lenistwa, braku wiedzy, braku poczucia odpowiedzialności za przekazywane informacje, korzystają z tego typu czatów, generując gotowce, których nie poddają analizie, co jest ograniczeniem krytycznego myślenia. Czyli ‘my nie myślimy, myśli AI, a my zakładamy, że AI myśli poprawnie’ – mówi Wirtualnemedia.pl Magdalena Urbańska, prezes w Pionierzy Przyszłości - Instytut Rozwoju Zawodowego.

Czytaj więcej: „Dziennik Gazeta Prawna” korzysta z AI do korekty

Krytyczne myślenie, czyli podawanie w wątpliwość informacji przekazywanych przez sztuczną inteligencję jest kluczowe, ponieważ AI dysponuje szerokim zakresem wiedzy, w tym nierzetelnymi, fałszywymi informacjami.  

Niektóre modele AI zaciągają wiedzę ze wszystkich dostępnych źródeł, inne znów nie aktualizują wiedzy na bieżąco, dlatego gdy zadamy im prompt (pytanie), są w stanie powiedzieć nam wszystko, niekoniecznie prawdę i tutaj można dopatrywać się problemu. Trzeba pamiętać, że AI halucynuje i to bez względu na model, z którego korzystamy – zauważa Urbańska.  

Problemu można upatrywać już na samym wstępnie przygody z czatami opartymi o AI, czyli na zadawaniu właściwych promptów. Jak się okazuje, umiejętna rozmowa z czatem to prawdziwa sztuka.  

– Bezmyślnie formułowanie promptów to plaga. Prawie nikt nie potrafi odpowiednio rozmawiać z czatem, ludzie nie mają tej umiejętności, świadomości. Zresztą też nie jest tak, że mamy jeden wzorzec promptów, dający gwarancję pozyskania dobrych odpowiedzi. Prompty zmieniają się na bieżąco. Można powiedzieć, że wprowadzone dane do AI nie zasilają modeli AI, ale wpływają na konkretne odpowiedzi. Nieodpowiedni prompt skutkuje halucynacją, czyli błędną odpowiedzią, dlatego musimy być ekspertami w danej dziedzinie, aby dokładnie zweryfikować poprawność odpowiedzi, ponieważ AI może generować informacje, które wydają się wiarygodne, ale nie zawsze są precyzyjne lub prawdziwe – stwierdza Urbańska.  

Czytaj więcej: DoubleVerify będzie chronić marki przed treściami niskiej jakości generowanymi przez AI

AI w służbie ekspertom?

To właśnie wiedza z zakresu danej dziedziny i idące za nią krytyczne myślenie, mogą uchronić użytkowników AI przed konsumowaniem i powielaniem błędnych treści.  

Żeby móc dobrze ocenić jakość pracy sztucznej inteligencji i wyników które nam dostarcza, trzeba być ekspertem w danej dziedzinie. W przypadku posiadania dużego doświadczenia, jesteśmy w stanie ocenić, czy informacje przekazane przez AI są rzetelne. Brak wiedzy z danego zakresu powoduje, że nie mamy refleksji, nie widzimy błędów, nieścisłości, nie potrafimy odpowiednio zinterpretować wyników. Im wyższy poziom zaawansowania w danym obszarze, tym większa umiejętność krytycznego spojrzenia na odpowiedzi przygotowane przez sztuczną inteligencję – ocenia Pawlak-Dobrzańska.

Korzystanie z narzędzi AI w ramach dziedziny, w której nie posiadamy ugruntowanej wiedzy, a tym samym brak krytycznego myślenia, może nieść za sobą wiele zagrożeń.  

– W przypadku AI często mamy do czynienia z efektem bańki informacyjnej. AI personalizuje treści na podstawie wcześniejszych interakcji użytkownika, jego preferencji czy przekonań, czyli jeżeli poszukiwaliśmy wcześniej treści np. prawicowych, czytaliśmy tego typu artykuły, to potem pytając AI np. o in vitro, istnieje ryzyko, że jego odpowiedzi będą odzwierciedlały te poglądy i otrzymamy informacje negatywne na ten temat. Czyli nie otrzymamy kontrargumentów na korzyść tej metody, ograniczając w ten sposób różnorodność informacji – zauważa Urbańska.  

Kolejnego zagrożenia Urbańska upatruje w iluzji wiedzy, kiedy to użytkownicy wychodzą z założenia, że nie ma sensu poświęcać czasu i energii na naukę, skoro AI zna odpowiedzi na wszystkie pytania i w każdej chwili możemy po nie sięgnąć.  

AI tak naprawdę przekaże użytkownikowi to co ma w bazie, czyli być może błędne przekonania czy informacje – wyjaśnia.

AI - zagrożenia

Adam Przeździęk, analityk trendów, współzałożyciel studia forecastingowego FutureOf X, jest najbardziej zaniepokojony potencjalnym długoterminowym wpływem AI na zdolności innowacyjne i umiejętność rozwiązywania problemów:  

– Gdy widzę, że wykorzystanie AI prowadzi do mniej zróżnicowanych rezultatów dla podobnych zadań, dostrzegam realne zagrożenie dla naszej zbiorowej zdolności do zachowania elastyczności poznawczej i kreatywnego myślenia w miejscu pracy. Ryzykujemy stworzeniem pętli zależności od AI - gdzie zwiększone poleganie na narzędziach AI dodatkowo osłabia nasze zdolności krytycznego myślenia, prowadząc do jeszcze większego uzależnienia od tych narzędzi – wyjaśnia.  

Jak zaznacza Przeździęk, raport wskazuje także, że badani pracownicy korzystający z pomocy narzędzi AI podczas wykonywanych zadań, dostrzegali spadek wysiłku intelektualnego:

– Wyniki badania Microsoft-Carnegie Mellon postrzegam za równie fascynujące, co niepokojące. Szczególną uwagę zwraca znaczące zmniejszenie postrzeganego wysiłku we wszystkich aktywnościach poznawczych realizowanych przy asyście narzędzi AI. To, że pracownicy raportują tak znaczące obniżenie wysiłku intelektualnego w kluczowych dla ich pracy kwestiach, musi skłaniać nas do głębszej refleksji - mówi dla Wirtualnemedia.pl Adam Przeździęk, analityk trendów, współzałożyciel studia forecastingowego FutureOf X – zauważa.

Biorąc pod uwagę, że część użytkowników wykazuje się brakiem krytycznego myślenia podczas korzystania z narzędzi AI, warto zastanowić się, jak może wyglądać wprowadzenie tych narzędzi do organizacji?

– W przypadku wprowadzania narzędzi AI do organizacji, wiele zależy od tego, jakich mamy pracowników na pokładzie. Jeżeli mamy wysokiej klasy specjalistów w różnych dziedzinach, będą potrafili oni optymalnie wykorzystać narzędzia AI. Te narzędzia zoptymalizują ich pracę i zwiększą ich efektywność – analizuje Pawlak-Dobrzańska.

Jak dodaje, w gorszej sytuacji będą pracownicy bezkrytycznie konsumujący treści generowane przez AI:  

- Natomiast osoby, które wykonują proste, generyczne prace, bezkrytycznie wykorzystując przy tym informacje generowane przez AI, narażone są niestety na zastąpienie przez AI. Mówiąc wprost, jeśli nie jesteś w zdanie nic dodać do tego, co proponuje AI, możesz okazać się zbędny. Reasumując, sztuczna inteligencja potrafi wesprzeć ekspertów i wynieść ich kilka poziomów wyżej, natomiast „średniaków”, którzy podchodzą do niej bezkrytycznie niestety ogłupia”.

Czytaj więcej: Publicis Groupe będzie szkolić w Polsce pracowników z AI

Wyzwania sztucznej inteligencji

Jak zauważa Przeździęk, choć AI niewątpliwie oferuje wzrost efektywności, stajemy przed krytycznym wyzwaniem, które można określić jako “outsourcing poznawczy”:

– Badanie potwierdza moje obserwacje - rosnące uzależnienie od AI nie tylko zmienia sposób naszej pracy, ale fundamentalnie przekształca nasze procesy myślowe. Zidentyfikowany w badaniu paradoks automatyzacji - gdzie automatyzacja rutynowych zadań faktycznie pozostawia nas mniej przygotowanych na sytuacje wyjątkowe - idealnie współgra z tym, co zaczynam obserwować w środowisku organizacyjnym – wnioskuje.  

Urbańska rozwiązań upatruje w odpowiedniej edukacji technologicznej i to od najmłodszych lat:

– Narzędzia AI na ten moment pozwalają laikowi wygenerować przeróżne treści, grafiki, filmy etc., zawierające mnóstwo błędów i fake newsów, które użytkownik może podawać dalej. Dlatego tak ważna jest edukacja z zakresu obsługi tych narzędzi oraz konsumpcji treści generowanych przez AI. Przede wszystkim nie możemy bezkrytycznie ufać odpowiedziom AI, należy weryfikować źródła tych informacji, podawać je w wątpliwość oraz nie ufać temu, co krąży po sieci. W aktualnych czasach powiedzenie “jak nie zobaczę, to nie uwierzę” nie ma najmniejszego znaczenia, bo nie wystarczy zobaczyć, należy to zweryfikować – pointuje. 

Urbańska dodaje: - Sztuczna inteligencja ma potencjał poprawić jakość życia w wielu dziedzinach, takich jak opieka zdrowotna, edukacja i transport. Przykłady to wspieranie diagnoz medycznych, personalizacja nauczania oraz automatyzacja procesów. AI przetwarza dane szybciej i dostarcza spersonalizowane rozwiązania. Właściwie wykorzystywana AI może wspierać rozwiązywanie problemów i tworzenie innowacji. Jednakże skuteczność AI zależy od odpowiedzialnego użytkowania oraz umiejętności weryfikacji informacji”. 

Dołącz do dyskusji: Czy AI zabija krytyczne myślenie? "Bezmyślnie formułowanie promptów to plaga"

8 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiek z postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
ejaj
Pormułowanie _promtów_ zabija krytyczne myślenie. Widać po tytule
6 3
odpowiedź
User
Aiajajaj
Umówmy się, do AI siadają przede wszystkim osoby, którym wydaje się, że znalazły drogę na skróty do umiejętności, których nie posiadają. W efekcie nie są i nie będą w stanie zweryfikować poprawności tego, co otrzymują, bo nie mają jak. Powstaje program lub strona Internetowa, ale w środku może zawierać cokolwiek, bo osoba, która zleciła to promptem nie będzie w stanie tego ocenić. Błędy bezpieczeństwa, wady wpływające na wydajność itp. itd. Trudno też później jakkolwiek coś takiego rozwijać. AI nie jest jeszcze na takim poziomie, aby dostarczać bezbłędne i zawsze wiarygodne rozwiązania dowolnych problemów i albo się wie jak to zweryfikować, albo nie i sukcesy osiągane w ten sposób stoją na glinianych nogach.
9 0
odpowiedź
User
Tokyo
Uwielbiam czytać wielokrotne powtórzenia słowa GŁĘBIA w tekstach pisanych przez AI.
3 0
odpowiedź