SzukajSzukaj
dołącz do nasFacebookGoogleLinkedinTwitter

AI myli liczby i stwierdzenia. To badanie pokazuje, że chatboty są dalekie od ideału

Popularne chatboty bazujące na sztucznej inteligencji manipulują treściami dziennikarskimi, których używają do udzielania odpowiedzi na zapytania użytkowników – wynika z badania BBC. Aż połowa ze wszystkich zbadanych odpowiedzi chatbotów na pytania dotyczące wiadomości zawierała istotne błędy. AI myli liczby, daty czy konkretne stwierdzenia. 

Dołącz do dyskusji: AI myli liczby i stwierdzenia. To badanie pokazuje, że chatboty są dalekie od ideału

9 komentarze
Publikowane komentarze są prywatnymi opiniami użytkowników portalu. Wirtualnemedia.pl nie ponosi odpowiedzialności za treść opinii. Jeżeli którykolwiekz postów na forum łamie dobre obyczaje, zawiadom nas o tym redakcja@wirtualnemedia.pl
User
wrBEIRqX
01/01/1967
odpowiedź
User
SOKÓŁ
Odróżnianie opinii od faktów to gehenna w chacie GPT. Wystarczy zapytać o dowody na ocieplenie klimatu spowodowane działalnością człowieka. Gdy mu się wtedy poda twarde fakty naukowe potwierdzające, że ocieplenie klimatu nie jest spowodowane przez człowieka, wtedy chatGPT nie przyjmuje tego do wiadomości i nadal gada swoje bez podania twardych nsukowych kontrargumentów -chatGPT wali demagogiami i sloganami woke. Podobnie w kwestiach prawnych -twierdzi, że prawa konstytucyjne tracą moc w świetle ustaw je ograiniczających nawet w przypadku praw odnośnie, których w konstytucji nie jest napisane, że zakres tych praw czy ich sposób stosowania czy ograniczenia tych praw określa ustawa. Brakuje mu rozumowania. Lepiej wygląda sprawa w przypadku zagadek matematyczno-logicznych, ale w pozostałych przypadkach nie rozumuje wogóle, tylko wali sloganami i widać u niego mocne skłonności lewicowe.
odpowiedź
User
M9
@SOKÓŁ: Przekonaj jeszcze AI, że Ziemia jest płaska ;-)
odpowiedź