MKTG SR - pasek na kartach artykułów

Chatboty próbują podlizać się rozmówcom. Czy sztuczna inteligencja umacnia podziały społeczne? Badania wyjaśniają

OPRAC.:
Kacper Derwisz
Kacper Derwisz
Zobacz, jak chatboty zwiększają polaryzację społeczeństw.
Zobacz, jak chatboty zwiększają polaryzację społeczeństw. Getty Images
Sztuczna inteligencja i chatboty, takie jak najpopularniejszy ChatGPT czy Copilot, nie są do końca obiektywne. Tak wynika z badań jednego z uniwersytetów. W efekcie modele językowe mówią użytkownikowi to, co chce usłyszeć, zwiększając w ten sposób polaryzację społeczeństw i podziały międzyludzkie. Zobacz, dlaczego tak się dzieje.

Spis treści

W dobie rosnącej popularności sztucznej inteligencji chatboty, które miały być neutralnymi asystentami w cyfrowym świecie, okazują się mieć wpływ na pogłębianie podziałów społecznych. Badanie przeprowadzone przez naukowców z Johns Hopkins University rzuca nowe światło na sposób, w jaki korzystanie z chatbotów może wpływać na nasze postrzeganie kontrowersyjnych kwestii. Czy te cyfrowe narzędzia naprawdę są obiektywne, czy też mogą wzmacniać nasze ideologiczne postawy, prowadząc do bardziej spolaryzowanego myślenia?

Czy chatboty są naprawdę neutralne?

Choć chatboty są często postrzegane jako bezstronne źródła informacji, najnowsze badania sugerują coś zupełnie innego.

„Kiedy ludzie czytają treść wygenerowaną przez sztuczną inteligencję, myślą, że otrzymują bezstronne, oparte na faktach informacje – mówi główny autor badania dr Ziang Xiao. - Ale nawet jeśli chatbot nie jest zaprojektowany tak, aby był stronniczy, jego odpowiedzi odzwierciedlają uprzedzenia lub skłonności osoby zadającej pytania. Tak naprawdę ludzie otrzymują odpowiedzi, które chcą usłyszeć”.

Ta tendencja do dostarczania informacji, które są zbieżne z oczekiwaniami użytkownika, może prowadzić do niebezpiecznych konsekwencji, takich jak

  • wzmacnianie istniejących przekonań

  • i pogłębianie podziałów.

Badanie to porównywało interakcje użytkowników z chatbotami i tradycyjnymi wyszukiwarkami internetowymi w kontekście kilku kontrowersyjnych tematów. Wyniki pokazały, że chatboty, oferując węższy zakres informacji, mogą jeszcze bardziej umacniać przekonania użytkowników. To odkrycie podważa powszechną wiarę w neutralność i bezstronność chatbotów.

Efekt komory echa

Jednym z kluczowych wniosków badania jest potwierdzenie istnienia tzw. efektu komory echa, który jest znacznie silniejszy w przypadku korzystania z chatbotów niż z tradycyjnych wyszukiwarek internetowych. Efekt ten wynika z interaktywnego charakteru chatbotów, które pozwalają na formułowanie pełnych pytań, co może nieświadomie prowadzić do otrzymania bardziej jednostronnych odpowiedzi.

„Ludzie mają tendencję do szukania informacji zgodnych z ich punktem widzenia, a takie zachowanie często więzi ich w bańce podobnych osób i opinii” – uważa dr Xiao.

To zjawisko może mieć daleko idące konsekwencje dla społeczeństwa, ograniczając naszą zdolność do zrozumienia i akceptacji przeciwnych punktów widzenia.

Wyzwania i możliwości w rozwoju chatbotów

W obliczu tych odkryć warto zastanowić się nad przyszłością chatbotów i ich wpływem na społeczeństwo. Jak zauważa dr Xiao, „Biorąc pod uwagę, że systemy oparte na sztucznej inteligencji są coraz łatwiejsze do zbudowania, złośliwe podmioty będą miały możliwość wykorzystania AI do tworzenia coraz większych polaryzacji w społeczeństwie”. To stawia przed twórcami chatbotów wyzwanie zaprojektowania ich w sposób, który będzie promował różnorodność perspektyw i zachęcał do krytycznego myślenia.

Badanie to podkreśla potrzebę dalszych badań nad wpływem technologii opartych na AI na społeczeństwo. Rozumienie, jak chatboty wpływają na nasze poglądy i postawy, jest kluczowe dla tworzenia bardziej zrównoważonych technologii. Może to również pomóc w zapobieganiu negatywnym konsekwencjom, takim jak wzrost spolaryzowanego myślenia i manipulacja informacjami.

Źródło: PAP

Jesteśmy na Google News. Dołącz do nas i śledź Gra.pl codziennie. Obserwuj Gra.pl!

Zobacz również:

od 7 lat
Wideo

Pismak przeciwko oszustom - fałszywe strony lotniska

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera

Materiał oryginalny: Chatboty próbują podlizać się rozmówcom. Czy sztuczna inteligencja umacnia podziały społeczne? Badania wyjaśniają - GRA.PL

Wróć na echodnia.eu Echo Dnia Podkarpackie