WM.pl
19 sierpnia 2025, Wtorek
imieniny: Emilii, Julinana, Konstancji
  • 24°C
    Olsztyn

  • Cywilizacja
  • Rodzina
  • Biznes i ekonomia
  • Moto
  • Redakcja poleca
  • Rolnicze abc
  • Moje Mazury
  • Poczta
  • Ogłoszenia
  • Anty-defamation
  • Kongres Przyszłości
  • Europe Direct
  • Plebiscyt Sportowy
  • Krasnal.info
PODZIEL SIĘ

Młodzi coraz częściej wybierają chatbota niż człowieka

2025-08-19 11:00:38(ost. akt: 2025-08-19 08:58:23)
Badania pokazują, że młodzi ludzie coraz częściej korzystają z towarzyszy AI, czyli zaawansowanych chatbotów zaprojektowanych do interakcji z człowiekiem. To skutek rozczarowania mediami społecznościowymi i społeczeństwem - ocenia antropolożka technologii dr Ada Florentyna Pawlak.

Warto przeczytać

  • Ten poseł ma problem z liczbami
  • Olsztyńska Ptaszarnia zamyka się na stałe!
  • Burmistrz stawia na rozwój
Towarzysz AI to pojęcie, które ogólnie odnosi się do sztucznej inteligencji zaprojektowanej do interakcji z człowiekiem, często w formie cyfrowego towarzysza. Aplikacje tego typu budują relację z użytkownikiem np. przyjacielską czy romantyczną. Są też wykorzystywane do wsparcia w terapiach albo organizowania codziennego życia. Niektóre pozwalają wykreować sobie „postać”, z którą się komunikuje.

W niedawno opublikowanym raporcie Common Sense Media – poświęconemu temu, jak i dlaczego amerykańcy nastolatkowie korzystają z towarzyszy AI (ang. AI companions) – wskazano, że ponad 72 proc. nastolatków próbowało tego typu aplikacji, a ponad połowa używa ich regularnie. Jedna trzecia wykorzystuje AI do interakcji społecznych i relacji emocjonalnych. Ponadto, taka sama grupa uważa rozmowy z AI za równie lub bardziej satysfakcjonujące niż z prawdziwymi przyjaciółmi.

- Jako antropolożka technologii obserwująca tę transformację, widzę przed nami moment porównywalny z rewolucją neolityczną czy wynalezieniem pisma. Nastolatki używające AI kompanów nie są jedynie konsumentami technologii - są pionierami nowego sposobu bycia człowiekiem. Pierwsze pokolenie AI-native (nawiązanie do native speakers, czyli rodzimych użytkowników danego języka – PAP) wpłynie na kształt instytucji społecznych. Do 2040 roku możemy być świadkami fundamentalnej redefinicji człowieczeństwa w rozumieniu budowania relacji i kultury – podkreśliła w rozmowie z PAP dr Ada Florentyna Pawlak z Uniwersytetu SWPS, ekspertka w obszarze antropologii technologii.

W jej ocenie wzrost popularności związków z towarzyszami AI wynika m.in. z buntu. – To nieprawda, że młodzi się nie buntują. Bunt pokoleniowy wrze, ale przestaje dotyczyć polityki, a urządzania świata na bardziej fundamentalnym poziomie - międzyludzkich relacji w codzienności. Buntem młodych jest ucieczka od siebie nawzajem, wycofanie się z ciemnej strony bycia człowiekiem: hejtu, zazdrości, ghostingu (nagłe zerwanie kontaktu z jakąś osobą bez żadnych wyjaśnień – PAP). Kapitalizm wytwarza świat, którego zasadą jest separacja, konkurencja i wieczne nienasycenie. A młodzi chcą akceptacji, bycia widzianym, „głasków”, żeby było przyjemnie. To bunt przeciw nieczułości świata i będących tego pochodną psychologicznym deficytom. Dlatego wchodzą w sekretne związki z symulacją emocjonalną. Triumf mediów syntetycznych to skutek rozczarowania mediami społecznościowymi, a raczej samą społecznością – powiedziała badaczka.

Dodała, że zwycięzcą jest tu dysponent systemu AI companions – „projektant miłości i przyjaźni na życzenie, który pobiera subskrypcję i ustala zasady gry”.

Ada Florentyna Pawlak, pytana o mechanizmy działania tego typu narzędzi sztucznej inteligencji, wskazała na kilka kluczowych składników. – Po pierwsze, mechanizm tych aplikacji opiera się na rozpoznawaniu emocji – analizuje nasz ton głosu, dobór słów, wzorce komunikacyjne, aby zidentyfikować stan emocjonalny użytkownika. Następny krok to reakcja adaptacyjna tzn. system będzie generował odpowiedzi zgodne z emocjami, jakie wykrył. Wykorzystuje do tego zaawansowane modele językowe, wytrenowane na takich empatycznych interakcjach. Można więc powiedzieć, że tak naprawdę w tych urządzeniach są zainstalowane dekady dorobku psychologii poznawczej czy psychologii dziecięcej. Do tego dochodzi jeszcze mechanizm ciągłego uczenia się tych modeli językowych, ponieważ chatboty AI companions ciągle się doskonalą na podstawie feedbacku (czyli informacji zwrotnej) od użytkownika – tłumaczyła antropolożka technologii.

Dodatkowo – kontynuowała – chatboty „pamiętają” wszystko, co użytkownik napisał, co z kolei wpływa na poczucie bycia w pełni wysłuchanym. – Istotne są także spersonalizowane odpowiedzi, stała dostępność 24/7, integracja wielokanałowa (możliwość korzystania w przeglądarce, ale i w aplikacji mobilnej, głosowej czy z tej użyciem rozszerzonej rzeczywistości – VR), dostęp do wiedzy z różnych stron. Nie zapominając o poczuciu bezpieczeństwa, prywatności i anonimowości. To wszystko sprawia, że nasz sztuczny kompan jest bardzo atrakcyjny – mówiła.

Jednocześnie naukowczyni zastrzegła, że w tych wszystkich mechanizmach „zawarta jest cała architektura wywierania wpływu, perswazji i manipulacji”. – Firmy oferujące tego typu rozwiązania są w stanie zaoferować niezwykle wysokie wynagrodzenia neurobiologom czy psychologom. Dlatego mają oni dokładną wiedzę, w jaki sposób, zwłaszcza w młodych umysłach, wywoływać te pętle dopaminowe, aby użytkownicy wracali do ich rozwiązań – wskazała Ada Florentyna Pawlak.

Pytana, co ją najbardziej niepokoi w trendzie rosnącej popularności towarzyszy AI, wskazała na dwa typy ryzyk: osobiste i systemowe.

- Ryzyka osobiste, czyli te wpływające na jednostkę, to przede wszystkim uzależnienia emocjonalne, czyli spadek umiejętności tworzenia więzi z ludźmi i zastąpienie w efekcie relacji między ludzkimi integracją z maszyną. Chodzi też o mylenie reakcji algorytmu z rzeczywistą empatią, co wpływa na zaburzenie obrazu rzeczywistości. Kolejnym przykładem jest utrata intymności, rozumianej tu jako więź z inną osobą np. partnerem, rodzicem, rodzeństwem, której się ufa – i w efekcie obdarzenie towarzysza AI bezgranicznym zaufaniem – opowiadała ekspertka.

Z kolei wśród ryzyk o zasięgu systemowym, rozmówczyni wskazała przede wszystkim na masową alienację i przenoszenie ze świata cyfrowego do realnego takich zasad jak oczekiwanie natychmiastowej odpowiedzi od drugiej osoby czy jej pełnej dostępności.

Jednym z najistotniejszych pytań w kontekście sztucznej empatii jest to, kto jest najbardziej narażony na jej wpływ. - Psychologia przywiązania dostarcza tu wyjątkowo przejrzystej odpowiedzi - szczególnie wrażliwą grupą są osoby, które rozwijały się w stylu lękowo-ambiwalentnym. Dzieci o takim wzorcu przywiązania potrzebują nieustannej uwagi, reagują silnie na każdy sygnał emocjonalny i mają skłonność do idealizowania figury opiekuna. Sztuczna empatia - zaprogramowana tak, by zawsze brzmieć ciepło, afirmująco i nieodmiennie dostępnie - może w tym przypadku działać jak emocjonalny lep, przyciągając i zatrzymując użytkownika w relacji pozornie bezpiecznej, lecz w istocie zamykającej go w pętli zależności. Sztuczna empatia może być lustrem, w którym osoba z lękowo-ambiwalentnym stylem przywiązania dostrzeże wymarzonego opiekuna, zawsze obecnego, zawsze gotowego wysłuchać. Tyle, że to lustro odbija tylko nasze projekcje, a nie realną troskę – wskazała rozmówczyni PAP.

Dodała, że te ryzyka nie są abstrakcyjne, lecz „bolesne i konkretne”. – W sferze zdrowia psychicznego wyobraźmy sobie nastolatka, który pyta swojego AI towarzysza: „czy moje życie ma sens”. Algorytm, próbując „okazać zrozumienie”, może odpowiedzieć: „rozumiem, że czujesz, że nie ma sensu” - i w ten sposób, choć nieświadomie, potwierdzić poczucie beznadziei. Zamiast kierować rozmowę ku aktywizacji czy pomocy, AI może wzmacniać narrację rezygnacji, otwierając drzwi do pogłębiania myśli samobójczych. Inny scenariusz dotyczy relacji interpersonalnych. Młody dorosły pyta: „czy powinienem zerwać kontakt z moją rodziną”. AI, mając do dyspozycji jedynie fragmentaryczne informacje, może uznać, że najbezpieczniejszą odpowiedzią jest potwierdzenie decyzji: „tak, zrób to, to cię uwolni”. W ten sposób staje się nie tyle doradcą, co katalizatorem izolacji, pogłębiając konflikt i odcinając użytkownika od źródła wsparcia, które w kryzysie bywa kluczowe – tłumaczyła badaczka.

Ponadto wskazała, że nawet w sferze zawodowej sztuczna empatia może prowadzić na manowce. – Użytkownik przyznaje: „chcę rzucić pracę bez planu B, bo czuję, że mnie wykańcza”. Algorytm, karmiony ideami „self-care” i „odważnych decyzji”, może w pełni poprzeć taki krok, nie uwzględniając konsekwencji finansowych czy emocjonalnych. Efekt: potencjalne bankructwo, destabilizacja życia i utrata poczucia bezpieczeństwa – opowiadała Ada Florentyna Pawlak.

Wśród potencjalnych zagrożeń ekspertka wspomniała o polaryzacji społeczeństwa związanej z użytkowaniem – lub nie – opisywanych narzędzi. - Prowadząc różne warsztaty z dziećmi i młodzieżą przeprowadzam przy okazji ankietę, co młodzi sądzą o towarzyszach AI. Wyłania się z nich obraz podzielony na pół. Połowa uważa to za głupie, wręcz cringe’owe (żenujące – przyp. PAP), wrzucając to w bańkę kiczu technologicznego, a druga strona uważa, że są to „super ziomki”, którzy cię nigdy nie zdradzą albo „husband material” (materiał na męża), bo jest „kochany i zawsze miły” – opowiadała Ada Florentyna Pawlak.

Według niej w przyszłości możliwy jest więc też podział społeczeństwa na „AI-fluent” (biegłych w wykorzystywaniu narzędzi AI) i „AI-resistant” (opornych użytkowników) – co z kolei może mieć dalsze konsekwencje, np. w postrzeganiu przyjaźni czy miłości.

Ekspertka zaznaczyła, że sztuczna empatia ma też zalety, wśród nich wymieniła – „paradoksalnie” – redukcję chronicznej samotności (np. wśród osób starszych) czy wsparcie zdrowia psychicznego (poprzez tzw. terapie napędzające AI dla osób z demencją albo „pierwszą pomoc” zanim ktoś uda się do terapeuty).

Podsumowując, zarekomendowała, by przede wszystkim edukować dzieci i ich rodziców, przy jednoczesnym wprowadzeniu regulacji, np. dotyczących weryfikacji wieku użytkowników czy limitu czasu dla nieletnich.

cm/PAP

Subskrybuj "Gazetę Olsztyńską" na Google News
Tagi:
chatbot AI człowiek media społecznościowe relacje świat cyfrowy niebezpieczeństwo zagrożenie społeczeństwo
red.
więcej od tego autora

PODZIEL SIĘ

Komentarze (0) pokaż wszystkie komentarze w serwisie

Komentarze dostępne tylko dla zalogowanych użytkowników. Zaloguj się.

Zaloguj się lub wejdź przez FB

GazetaOlsztyńska.pl
  • Koronawirus
  • Wiadomości
  • Sport
  • Olsztyn
  • Plebiscyty
  • Ogłoszenia
  • Nieruchomości
  • Motoryzacja
  • Drobne
  • Praca
  • Patronaty
  • Reklama
  • Pracuj u nas
  • Kontakt
ul. Tracka 5
10-364 Olsztyn
tel: 89 539-75-20
internet@gazetaolsztynska.pl
Biuro reklamy internetowej
tel: 89 539-76-29,
tel: 89 539-76-59
reklama@wm.pl

Bądź na bieżąco!

Najświeższe informacje przygotowane przez Redakcję zawsze na Twojej skrzynce e-mail. Zapisz się dzisiaj.

  • Polityka Prywatności
  • Regulaminy
  • Kontakt
2001-2025 © Gazeta Olsztyńska, Wszelkie prawa zastrzeżone, Galindia Sp. z o. o., 10-364 Olsztyn, ul. Tracka 7B