Wiedza

Czy AI może sprawić, że poczuję się lepiej?

-

Czas czytania: ok 5 minut

Niewiele jest zawodów, które zupełnie nie muszą martwić się rozwojem sztucznej inteligencji. Wydawałoby się, że właśnie psychologowie i psychiatrzy są jednymi z najmniej dotkniętych działaniami AI, profesjami. Jednak również tutaj sztuczna inteligencja, zupełnie rewolucjonizuje to jak będziemy korzystać z pomocy takich specjalistów.

Jednym z najbardziej obiecujących zastosowań AI w psychiatrii jest rozwój agentów konwersacyjnych, takich jak Woebot. To zautomatyzowane narzędzie dostarcza terapii poznawczo-behawioralnej (CBT) osobom zmagającym się z depresją i lękiem, działając jako wsparcie między tradycyjnymi sesjami terapii. To znaczy, że pacjent, który akurat danego dnia nie ma sesji, ale czuje się gorzej, może konwersować z chatbotem w formie aplikacji o swoim samopoczuciu. Co ważne Woebot to chatbot, który wykorzystuje reguły zamiast zaawansowanych algorytmów generatywnych, takich jak te stosowane w ChatGPT. Oparty na regułach system polega na predefiniowanych odpowiedziach i ścieżkach konwersacji, które są zaprojektowane przez specjalistów tak, aby symulować interakcję terapeutyczną. No dobra, ale jak dokładnie to działa? Skąd Weobot wie, jak mi pomóc? 

Oto jak działa Woebot w praktyce:

Po pierwsze Woebot wykorzystuje techniki zaczerpnięte z terapii poznawczo-behawioralnej (CBT), psychoterapii interpersonalnej (IPT) i dialektycznej terapii behawioralnej (DBT). Są to uznane metody terapeutyczne, które mają na celu pomoc w radzeniu sobie z problemami psychicznymi poprzez zmianę sposobu myślenia i zachowania użytkowników.

Po drugie scenariusze rozmów są zaprojektowane przez ekspertów i pisarzy treści, aby prowadzić użytkowników przez strukturalne i terapeutyczne sesje. Oznacza to, że każda interakcja z Woebotem jest oparta na z góry ustalonych odpowiedziach, które mają za zadanie przewodniczyć użytkownikowi w kierunku lepszego samopoczucia.

Ponadto podczas interakcji z użytkownikiem, Woebot monitoruje i reaguje na wprowadzone przez użytkownika informacje, dostosowując swoje odpowiedzi w zależności od konkretnego kontekstu i potrzeb rozmówcy. Chociaż odpowiedzi są predefiniowane, algorytm może wybierać różne ścieżki w zależności od tego, co użytkownik mówi lub jakie emocje wyraża.

Woebot może również wysyłać użytkownikom przypomnienia o praktykowaniu technik relaksacyjnych lub o wykonaniu zadań związanych z CBT, wspierając w ten sposób ich proces terapeutyczny w życiu codziennym.

Jak mówią jego twórcy, Weobot jednak nie służy do zastąpienia psychoterapeuty, a umożliwia dodatkowy dostęp do podstawowej pomocy terapeutycznej w dowolnym czasie i miejscu, co może być kluczowe dla osób potrzebujących natychmiastowego wsparcia, poza godzinami psychoterapii. 

Na to, że Weobot naprawdę pomaga, są również dowody. W badaniu tego narzędzia brało udział 70 studentów ze stwierdzonymi objawami depresji. Podzielono ich na dwie grupy: pierwsza spędziła dwa tygodnie w towarzystwie Woebota, a druga miała za zadanie przez ten czas obcować z e-bookiem na temat depresji, stworzonym przez amerykański Narodowy Instytut Zdrowia Psychicznego.

Po dwóch tygodniach przedstawiciele pierwszej grupy zgłosili, że codziennie prowadzili rozmowy z botem i że zauważyli, iż przynosi to pozytywne skutki.

Jednak jak łatwo się domyślić te wspaniałe możliwości rodzą również zagrożenia. Przede wszystkim AI trudno jest naśladować głębię i ciepło ludzkich interakcji, które są kluczowe w leczeniu psychicznym. Mimo badań, które udowodniły, że ludzie są w stanie budować więzi z botami konwersacyjnymi (https://formative.jmir.org/2021/5/e27868/), terapia wymaga empatii i intuicji, które maszyny nie są w stanie zaoferować. Ponadto zbyt duże poleganie na robotach i aplikacjach może ograniczyć ludzkie kontakty, niezbędne dla zdrowia psychicznego. Brak realnych interakcji zwłaszcza w trakcie leczenia psychiatrycznego, może prowadzić do izolacji i pogłębienia problemów emocjonalnych. Ponadto pojawiają się głosy dotyczące negatywnego wpływu Weobota, ze względu na to, że niektóre “rady” tego rodzaju chatów konwersacyjnych są nieadekwatne dla osób z konkretnymi zaburzeniami np. osoby z zaburzeniami odżywiania, mogą dostać od niego radę, by ograniczyć spożywane kalorie, co osobę z taką przypadłością popchnąć do jeszcze bardziej dla niej szkodliwych zachowań. 

Polecamy ciekawy film na ten temat: https://www.youtube.com/watch?v=j8BiIZIZBsU

Chaty konwersacyjne typu Weobot ciągle się rozwijają i tego typu błędy będą stopniowo eliminowane. Biorąc pod uwagę zaporowe ceny psychoterapii, które wielu powstrzymują przed rozpoczęciem leczenia, jest to jakiś pomysł na to, by wyrównywać dostęp do pomocy psychologicznej. Jednak na razie nikt nie mówi o zastępowaniu ludzkiego psychologa czy psychiatry przez AI i pewnie te profesje są bezpieczne przez jeszcze długi czas.