Czy ludzie są gotowi, by leczył ich ChatGPT?
Obecny przekrój mobilnych aplikacji do leczenia zdrowia psychicznego jest wynikiem 70-letnich poszukiwań automatyzacji terapii. Teraz zaawansowane programy AI stawiają nowe pytania etyczne.
Od 2015 roku Koko, mobilna aplikacja do leczenia zdrowia psychicznego, stara się zapewnić wsparcie dla potrzebujących. Wyślij SMS-a, aby powiedzieć, że czujesz się winny z powodu problemu z pracą, a za kilka minut otrzymasz empatyczną odpowiedź wraz z sugestiami pozytywnych strategii poradzenia sobie z daną sytuacją.
Aplikacja może również poprosić Cię o zareagowanie na trudną sytuację innej osoby podczas oczekiwania. Aby pomóc w tym zadaniu, asystent o imieniu Kokobot może zasugerować kilka podstawowych odpowiedzi, na przykład „Ja również przez to przechodziłem”.
Niemniej w październiku ubiegłego roku niektórzy użytkownicy aplikacji Koko otrzymali możliwość otrzymywania znacznie bardziej kompletnych sugestii od Kokobota. Te rekomendacje zostały poprzedzone zrzeczeniem się odpowiedzialności, komentuje współzałożyciel Koko, Rob Morris: „Jestem tylko robotem, ale oto pomysł, jak mogę zareagować”. Użytkownicy mogli edytować lub dostosowywać odpowiedź w dowolny sposób, który uznali za odpowiedni przed jej wysłaniem.
W tamtym czasie nie wiedzieli, że odpowiedzi zostały napisane przez GPT-3, potężne narzędzie sztucznej inteligencji (AI), które może przetwarzać i generować naturalny tekst dzięki ogromnemu zapleczu do nauki słowa pisanego. Kiedy Morris w końcu napisał na Twitterze o eksperymencie, był zaskoczony krytyką, jaką otrzymał.
Ludzie próbują zautomatyzować terapię zdrowia psychicznego od 70 lat, a chatboty w takiej czy innej formie są częścią tego zadania od około 60 lat. Istnieje potrzeba większej wydajności, jaką obiecują te narzędzia. Szacunki sugerują, że na każde 100 000 ludzi na całym świecie przypada średnio około 4 psychiatrów; liczba ta jest znacznie niższa w większości krajów o niskich i średnich dochodach.
Uznając tę lukę, twórcy aplikacji na smartfony zbudowali tysiące programów oferujących pozory terapii, które „mieszczą się w kieszeni”. Według szacunków w 2021 r. dostępnych było od 10 000 do 20 000 mobilnych aplikacji do obsługi zdrowia psychicznego. Ale w przypadku wielu z tych aplikacji dowody popierające sensowność ich stosowania są dość słabe, twierdzi Nicholas Jacobson, naukowiec zajmujący się danymi biomedycznymi w Centrum Technologii i Zdrowia Behawioralnego Dartmouth College w Lebanon. A włączenie dużych modeli językowych, takich jak GPT-3, stanowi nowy krok, który wielu uważa za niepokojący.
Niektórzy martwią się rosnącymi zagrożeniami dla prywatności i przejrzystości lub spłaszczeniem strategii terapeutycznych do tych, które można łatwo zdigitalizować. Istnieją również obawy dotyczące bezpieczeństwa i odpowiedzialności prawnej.
Na początku tego roku Belg popełnił samobójstwo po tygodniach dzielenia się swoimi obawami związanymi z klimatem z chatbotem AI o nazwie Eliza, opracowanym przez Chai Research w Palo Alto w Kalifornii. Jego żona twierdzi, że nadal by żył, gdyby nie „korespondował” z tą technologią.
Hannah Zeavin, badacz historii nauk humanistycznych na Indiana University w Bloomington, ostrzega, że opieka psychiatryczna jest w opłakanym stanie. To sprawia, że jest AI jest zarówno atrakcyjnym, jak i wrażliwym celem dla branży, która słynie z tego, że „lubi działać szybko”. I chociaż ta technologia rozwija się od dziesięcioleci, rosnące zainteresowanie pojawiającymi się narzędziami sztucznej inteligencji może przyspieszyć jej rozwój.
Skala w automatyce
Chatbot Eliza wziął swoją nazwę od wczesnego programu do przetwarzania języka naturalnego, stworzonego przez informatyka Josepha Weizenbauma w 1966 roku. Został zaprojektowany, aby parodiować rodzaj psychoterapii zwanej terapią Rogerian, która jest zakorzeniona w idei, że ludzie mają już narzędzia do rozwiązania swoich problemów, potrzebują tylko nauczyć się z nich korzystać w odpowiedni sposób. Program Eliza przyjmował wiadomość napisaną na maszynie od człowieka i papugował jego wersję. Weizenbaum nie był szczególnie zachwycony terapią rogeriańską, ale stosował ją, ponieważ była łatwa do zaprogramowania i ponieważ sądził, że Eliza może udowodnić swoją hipotezę, że komunikacja człowieka z maszyną byłaby powierzchowna.
Jednak ku jego zaskoczeniu użytkownicy dobrze zareagowali na Elizę. Uczestnicy antropomorfizowali bota i często chętnie z nią rozmawiali. Jak wyszczególnia Zeavin w swojej książce „The Distance Cure” z 2021 roku, Eliza podjęła szereg innych prób stworzenia zautomatyzowanych terapeutów chatbotów. Projekty te współgrały z kampanią mającą na celu uczynienie terapii bardziej przystępną cenowo i dostępną niż konwencjonalna psychoanaliza, opierającą się na złożonej relacji terapeuta-pacjent.
W drugiej połowie XX wieku psychologowie, tacy jak Albert Ellis, Kenneth Colby i Aaron Beck, poszukiwali podejścia bardziej zorientowanego na wyniki — takiego, które można by umieścić w zeszytach ćwiczeń, nagrać na taśmy i pokazać w księgarniach.
Badacze ci ostatecznie doszli do rozwiązania, które stało się znane jako terapia poznawczo-behawioralna (CBT). Zakłada ona, że problemy psychologiczne są częściowo spowodowane nieproduktywnymi wzorcami myślenia, które można zminimalizować poprzez poprawę strategii radzenia sobie.
Niektórzy psychologowie, w tym Colby, próbowali zautomatyzować CBT za pomocą chatbotów terapeutycznych i stopniowych programów cyfrowych. Eliza i rój skomputeryzowanych terapeutów, który nastąpił po niej, oferują kilka lekcji istotnych dla dzisiejszych twórców aplikacji do automatycznej terapii: ludzie łatwo otwierają się na nieożywionych terapeutów; ich doświadczenia w dużej mierze zależą od ich oczekiwań wobec platform; a język, którego bot używa do rozmowy z człowiekiem, jest zawsze do pewnego stopnia kompromisem między tym, co może działać najlepiej, a tym, co można zaprogramować.
Kanapa w kieszeni
Tysiące aplikacji na telefon oferuje teraz „poprawienie nastroju”, czy też bycie „trenerem” lub „towarzyszem”. Ostrożnie reklamują się, unikając twierdzeń, które mogą wymagać zatwierdzenia przez organy ds. Zdrowia, takie jak amerykańska Agencja ds. Żywności i Leków (FDA). Nawet te, które spełniają definicję oprogramowania FDA jako urządzenia medycznego, często mogą zostać zatwierdzone bez dostarczania danych dotyczących bezpieczeństwa lub skuteczności, pod warunkiem, że mogą wykazać znaczną równoważność z produktami już dostępnymi na rynku. Umożliwiło to aplikacjom nawiązanie do twierdzeń naukowych bez konieczności dostarczania dowodów.
Wiele aplikacji szybko przejmuje ogólnie sprawdzoną skuteczność CBT, twierdząc, że ich metody są „oparte na dowodach”. Jednak recenzja jednej ze stu siedemnastu aplikacji sprzedawanych osobom z depresją wykazała, że z tuzina osób, które wdrażają zasady CBT, tylko 15% robi to konsekwentnie. Inna analiza zaleceń aplikacji dotyczących zdrowia psychicznego wykazała, że wśród platform, które cytują określone metody naukowe, jedna trzecia popiera niezweryfikowane techniki. Kolejne badanie wykazało, że tylko 6,2% aplikacji związanych ze zdrowiem psychicznym publikuje dane dotyczące skuteczności.
„Zdecydowana większość rynku aplikacji nie testowała tego produktu” – twierdzi Jacobson. Nie oznacza to, że aplikacje dla zdrowia psychicznego nie mają dowodów na ich użyteczność. „Niektóre działają lepiej niż inne i zazwyczaj to te aplikacje, w których ludzie udzielają wskazówek i coachingu, utrzymują zaangażowanie i postępy użytkowników” – przekonuje John Torous, dyrektor Wydziału Psychiatrii Cyfrowej Harvard Medical School w Bostonie w stanie Massachusetts. Kilka metaanaliz wykazało, że te „kierowane”, cyfrowe programy zdrowia psychicznego działają porównywalnie lub lepiej niż konwencjonalna terapia.
Aplikacje niekierowane mają znacznie mniej solidnych dowodów. Niektóre badania potwierdzają ich użycie, ale, jak mówi Torous, bez rygorystycznej kontroli wiele z nich może zostać wypaczonych przez cyfrowy efekt placebo, w którym powinowactwo ludzi do ich urządzeń osobistych i ogólnie technologii zawyża postrzeganą skuteczność aplikacji.
Zautomatyzowany terapeuta
Koko nie jest pierwszą platformą, która wdraża sztuczną inteligencję w środowisku zdrowia psychicznego. Ogólnie rzecz biorąc, sztuczna inteligencja oparta na uczeniu maszynowym została wdrożona lub zbadana w przestrzeni zdrowia psychicznego w trzech rolach.
Pierwszym z nich było wykorzystanie sztucznej inteligencji do analizy interwencji terapeutycznych w celu ich dopracowania. Dwa znane przykłady, Ieso i Lyssn, trenują sztuczną inteligencję przetwarzającą język naturalny na transkrypcje sesji terapeutycznych. Lyssn, program opracowany przez naukowców z University of Washington w Seattle, analizuje dialog pod kątem 55 wskaźników, od wyrażania empatii po zastosowanie interwencji CBT. Firma Ieso, dostawca terapii tekstowej z siedzibą w Cambridge w Wielkiej Brytanii, przeanalizowała ponad pół miliona sesji terapeutycznych, śledząc wyniki w celu określenia najskuteczniejszych interwencji. Oba programy dają terapeutom notatki na temat tego, jak sobie poradzili, ale każda usługa ma na celu ostatecznie dostarczenie narzędzia działającego w czasie rzeczywistym: częściowo asystenta doradcy, częściowo nadzorcy oceniającego.
Drugą rolą AI jest diagnoza. Wiele platform, takich jak program REACH VET dla amerykańskich weteranów wojskowych, skanuje dokumentację medyczną danej osoby w poszukiwaniu czerwonych flag, które mogą wskazywać na problemy, takie jak samookaleczenie lub myśli samobójcze. Ta praca diagnostyczna jest prawdopodobnie najbardziej obiecującym zastosowaniem sztucznej inteligencji w zdrowiu psychicznym, chociaż większość powstających platform wymaga kolejnych badań i rozwoju.
Zdrowie psychiczne: jest na to aplikacja!
Ostatnia rola jest prawdopodobnie najbliższa temu, co pionierzy CBT, tacy jak Colby, mieli nadzieję zaprojektować i co przerażało ludzi w eksperymencie Koko — pomysł w pełni cyfrowego terapeuty, który wykorzystuje sztuczną inteligencję do kierowania leczeniem. Chociaż Koko mogła być pierwszą platformą wykorzystującą zaawansowaną, generatywną sztuczną inteligencję, która może tworzyć całkowicie oryginalne dialogi, aplikacje takie jak Woebot, Wysa i Tess od kilku lat wykorzystują uczenie maszynowe w terapeutycznych chatbotach.
Chatboty terapeutyczne „wybudowane” na sztucznej inteligencji będą potrzebować bardziej niezawodnych danych. Niedawny eksperyment Koko, który został ogłoszony na Twitterze bez opublikowanych wyników, oferował kilka wskaźników umożliwiających kontekstualizację wyników. Eksperyment uwydatnił przede wszystkim kwestie etyczne. Warto zauważyć, że kilka z tych pytań dotyczy wyłącznie sztucznej inteligencji.
Jedną z obaw jest przejrzystość. Zarówno konwencjonalna terapia osobista, jak i zautomatyzowana wersja mają żywotny interes w zatrzymaniu pacjentów. Ponieważ mediana wskaźnika retencji dla tych aplikacji spadła poniżej 4% w ciągu dwóch tygodni, cyfrowe platformy terapeutyczne mają wiele do zrobienia. Etyka zachęcania do zatrzymania pacjentów jest już złożona — jak odkryła popularna mobilna platforma terapeutyczna TalkSpace, gdy znalazła się pod ostrzałem za wymaganie od terapeutów wstawiania skryptów reklamujących funkcje czatu wideo do dyskusji z klientami. Etyka programowania terapeutycznego chatbota AI w celu nadania priorytetu retencji jest bardziej niejasna, szczególnie jeśli boty mogą uczyć się na doświadczeniach z innymi klientami.
Prywatność jest najważniejszym aspektem całej terapii. Jednak na początku marca aplikacja terapeutyczna BetterHelp została ukarana grzywną w wysokości 7,8 miliona USD przez amerykańską Federalną Komisję Handlu za rzekome udostępnianie poufnych informacji o użytkownikach reklamodawcom. Podobnie pod koniec marca firma Cerebral zajmująca się zdrowiem psychicznym ogłosiła, że ujawniła dane 3,1 miliona osób na platformy innych firm, takie jak Google, Meta i TikTok.
W miarę, jak uczenie maszynowe staje się podstawą coraz większej liczby platform zajmujących się zdrowiem psychicznym, projektanci będą potrzebować coraz większych zestawów wrażliwych danych do trenowania sztucznej inteligencji. Prawie 70% aplikacji związanych ze zdrowiem psychicznym, które zostały przeanalizowane przez Fundację Mozilla — organizację stojącą za przeglądarką internetową Firefox — ma na tyle słabą politykę prywatności, że można ją oznaczyć jako „Prywatność nie jest uwzględniona”. Więc zasygnalizowanie tej kwestii etycznej jest jak najbardziej uzasadnione.
Ogólnie rzecz biorąc, rynek cyfrowych aplikacji terapeutycznych podlega kilku jasnym standardom. Chociaż byłoby nierealistyczne, aby każda aplikacja dotycząca zdrowia psychicznego sprzedawana jako „towarzysz” lub „trener” spełniała standardy obowiązujące konwencjonalnych terapeutów, w tym miesiącu Insel wezwał nową agencję do nadzorowania cyfrowych narzędzi do zdrowia psychicznego. Obecnie branża zbytnio polega na zlepku standardów proponowanych przez grupy psychiatryczne, takie jak Amerykańskie Towarzystwo Psychiatryczne oraz na przewodnikach konsumenckich organizacji non-profit, takich jak One Mind PsyberGuide.
Nawet w przypadku aplikacji, które opierają się na leczeniu opartym na dowodach, istnieje obawa, że wraz ze wzrostem ilości platform zwracających się ku sztucznej inteligencji, umocni się pozycja CBT jako podstawowej opcji interwencji w zakresie zdrowia psychicznego. Zeavin, podobnie jak inni przed nią, twierdzi, że dążenie do automatyzacji terapii mogłoby ją zdemokratyzować, dając dostęp większej liczbie osób. Idealnie byłoby, gdyby osoby otrzymały diagnozę i leczenie, które jest najdokładniejsze i najskuteczniejsze. Automatyzacja wiąże się z tym samym kompromisem, przed którym stanął Weizenbaum dziesiątki lat temu: zrównoważeniem najlepszego podejścia z tym, które jest najłatwiejsze do zaprogramowania.
Pomimo wszystkich potencjalnych korzyści, jakie sztuczna inteligencja może mieć w zakresie dostępu do narzędzi zdrowia psychicznego, jej zastosowanie w terapii wciąż się rodzi i jest pełne etycznych wątpliwości.
Opracowano na podstawie: