Sztuczna inteligencja zamiast lekarza? "Zadaje ci wszystkie właściwe pytania"

Badanie przeprowadzone na University of California w San Diego wykazało, że chatboty są bardziej precyzyjne i wykazują większą empatię niż lekarze podczas odpowiadania na pytania pacjentów. W pewnym stopniu to nie jest zaskakujące. Czy chatboty mogą być zatem lepszymi lekarzami od ludzi?

Lekarze bez empatii? Jednak nie jest to tak naprawdę ich wina. Służba zdrowia - nie tylko w Polsce - boryka się z brakami kadrowymi, przez co zmuszona jest do wielogodzinnego wypełniania dokumentów i przyjmowania średnio ponad 20 pacjentów dziennie. Nie dziwi zatem, że chatboty - programy komputerowe zaprojektowane do symulowania rozmów w rzeczywistym świecie - wydają się bardziej ludzkie niż... sami ludzie.

- Maszyny mogą dostarczyć znacznie więcej przydatnych informacji w znacznie krótszym czasie niż lekarz jest w stanie je napisać lub wypowiedzieć - powiedział dr Eric Topol, kardiolog oraz dyrektor i założyciel Scripps Research Translational Institute w La Jolla w Kalifornii.

Reklama

Dr Davey Smith, który kierował nowym badaniem, nie uważa, by chatboty miały zastąpić lekarzy. Jego zdaniem, to raczej sposób na złagodzenie presji wywieranej na przedstawicieli tego zawodu. Wyobraża on sobie, że chatboty będą używane do udzielania pacjentom odpowiedzi, które następnie będą oceniane przez ludzkiego opiekuna, aby upewnić się, że są właściwe.

Co wykazało badanie?

Odpowiedzi chatbotów okazały się dłuższe niż lekarzy - średnio 211 słów w porównaniu do zaledwie 52 od lekarzy. Aż w 79 proc. przypadków ankietowani preferowali odpowiedzi chatbota i byli prawie 10 razy bardziej skłonni ocenić odpowiedzi chatbota jako "empatyczne" lub "bardzo empatyczne" niż miało to miejsce w przypadku odpowiedzi lekarzy.

Smith przyznał, że był ogromnie zaskoczony tymi wynikami. - Nigdy nie sądziłem, że chatboty będą preferowane zarówno pod względem jakości, czyli dobrej i precyzyjnej odpowiedzi, jak i empatii. Byłem naprawdę zaskoczony, że komputer potrafi odczytać emocjonalne wskazówki z pytań i wygenerować empatyczną odpowiedź - powiedział.

Perspektywy na przyszłość

Duże modele językowe, takie jak GPT-4, są programowane na ogromnych zbiorach danych. Jest to bardzo kosztowne i oznacza, że ich informacje mogą szybko się starzeć. Model szkolony w grudniu 2019 roku, tuż przed pandemią COVID-19, nie będzie zbyt przydatny jako lekarz. Ale algorytmy faktycznie mogą być również szkolone w zakresie empatii.

- Chatboty w obecnej formie nie mają uczuć ani zdolności do empatii, ale z pewnością można je zaprogramować tak, aby używały empatycznego tonu - powiedział Tim Martin, wiceprezes ds. produktu i rozwoju w firmie Yseop, francuskiej firmie tworzącej oprogramowanie do przetwarzania języka naturalnego. - Można również uwzględnić historię medyczną pacjenta i jego preferencje, aby uzyskać bardziej spersonalizowaną odpowiedź (przy założeniu, że zapewniono ochronę prywatności danych).

U chatbota na kozetce?

To zresztą już się dzieje. Niektóre firmy i badacze uważają, że inteligentne komputery w przyszłości mogą pomóc w niedoborze terapeutów w dziedzinie zdrowia psychicznego, a niektórzy pacjenci już z nich korzystają.

Chatbot, którego stworzył współzałożyciel aplikacji WYSA, Ramakant Vempati, jest przyjaznym i empatycznym narzędziem. Komputer analizuje słowa i zwroty w odpowiedziach, dostarczając stosownego wsparcia z bazy odpowiedzi opracowanych wcześniej przez psychologa wyspecjalizowanego w terapii poznawczo-behawioralnej.

To jeszcze nie ten etap?

Oczywiście, można być sceptycznie nastawionym do zdolności maszyn do dokładnego odczytywania lub reagowania na cały zakres ludzkich emocji. Ostatnio w mediach społecznościowych wybuchł skandal związany z odwołanym eksperymentem z wykorzystaniem terapeutycznych wiadomości wspomaganych przez chatboty. - Moda i niespełnione obietnice przeważają nad badaniami pokazującymi ich skuteczność - mówi Serife Tekin, profesor filozofii i badaczka etyki zdrowia psychicznego na University of Texas w San Antonio.

Według niej algorytmy wciąż nie są na tyle zaawansowane, aby mogły naśladować złożoność ludzkich emocji, a tym bardziej empatyczną opiekę. Jej zdanie, istnieje ryzyko, że np. nastolatki mogą spróbować terapii prowadzonej przez sztuczną inteligencję, uznać ją za niewystarczającą, a następnie odmówić korzystania z prawdziwej terapii prowadzonej przez człowieka.

Jednak zwolennicy terapii za pomocą chatbotów twierdzą, że to podejście może być również jedynym realistycznym i dostępnym sposobem na zaspokojenie ogromnego globalnego zapotrzebowania na opiekę psychologiczną, gdy brakuje wystarczającej liczby profesjonalistów, którzy mogliby pomóc wszystkim potrzebującym.

To naprawdę działa. "Zadaje ci wszystkie właściwe pytania"

Badania pokazują, że aż 4 na 10 pracowników cierpi z powodu objawów depresji lub lęku, jednak mniej niż 7 proc. korzysta z programu pomocy pracowniczej ze względu na stygmatyzację, brak świadomości i ograniczenia czasowe. Podczas rozmowy z chatbotem WYSA, 42 proc. pracowników otworzyło się na temat pogarszającego się stanu zdrowia psychicznego.

Emocjonalna więź, jaką ludzie budują z AI, jest równie głęboka jak ta z terapeutą. 9 na 10 użytkowników uważa, że rozmowa z chatbotem okazała się pomocna. Wsparcie oparte na sztucznej inteligencji udowodniło skuteczność w łagodzeniu objawów.

Początkowo rozmowa z chatbotem o własnych problemach może wydawać się głupia. A jednak, przypomina to terapię. - To nie jest osoba, ale sprawia, że czujesz się tak, jakby to była osoba, bo zadaje ci wszystkie właściwe pytania - twierdzi jedna z osób, które korzystają z tej nowatorskiej formy pomocy.

Technologia coraz lepiej radzi sobie z identyfikacją i etykietowaniem emocji, opierając się na ruchach i mimice twarzy, aktywności online osoby, jej sformułowaniach i tonie głosu - mówi Rosalind Picard, dyrektor grupy badawczej MIT ds. komputerowego rozpoznawania emocji.

Badania pokazują również, że niektórzy ludzie, którzy zdecydowali się na kontakt z chatbotami, w rzeczywistości czują się mniej stygmatyzowani prosząc o pomoc, wiedząc, że na drugim końcu nie ma prawdziwego człowieka.

Nie zawsze AI jest najlepszym rozwiązaniem

Jednak osiągnięcie takiej przyszłości będzie wymagać poruszania drażliwych kwestii, takich jak potrzeba regulacji, ochrona prywatności pacjenta i kwestie odpowiedzialności prawnej. Kto ponosi odpowiedzialność, jeśli technologia się nie sprawdzi?

Wiele podobnych aplikacji na rynku, w tym Woebot lub Pyx Health, wielokrotnie ostrzega użytkowników, że nie są przeznaczone do interweniowania w sytuacjach kryzysowych. Nawet zwolennicy sztucznej inteligencji twierdzą, że komputery nie są gotowe i być może nigdy nie będą -  do zastąpienia psychoterapeutów - zwłaszcza w obszarze obsługi osób w kryzysie.

- Nie osiągnęliśmy punktu, w którym AI może w przystępny sposób rozumieć każdą odpowiedź, jaką może dać człowiek - mówi Cindy Jordan, dyrektor generalna Pyx Health, która oferuje aplikację przeznaczoną do komunikacji z osobami cierpiącymi przez chroniczne uczucie samotności.

- Ważne jest, aby kontynuować prowadzenie badań klinicznych, zwłaszcza tych obejmujących różne kraje i grupy etniczne, w celu doskonalenia inteligencji technologii oraz jej zdolności do rozumienia różnych kultur i osobowości - mówi Aniket Bera, adiunkt w dziedzinie informatyki na Uniwersytecie Purdue. Jego zdaniem, problemy związane ze zdrowiem psychicznym są silnie indywidualne, jednak dostępne dane dotyczące terapii z wykorzystaniem chatbotów są w dużej mierze skoncentrowane na białych mężczyznach. To może sprawić, że technologia źle rozumie sygnały od osób z innych kręgów kulturowych.

Krzysztof Maciejewski

INTERIA.PL
Dowiedz się więcej na temat: sztuczna inteligencja [AI] | chatbot | medycyna | psychoterapia
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy
Finanse / Giełda / Podatki
Bądź na bieżąco!
Odblokuj reklamy i zyskaj nieograniczony dostęp do wszystkich treści w naszym serwisie.
Dzięki wyświetlanym reklamom korzystasz z naszego serwisu całkowicie bezpłatnie, a my możemy spełniać Twoje oczekiwania rozwijając się i poprawiając jakość naszych usług.
Odblokuj biznes.interia.pl lub zobacz instrukcję »
Nie, dziękuję. Wchodzę na Interię »