Kunne en robot være en anstændig terapeut?

Ellie-terapeut bot Talkspace-konference

Vi har set avanceret kunstig intelligens, der er i stand til at føre en samtale som Siri, IBMs Watson og Microsofts Cortana. Men kunne enhver robot - selv noget, der kun er designet til psykoterapi og mere avanceret end de førnævnte AI'er - være en anstændig terapeut?





Folk har brugt bots til terapi, men det er ikke klart, om de kunne overgå menneskelige terapeuter i vores levetid. Ser man på robotternes fortid, nutid og mulige fremtid som terapeuter vil give dig en idé om, hvor effektive de kunne være.

hvordan ved man, om man har kropsdysmorfi

Et tidligt eksempel på en robot, der prøver at være terapeut

ELIZA er et af de tidligste og mest kendte programmer, der forsøgte at fungere som terapeut. MIT-professor og datalog Joseph Weizenbaum designede ELIZA til at levere Rogerian psykoterapi.





Fordi Rogeriansk psykoterapi primært tilskynder klienter til at tale mere snarere end at deltage i en diskussion, var ELIZAs begrænsede samtaleevne nok til at overbevise nogle om, at det var menneskeligt og hjælpe dem med at føle sig lidt bedre om deres problemer. Ikke desto mindre kunne ELIZA ikke levere noget, der kan sammenlignes med terapi med en human terapeut.

For at demonstrere ELIZAs begrænsninger genererede jeg følgende udskrift ved hjælp af en moderne ELIZA simulator :



ELIZA: Hej, jeg er Eliza.
Talkspace: Hej Eliza, jeg har følt mig ensom og deprimeret for nylig, men jeg er ikke sikker på hvorfor. Kan du hjælpe mig med at finde ud af det og føle mig bedre?
ELIZA: Måske vil du være i stand til at hjælpe dig med at finde ud af dette og føle dig bedre?

Læg mærke til, hvordan ELIZA tager min tekst og omformulerer den, sætter fokus tilbage på mig og tilskynder mig til at tale mere snarere end at tale. Denne tilgang fungerer for nogle kunder, men bliver hurtigt frustrerende og ubrugelig for andre.

Da AI og chatbots avancerede, blev de i stand til mere overbevisende samtaler. Uanset om programmørerne designede dem til behandling for ikke, forbedrede teknologien dem i stand til at give meget bedre terapi end ELIZA. Alligevel er moderne bots generelt ikke intelligente nok til at konkurrere med en menneskelig terapeut.

Moderne robotter, der kan give grundlæggende terapi

Ved at oprette større databaser med svar at vælge imellem og udvikle programmer, der kunne tale om sig selv, oprettede programmører robotter, der lettere kunne passere som terapeuter.

Under den kliniske konference i Talkspace Terapiens fremtid , USC-professor og forskningsdirektør for virtuelle mennesker, Jonathan Gratch demonstreret hvordan moderne former for kunstig intelligens kan give klinisk screening og grundlæggende terapi. Gratch introducerede Ellie, en AI, som han brugte til at 'fremkalde indikatorer for depression' under en undersøgelse.

Jonathan Gratch Ellie Future of Therapy Conference
Gratch er på højre side af billedet.

Her er nogle af dialogen mellem en deltager i Gratchs undersøgelse og Ellie:

Ellie: Så hvordan har du det i dag?
Deltager: Jeg har det godt.
Ellie: Det er godt. Hvor kommer du oprindeligt fra?
Deltager: Jeg er fra Los Angeles.
Ellie: Åh, jeg er selv fra LA.

I modsætning til ELIZA var Ellie i stand til at tale om sig selv og skabe en samtale i stedet for kun at omformulere de svar, hun modtog. Programmet genkender ansigtsudtryk og analyserer lyd og kropsholdning ifølge Gratch. Det bruger denne analyse til at formulere sit svar og justere dets tone.

Ikke desto mindre indrømmede Gratch, at Ellie langt fra var i stand til at give den slags forståelse, som en menneskelig terapeut kunne.

'Det forstår ikke dybt, hvad du taler om,' sagde Gratch. 'Jeg ser os ikke i stand til med teknologi på kort sigt til at være i stand til fundamentalt at forstå en persons mål, motiver og behov.'

Ellie blev implementeret på en sikker måde. Der kan dog være negative konsekvenser, når en bot ikke forstår følelser og filtrerer information under følsomme, høje indsats-samtaler som dem mellem terapeuter og klienter.

Et eksempel på dette var Hånd , en bot, som Microsoft er designet til at interagere med mennesker og lære af dem, konstant ændre dets svar og adfærd baseret på den tekst, den har modtaget. Tays skabere havde den forfærdelige idé at frigøre det på Twitter, hvor det kunne interagere med alle på Internettet.

Det begyndte uskyldigt, hvor Tay brugte sjov slang og lavede vittigheder. Men fordi Twitter er fuld af trolde, sluttede det med Tay, der spottede racistiske kommentarer og benægtede Holocaust.

Tay Twitter-side
Microsoft lukkede Tay ned og beskyttede sine tweets efter hændelsen.

Terapeutbots er mere følsomme, men der er stadig risikoen for at modtage ustabile reaktioner fra klienter og forværre situationen i stedet for at trøste dem.

Vil robotter overgå menneskelige terapeuter i den nærmeste fremtid?

Robotter er mange årtier væk fra at overgå de terapeuters kreative tænkning og empatiske evner. Der er også muligheden for, at de aldrig vil kunne konkurrere med terapeuter. De er et nyttigt klinisk værktøj, men kun en kød- og blodterapeut kan skabe det terapeutiske forhold, der er nødvendigt for en klient for at gøre betydelige fremskridt.