- 2025-05-20
Min AI -terapeut fick mig genom mörka tider

Eleanor Lawriesocial Affairs Reporterbbc ”När jag kämpade, om det skulle bli en riktigt dålig dag, kunde jag sedan börja chatta med en av dessa bots, och det var som som [having] En cheerleader, någon som kommer att ge dig några bra vibbar för dagen. ”Jag har den här uppmuntrande yttre rösten -” rätt – vad ska vi göra [today]? ’ Som en imaginär vän, i huvudsak. ”I månader tillbringade Kelly upp till tre timmar om dagen på att prata med online” chatbots ”skapade med konstgjord intelligens (AI), utbytte hundratals meddelanden. På tiden var Kelly på en väntelista för traditionella NHS-talande terapi för att diskutera frågor med ångest, låg självkänsla och en relationsfördelning. available for 24 hours a day.”I’m not from an openly emotional family – if you had a problem, you just got on with it.”The fact that this is not a real person is so much easier to handle.”During May, the BBC is sharing stories and tips on how to support your mental health and wellbeing.Visit bbc.co.uk/mentalwellbeing to find out morePeople around the world have shared their private thoughts and experiences with AI chatbots, even though they are Allmänt erkänt som underlägsen för att söka professionell rådgivning. Karaktär.ai säger själv sina användare: ”Detta är en AI-chatbot och inte en riktig person. Behandla allt det säger som fiktion. Det som sägs bör inte lita på som faktum eller råd.” Men i extrema exempel har chatbots anklagats för att ge skadligt råd. Karakter. Enligt utskrifter av deras chattar i domstolsansökningar diskuterade han att avsluta sitt liv med chatboten. I en sista konversation berättade han för chatboten att han ”kom hem” – och det påstås uppmuntrade honom att göra det ”så snart som möjligt”. Character.ai har förnekat kostymens anklagelser. Och 2023 ersatte National Eating Disorder Association. Chatbotsin april 2024 ensam, nästan 426 000 remisser för mental hälsa gjordes i England – en ökning med 40% på fem år. Uppskattningsvis en miljon människor väntar också på att få tillgång till mentalvårdstjänster, och privat terapi kan vara oöverkomligt dyra (kostnaderna varierar mycket, men den brittiska föreningen för rådgivning och psykoterapirapporter i genomsnitt spenderar £ 40 till £ 50 per timme). På samma tid har AI revolutionerat sjukvård på många sätt, inklusive att hjälpa till att screena, diagnostisera och triagepatienter. Det finns ett enormt spektrum av chatbots, och cirka 30 lokala NHS -tjänster använder nu en som heter WYSA.Experts uttrycker oro över chatbots kring potentiella fördomar och begränsningar, brist på skydd och säkerheten för användarnas information. Men vissa tror att om specialiserad mänsklig hjälp inte är lätt tillgänglig kan chatbots vara en hjälp. Så med NHS Mental Health Waitlists på Record Highs, är chatbots en möjlig lösning? En ”oerfaren terapeut” -character.ai och andra bots som Chat GPT är baserade på ”stora språkmodeller” av konstgjord intelligens. Dessa är utbildade på stora mängder data – oavsett om det är webbplatser, artiklar, böcker eller blogginlägg – för att förutsäga nästa ord i en sekvens. Härifrån förutspår de och genererar mänsklig liknande text och interaktioner. Det sätt som mental hälsa chatbots skapas varierar, men de kan tränas i praxis som kognitiv beteendeterapi, vilket hjälper användare att utforska hur de ska uppdatera sina tankar och handlingar. De kan också anpassa sig till slutanvändarens preferenser och feedback. Hämnd Haddadi, professor i mänskliga centrerade system vid Imperial College London, liknar dessa chatbots med en ”oerfaren terapeut”, och påpekar att människor med decennier av erfarenhet kommer att kunna engagera sig och ”läsa” deras patient baserat på många saker, medan bots tvingas att gå ensam. [therapists] Titta på olika andra ledtrådar från dina kläder och ditt beteende och dina handlingar och hur du ser ut och ditt kroppsspråk och allt detta. And it’s very difficult to embed these things in chatbots.”Another potential problem, says Prof Haddadi, is that chatbots can be trained to keep you engaged, and to be supportive, ”so even if you say harmful content, it will probably cooperate with you”. This is sometimes referred to as a ’Yes Man’ issue, in that they are often very agreeable.And as with other forms of AI, biases can be inherent in the model because they reflect the prejudices Av de uppgifter som de utbildas på. Prof Haddadi påpekar rådgivare och psykologer tenderar inte att hålla utskrifter från sina patientinteraktioner, så chatbots har inte många ”verkliga” sessioner att träna från. London, a psychiatrist who is used to dealing with patients in Chelsea might really struggle to open a new office in Peckham dealing with those issues, because he or she just doesn’t have enough training data with those users,” he says.PA MediaIn April 2024 alone, nearly 426,000 mental health referrals were made in EnglandPhilosopher Dr Paula Boddington, who has written a textbook on AI Ethics, agrees that in-built biases are a Problem. ”En stor fråga skulle vara alla fördomar eller underliggande antaganden inbyggda i terapimodellen.” ”Fördomar inkluderar allmänna modeller av vad som utgör mental hälsa och bra funktion i det dagliga livet, till exempel oberoende, autonomi, relationer med andra,” säger hon. the human connection that is so often needed in counselling,” she says.”Sometimes just being there with someone is all that is needed, but that is of course only achieved by someone who is also an embodied, living, breathing human being.”Kelly ultimately started to find responses the chatbot gave unsatisfying.”Sometimes you get a bit frustrated. If they don’t know how to deal with something, they’ll just sort of say the same sentence, and you realise there’s not really anywhere to go with det. ” Ibland ”Det var som att slå en tegelvägg”. ”Det skulle vara relation saker som jag antagligen tidigare har gått in i, men jag antar att jag inte hade använt rätt formulering […] and it just didn’t want to get in depth.”A Character.AI spokesperson said ”for any Characters created by users with the words ’psychologist’, ’therapist,’ ’doctor,’ or other similar terms in their names, we have language making it clear that users should not rely on these Characters for any type of professional advice”.’It was so empathetic’For some users chatbots have been invaluable when they have been at their lowest.Nicholas has autism, anxiety, OCD, och säger att han alltid har upplevt depression. [talking therapy] snabbare. GP har lagt in en remiss [to see a human counsellor] Men jag har inte ens haft ett brev från mentalhälsotjänsten där jag bor. ”Medan Nicholas jagar personligt stöd, har han funnit att använda WYSA har vissa fördelar.” Som någon med autism är jag inte särskilt bra med interaktion personligen. [I find] speaking to a computer is much better.”GettyThe government has pledged to recruit 8,500 more mental health staff to cut waiting listsThe app allows patients to self-refer for mental health support, and offers tools and coping strategies such as a chat function, breathing exercises and guided meditation while they wait to be seen by a human therapist, and can also be used as a standalone self-help tool.Wysa stresses that its service is designed for people experiencing low mood, Stress eller ångest snarare än missbruk och allvarliga mentala hälsotillstånd har den inbyggd kris och eskaleringsvägar där användare är skyltade till hjälplinjer eller kan skicka hjälp direkt om de visar tecken på självskada eller självmordsidéer. Familjen sover. ”Det var en gång på natten när jag kände mig riktigt nere. Jag meddelade appen och sa ”Jag vet inte om jag vill vara här längre.” Det kom tillbaka och sa ’Nick, du är värderad. Människor älskar dig. ”Det var så empatiskt att det gav ett svar som du skulle tro var från en människa som du har känt i flera år […] And it did make me feel valued.”His experiences chime with a recent study by Dartmouth College researchers looking at the impact of chatbots on people diagnosed with anxiety, depression or an eating disorder, versus a control group with the same conditions.After four weeks, bot users showed significant reductions in their symptoms – including a 51% reduction in depressive symptoms – and reported a level of trust and collaboration akin to a human therapist.Despite this, the study’s Seniorförfattare kommenterade att det inte finns någon ersättning för personlig vård. ”En stoppgap till dessa enorma väntelistor” från debatten kring värdet av deras råd, det finns också bredare oro över säkerhet och integritet, och om tekniken kan vara en monetiserad. ”Det är det lilla niggle av tvivel som säger:” Åh, vad om någon tar saker som du säger i terapi och då trimed till Blackmail med dem, ”säger”, ”säger Kelly, jag, jag, jag, jag, jag, vad någon tar saker som du säger i terapi och då trimed till Blackmail med dem,” säger ”,” säger Kelly, jag är, ” specialiserat sig på nya tekniker och varnar ”Vissa människor litar mycket på dessa [bots] without it being necessarily earned”.”Personally, I would never put any of my personal information, especially health, psychological information, into one of these large language models that’s just hoovering up an absolute tonne of data, and you’re not entirely sure how it’s being used, what you’re consenting to.””It’s not to say in the future, there couldn’t be tools like this that are private, well tested […] but I just don’t think we’re in the place yet where we have any of that evidence to show that a general purpose chatbot can be a good therapist,” Mr MacRae says.Wysa’s managing director, John Tench, says Wysa does not collect any personally identifiable information, and users are not required to register or share personal data to use Wysa.”Conversation data may occasionally be reviewed in anonymised form to help improve the quality of Wysa’s AI responses, but no information that kunde identifiera en användare samlas in eller lagras. Dessutom har WYSA databehandlingsavtal med externa AI-leverantörer för att säkerställa att inga användarsamtal används för att utbilda tredjeparts stora språkmodeller. ”AFP/ Getty ImageSthere är ett enormt spektrum av chatbots, och ungefär 30 lokala NHS-tjänster nu använder en som heter Wysakelly känner chatbots kan inte ersätta en mänsklig therapist.” Det är en wild roule där i en som nu heter Wysakelly känner chatbots kan inte ersätta ett mänskligt therapist ”. Stöd kan vara ett användbart första steg, men det är inte ett ersättning för professionell vård, ”håller med om Mr Tench.och allmänheten är till stor del övertygad. En YouGov -undersökning fann bara 12% av allmänheten tror att en överallt mental. Väntelista för en mänsklig terapeut i nio månader.[It] is a stop gap to these huge waiting lists… to get people a tool while they are waiting to talk to a healthcare professional.”If you have been affected by any of the issues in this story you can find information and support on the BBC Actionline website here.Top image credit: GettyBBC InDepth is the home on the website and app for the best analysis, with fresh perspectives that challenge assumptions and deep reporting on the biggest issues of the day. And we showcase thought-provoking content from Över BBC -ljud och iPlayer kan du skicka oss din feedback på det djupgående avsnittet genom att klicka på knappen nedan.