Anslut till Senaste Tekniska Nyheter, Bloggar, Recensioner

Varför AI Therapy Chatbots är det ultimata etiska dilemmat

AI Chatbots olämpliga för allvarliga psykiska tillstånd

Att ta emot vettiga, terapeutgodkända råd från en chatbot i fickformat kommer utan tvekan att vara till hjälp för många. Men de som lider av allvarliga psykiska tillstånd som depression, schizofreni och bipolär sjukdom kommer sannolikt att lämnas kortvariga.

Psykiska störningar är komplexa, kraftigt nyanserade och unika för varje person de drabbar. I vissa fall hanteras de bäst med medicin som endast kan ordineras korrekt av kvalificerad medicinsk personal. Även om stora språkmodeller (LLM) har utvecklats med stormsteg de senaste åren, kommer deras produktion aldrig att kunna ersätta den kliniska expertis, empati och medkänsla som psykiatriker, psykologer och terapeuter tillhandahåller.

“Jag uppskattar att algoritmerna har förbättrats, men i slutändan tror jag inte att de kommer att ta itu med de stökigare sociala realiteter som människor befinner sig i när de söker hjälp,” – Julia Brown, antropologiprofessor vid University of California, San Francisco

Strategisk psykisk healer Aanant Bisht tror också att AI, i sitt nuvarande tillstånd, kommer att vara oförmögen att hjälpa varje användares komplexa helande resa. “Det är också viktigt att undvika alltför förenkling av komplexa mentala hälsoproblem och uppmuntra användare att söka professionell hjälp när det behövs,” säger Bisht till Tech.co.

En annan vanlig oro som uttrycks av experter vi pratat med är medicinsk feldiagnos. Den psykiska hälsan har ett långvarigt problem med att korrekt identifiera komplexa och allvarliga psykiatriska störningar, och ett stort beroende av AI kan sannolikt förvärra detta problem, på grund av den begränsade tekniken, icke-representativa datamängder och oförmågan att tolka mänskliga nyanser.

Resultaten av detta kan också vara skarpa. Feldiagnostik för psykisk hälsa leder ofta till otillräcklig behandling och stöd, ytterligare psykisk press och långvarig skepsis mot det medicinska systemet. Detta är inte den enda anledningen till att artificiell intelligens inte är lämplig att köra om terapeutens stol i sin nuvarande form.

AI är bristfällig och höljd i etiska utmaningar

Den snabba ökningen av generativ AI har inte kommit utan konsekvenser. Eftersom tekniken fortsätter att utvecklas i en rasande hastighet har regleringen kring dess användning varit långsam att komma ikapp, vilket har bidragit till en rad etiska utmaningar relaterade till datasekretess, inbyggd partiskhet och missbruk.

Dessa bekymmer är inte unika för terapi, men mental hälsas känsliga natur innebär att etiska ramar är kärnan i alla goda terapeutiska relationer. Med en tjänsteman AI-etik kod som för närvarande inte existerar, användare som förlitar sig på chatbots istället för kvalificerade yrkesmän för rådgivning eller annat psykiskt stöd är mycket problematiskt.

Datasekretess är en viktig fråga. Chatbots som ChatGPT har ofta hamnat i varmt vatten för misslyckas med att skydda användardata. För att användare ska känna sig bekväma med att diskutera privat, personlig information kommer AI-företag att behöva ha en idiotsäker dataskyddsstrategi som prioriterar sekretess.

“Den intima och känsliga karaktären hos terapeutiska samtal kräver en oöverträffad nivå av dataskydd.” – Dr Langham, psykolog vid Impulsterapi

En annan viktig faktor att vara medveten om är maskininlärningsbias. Alla AI-system förlitar sig på förutbestämda träningsdata, som ofta inkluderar inbäddade mänskliga fördomar även om känsliga variabler som ras och kön tas bort.

Enligt Bayu Prihandito, VD för livscoachföretaget Life Architekture, om AI tränas på partisk data, “kan det vidmakthålla eller förvärra befintliga fördomar, vilket leder till orättvisa behandlingsrekommendationer”. Dessa inbyggda fördomar kommer sannolikt att påverka människor från minoritetsgrupper mer också, vilket understryker vikten av mänsklig tillsyn och olika och representativa utbildningsdatauppsättningar.