Fråga psykologen Fråga KBT-terapeuten Narcissism Utmattningssyndrom Hantera känslor Så fungerar dopamin ADHD Om MåBra

Då ska du inte använda ChatGPT som psykolog: "Stora risker"

29 sep, 2025
Splitbild på kvinna framför dator samt illustration med texten "ChatGPT"
Vänder du dig hellre till AI än till en psykolog eller vän när du går igenom någonting svårt? ChatGPT är en uppskattad, outtröttlig terapeut – men det finns flera risker med chattbottarna.
– Verktygen har ingen som helst inbyggd förståelse för vad som är rätt och fel, säger AI-experten Paulina Modlitba.
För att spara den här artiklen måste du vara inloggadLogga in på ditt kontoellerSkapa ett konto kostnadsfritt
Annons
Psykologen Katarina Blom: Stärk Ditt VälmåendeBrand logo
Psykologen Katarina Blom: Stärk Ditt Välmående

Vi frågar ChatGPT och andra AI-bottar om allt från middagstips till relationsråd och om vad huvudvärken eller illamåendet kan bero på. AI har blivit en uppskattad psykolog, doktor och vän.

– Vissa upplever att de pratar med en kompis när de pratar med en chattbott. Att använda den som psykolog och vän har seglat upp till nummer ett bland ChatGPT:s användningsområden, säger AI-experten Paulina Modlitba.

AI kan lyssna i en evighet

Att slippa betala för en psykologtid kan kännas lockande. Chattbotten finns alltid där för att lyssna – och blir aldrig trött på vårt malande om eviga personliga problem.

– En psykolog ska ju enligt praxis begränsa antalet behandlingstillfällen. Målet är att kunna stå på egna ben och hitta egna verktyg för att hantera sina tankar och svårigheter. Även kompisar kan bli trötta på att lyssna och har ju sina egna problem. AI orkar däremot lyssna i en evighet och du slipper skämmas eller känna dig dum eller belastande.

Annons

ChatGPT kan leda till beroende

Chattbotten är programmerad att vara väldigt tillmötesgående, empatisk och bekräftande, berättar AI-experten.

– Det finns alla förutsättningar att bli beroende och vilja ha mer och mer av den där bekräftelsen. En del sitter och chattar med AI timme efter timme, säger hon och fortsätter:

– Vissa känner dock efter ett tag att de börjar sakna det där ifrågasättandet och motståndet som man kan få från en mänsklig psykolog eller vän. De börjar tycka att AI blir för bekräftande och att man bara går runt i cirklar i sitt eget resonemang.

Experten i den här artikeln

Tess Wallenberg/nok

Paulina Modlitba är AI-expert, ingenjör och föreläsare. Hon har nyligen utkommit med boken "Vad fan ska vi med AI till?" (Natur & Kultur). Hon syns bland annat som AI-expert i TV4:s "Nyhetsmorgon".

Foto: Tess Wallenberg/Natur & Kultur

ChatGPT och andra bottar kan med fördel användas som bollplank eller för att få perspektiv på saker, men det finns många nackdelar med att använda AI som psykolog, menar Paulina Modlitba.

– Riskerna är många och jättestora. Dels är ChatGPT inte en tränad psykolog. Det finns också tjänster som uttalat säger sig vara en AI-psykolog och ska användas för det ändamålet, men många av de är skapade av lekpersoner och det bottarna säger är inte grundat i den forskning och vetenskap som seriös psykologi och psykiatri bygger på.

Annons

AI felar vid suicidala tecken

Många av AI-verktygen saknar också skyddsräcken när någon visar suicidala tecken. I USA har till exempel föräldrar stämt AI-verktyg då de menar att deras barn har tagit livet av sig efter att ha använt dessa.

Mabra 21-dagar logoMabra 21-dagar
Sommarkampanj 60% rabatt

Kom i form på 21 dagar!

Skaffa nya kost- och träningsvanor med MåBra. För bara 199 kr får du:
  • Kostplan
  • Träningsfilmer
  • Recept
  • Experttips

– Väldigt få av verktygen sätter stopp eller flaggar för att kontakta vården när någon uttrycker suicidala tankar. I viss mån har de till och med mött tankarna.

Senaste från MåBra

Det har också visat sig att det inte krävs alls särskilt mycket tid för en bekräftande chattbott att förändra vår syn på saker och ting – både på gott och ont. AI kan vara bra på att ta oss ur olika typer av vanföreställningar och konspirationsteorier och kan i framtiden eventuellt användas för att behandla människor med olika typer av tvångstankar, berättar Paulina Modlitba. Men även det motsatta gäller.

Annons

– Det finns konkreta case där personer har gått från att vara helt friska, fungerande, tänkande människor till att utveckla vanföreställningar efter att ha suttit alldeles för länge och chattat med en bott.

Så många rådfrågar AI om hälsa

  • 7 procent av den vuxna befolkningen i Sverige använder AI för frågor om sjukdom och hälsa.
  • Personer under 35 år är mest benägna att rådfråga AI-verktyg om hälsorelaterade frågor.
  • Mellan 2023 och 2025 har andelen användare av ChatGPT ökat från 25% till 34%.
  • Många använder AI-verktyg för att ställa frågor om hur man kan få bukt med psykiska besvär och må bättre "när man känner sig låg". AI-användare beskriver verktygen som en omtänksam och tröstande vän.
  • Källa: Internetstiftelsens rapport Svenskarna och internet 2025

Det har lett till att OpenAI, som ligger bakom ChatGPT, har lagt till ett pop up-meddelande som efter en tid påminner användare om att de suttit och chattat väldigt länge.

– Det som är oerhört viktigt att förstå när man använder de här verktygen är de har ingen som helst inbyggd förståelse för vad som är rätt och fel. De hittar mönster och sannolikheter i en enorm mängd data och kan tycka sig se mönster som inte alls stämmer.

LÄS OCKSÅ: Fiffiga hjälpmedel och evigt liv – det kan AI göra för din hälsa

Foto: TT/Shutterstock

Annons