Flere bruger chatbots som deres ven: ”Det er problematisk, at vi ikke beskytter os selv godt nok.”

Flere folk anvender AI chatbots til emotionel støtte. Kilde: ChatGPT

Til Forskningen Døgn afholdes der mere en 80 forskellige landsdækkende forskningsevents heriblandt et samtaleforedrag om vores brug af AI chatbots.

Bolette Windfeld Thesbjerg, som taler med til foredraget, er ph.d.-studerende indenfor det hun kalder terapeutisk AI; folk der anvender AI til emotionel støtte. Ifølge hende deles der alt fra folks succesoplevelser til de helt store spørgsmål som: hvad er meningen med livet?

– Det er enormt forskelligt, hvad folk deler. Dertil er det ikke nødvendigvis én bestemt gruppe, der deler med chatbots. Det afhænger mere af folks livssituation.

Mange søger ofte sparring og vejledning blandt de mennesker, som kender os godt. Bolette Windfeld Thesbjerg forklarer, at flere og flere også anvender chatbots til at få afløb for deres indre tanker.

Det kan dog blive problematisk, når folk isolerer sig fra omverdenen og kun benytter chatbots som støtte. Hvis man stopper med at bruge andre mennesker som sine nærmeste eller en terapeut.

Chatbots er programmeret til, at vi kan spejle os i dem
Monir Mooghen fra Cybernauterne beskriver, at det for nogle kan have negative konsekvenser, hvis man anvender chatbots som psykolog og støtter sig for meget op af dem:

Man er begyndt at snakke om en AI psykose. […] Særligt hvis du er prædisponeret til at have psykiske sårbarheder og bruger chatbots rigtig meget. Det kan man godt gøre. Det er altid tilgængeligt, og det er gratis at bruge. For nogen kan det godt trigge noget mani eller psykosesymptomer baseret på de informationer, de får fra chatbots.

Monir Mooghen understreger, at en AI psykose ikke er en officiel diagnose, men at man de seneste år er blevet mere opmærksom på i den mentale sundhedssektor samt risicis ved brugen af AI som psykologisk vejledning.

Som bruger skal være opmærksom på, at hvis du deler dine bange anelser med en chatbot, kan den være kodet til at validere dine bekymringer, da de er programmeret til at vi kan spejle os i dem.

Monir Mooghen er teknoantropolog og er hos Cybernauterne en af eksperterne i cybersikkerhed. De har afholdt adskillige workshops og foredrag, hvortil de hjælper folk med at forstå den komplekse side af den digitale udvikling.

”Folk er jo ikke uddannet i, hvad de her teknologier kan og hvad de ikke kan.”
For hvor godt kender brugerne egentlig til de egenskaber, som er en del af den teknologi, disse LLM’s anvender?

Hvad er LLMs?- LLM (Large Lauguage Models) også kaldet store sprogmodeller er avancerede systemer drevet af kunstig intelligens, der forstår og genererer naturligt sprog eller menneskelignende tekst ved hjælp af de data, som de er blevet oplært i via teknikker til maskinel indlæring.

– LLM’er kan automatisk generere tekstbaseret indhold, som kan anvendes på en lang række anvendelsesområder på tværs af brancher.

– Eksempel på LLM’s: GPT-4 (OpenAI), BERT (Google) og RoBERTa (Facebook)

Kilde: Microsoft Azure

De fleste af os har før brugt AI-modeller til at stille spørgsmål i forbindelse med skole eller arbejde, men da flere anvender dem til mere personlige samtaler, er der ting ved teknologien, som brugerne bør være mere opmærksom på.

– Kunstig intelligens bliver markedsført på, at det er den her magiske teknologi, som kan give dig svar på alt. Det vil sige, at mennesker som bruger chatbots, har rigtig meget tillid til dem, men de folk er jo ikke blevet uddannet i, hvad de her teknologier kan, og hvad de ikke kan, forklarer Monir Mooghen.

Èn ting er, at folk har stor tillid til den information, der kommer fra chatbots, som kan være sundhedsfaglige råd eller psykologiske strategier, uden at have fakta undersøgt det nærmere.

Derudover uddyber Monir Mooghen, at sprogmodeller træner deres teknologi på den data, vi giver dem.

– Det er problematisk, at vi som brugere ikke beskytter os selv godt nok. Vi tænker ikke over, at vi videregiver vores dybeste tanker til millionærvirksomheder, som ikke er til for at varetage andre interesser end deres egne.

Bias og manipulation i samtale med AI chatbots
Det kræver en del erfaring at opdage bias hos en chatbot. Generelt handler det om at være mere kildekritisk samt forstå hvorfra chatbots indhenter den information, som den videregiver.

Ada Ada Ada, som er algoritmisk kunstner og står for samtaleforedraget, fortæller om nogle af de vigtig pointer, som bør fremhæves:

– På teknologi-siden er det vigtigt at forstå at AI chatbots ikke er bundet op på sandhed, men på statistik. De vender tilbage med statistisk sandsynlige svar. Hvis man snakker med dem om ting, der ikke er almenkendte, skal man være ekstra påpasselig. På kilde-siden har vi fokus på at se hvor AI chatbots får deres viden fra.

Det er vigtig at forstå, at chatbots i højere grad ønsker at give et svar, fremfor et nødvendigvis sandfærdigt svar. En del af teknologien er nemlig baseret på, at den ønsker at understøtter en ”feedback-respons” samtale og holde tråden i gang.

Kan en chatbot faktisk være din ven?
En af de helt store forskelle i denne sammenhæng på chatbots og mennesker er, ifølge Bolette er, at du med en chatbot aldrig vil opnå et gensidigt venskab:

– Chatbotten kommer jo ikke med et liv eller nogle problemer, som du kan interessere dig for. På den måde er der en gensidighed, som altid vil mangle.

Til sidst er det nærliggende at spørge, om en chatbot faktisk kan være din ven? Hertil svarer Bolette Windfeld Thesbjerg, at netop gensidigheden adskiller chatbotten fra menneskelige relationer.

For Monir Mooghen er svaret klart:

– Du kan ikke være venner med en chatbot. Du bør ikke inkludere den i dine personlige tanker og i dine sundhedsoplysninger […] Jeg synes, det er meget bekymrende, at et firma som OpenAI hjælper til med at udføre militære angreb for den amerikanske regering, mens de trænes på vores oplysninger. Det skal man jo have med i tankerne, at de her data lige så godt kan manipuleres i fremtiden…”

Foredraget “Kan en chatbot være din ven?” finder sted mandag d. 20. april klokken 16:00-18:00 på mødestedet Union i København.

Sådan gjorde vi: Jeg undersøgte events til Forskningens Døgn og valgte eventet “Kan en chatbot være din ven?”. Herefter kontaktede jeg Monir Mooghen fra Cybernauterne om et interview. Derefter fik jeg et interview med Bolette Windfeld Thesbjerg om hendes forskning. Til sidst fik jeg kontaktet Ada Ada Ada, som sendte mig et svar på mail.

 

Leave a Reply

Your email address will not be published.