Eksperter fra University of Cambridge adver nu om, at AI-verdenen har brug for beskyttelse mod en 'ny digital efterlivs-industri'.
Eksperterne forklarer, at de såkaldte 'deadbots' og 'friefbots, som efterligner sprogmønstre og personligheder hos personer, der er gået bort, kan påføre de efterladte psykisk skade.
Der er virksomheder, der allerede har oprettet disse chatbots, som giver folk mulighed for at skabe avatarer af afdøde kære og få en AI, der foregiver at være dem, der taler, som om de stadig var i live.
Høj risiko
Holdet af AI-etikere fra University of Cambridge mener, at der er en 'høj risiko' for mennesker på grund af disse 'ghostbots', som kan foregive at tale til dig fra graven.
De advarer om, at disse uhyggelige chatbots kan bruges af virksomheder til i det skjulte at reklamere for produkter til folk, der sørger, alt imens de udgiver sig for at være en simulation af deres afdøde.
Virksomheder, der gør dette, findes allerede i form af apps og platforme som HereAfter og Project December.
Afhængigt af hvordan denne teknologi udvikler sig, kan folk ende med at blive 'forfulgt af de døde', da chatbots sender dem meddelelser og forsøger at kommunikere med dem uopfordret, hvilket er en meget reel bekymring, hvis der ikke er sat sikkerhedsforanstaltninger på plads for at begrænse denne teknologi.
Pas på, hvis du lader dig trøste
Eksperterne opfordrer også til forsigtighed hos dem, der faktisk bliver trøstet af en 'spøgelsesbot'. Interaktionerne kan nemlig blive følelsesmæssigt drænende og risikere at gå ud over relationer i det virkelige liv.
"Hurtige fremskridt inden for generativ kunstig intelligens betyder, at næsten alle med internetadgang og noget grundlæggende know-how kan genoplive en afdød elsket," siger medforfatter af undersøgelsen Dr. Katarzyna Nowaczyk-Basińska.
"Dette område af kunstig intelligens er et etisk minefelt. Det er vigtigt at prioritere den afdødes værdighed og sikre, at dette ikke bliver indskrænket af økonomiske motiver fra digitale efterlivstjenester, for eksempel."
Kilde: LadBible