Superlet smartwatch til lav pris

Kan du se forskel på ægte og falsk?

Foto: Thomas Ulrich / Pixabay)

Den kunstige intelligens, der spreder sig overalt for tiden, har langt fra kun fordele.

På det sociale medie Twitter betyder den f.eks, at det er meget svært at skelne falske robot-profiler fra tweets, der er skrevet af rigtige mennesker.

Indtil for nylig var det ikke så svært: Da kunne man med et par enkelte klik spore billeder tilbage til kilden.

Samtidig lød robot-teksten forkert, selvom den grammatisk set var korrekt. Præcist som, når man be’r Google Translate oversætte et dokument til f.eks. dansk.

Ifølge ny forskning fra CBS – Copenhagen Business School – er det blevet nemmere at mis-informere og manipulere i de sociale medier.

De nye teknologiske muligheder er derfor en trussel mod demokratiske samfund, vurderer de to forskere bag analysen – Sippo Rossi og Raghava Mukkamala.

Hvem kan man efterhånden stole på i de sociale medier? (Foto: Shutterstock / Copenhagen Business School)

Rossi er ph.d. studerende ved Institut for Digitalisering på CBS. Han har specialiseret sig i bots og misinformation i sociale medier.

Mukkamala er leder af Centre for Business Data Analytics og lektor ved Institut for Digitalisering på CBS.

I et eksperiment med 375 deltagere undersøgte forskerne, hvor svært det er at se forskel på menneske- og robot-profiler på Twitter.

Resultatet viste store problemer med at skelne ægte og kunstigt genererede profiler fra hinanden.

Faktisk opfattede mange deltagere de falske profiler som værende ”mindre sandsynligt falske” end de ægte profiler.

”Vores resultater tyder på, at den teknologi, der anvendes til at generere falske profiler har udviklet sig i en sådan grad, at det er svært at skelne dem fra de ægte profiler,” forklarer Sippo Rossi.

Det er blevet svært at adskille ægte og falske profiler på Twitter. (Foto: Claudio Schwarz / Unsplash)

”Min anbefaling lige nu er, at man kan bør stole på de mennesker i sociale medier, som man allerede kender,” fortsætter han.

Undervejs i deres analyse skabte de to forskere deres egne falske Twitter-tråde, hvor emnet var krigen i Ukraine.

Twitter-tråden indeholdt både ægte og falsk genererede profiler samt tweets, der støttede begge sider i krigen.

De falske profiler brugte computer-skabte syntetiske profil-billeder, der var lavet med app’en ”StyleGAN”.

Opslagenes tekster blev genereret ved hjælp af GPT-3, der indeholder samme sprogmodel som i verdens mest downloadede app for tiden – ChatGPT.

Interessant nok var de konti, der blev stillet flest spørgsmål ved i forhold til akkuratesse og sandsynlighed, dem med  mennesker bag.

En af de ægte profiler blev f.eks. fejlagtigt kategoriseret som falsk af 41,5 procent af de analysens deltagere.

Kunstig intelligens som f.eks. I ChatGPT kan være med til at manipulere folk online end nogensinde før, advarer to danske forskere. (Foto: Rolf van Root)

Helt anderledes med en af de falske profiler. Kun 10 procent af de mennesker, som så den, mistænkte den for at være lavet af en robot.

Raghava Rao Mukkamala påpeger, at udbredelsen af ”deep learning” genererede profiler på sociale medier skaber markante udfordringer for samfundet og demokratiet, når de bliver brugt til politisk manipulation, misinformation eller cyber.mobning og cyber-kriminalitet.

”Autoritære regeringer oversvømmer i øjeblikket sociale medier med robot-profiler, der tilsyneladende støtter deres sag. Målet er at manipulere informations-strømmen ud i verden,” forklarer han.

”Det bliver afgørende for udviklingen, om samfund nøje overvejer disse teknologiers potentielle konsekvenser og arbejder på at imødegå de negative effekter,” understreger Raghava Rao Mukkamala. Han er lektor ved Institut for Digitalisering på CBS i København.

De to forskeres næste skridt bliver at undersøge, om robot-profiler kan identificeres ud fra diskussioner i nyhedstråde, hvor falske og ægte profiler kommenterer på en specifik artikel i samme tråd.

”Vi har brug for nye måder og nye metoder til at håndtere det her, fordi det nu er stort set umuligt at få ånden tilbage i flasken,” tilføjer Sippo Rossi.

”Hvis mennesker ikke længere er i stand til at opdage de falske profiler og opslag og anmelde dem, må det gøres automatisk med for eksempel lukning af konti og id-verificering.

Ifølge de to forskere må de firmaer, der står bag de sociale medier, påtage sig mere ansvar end i dag. De  skal også udvikle bedre sikkerheds-foranstaltninger.

De to dansk-baserede forskeres resultater er udgivet på ”The Hawaii International Conference on System Science” (HICSS)….

 

 

 

 

Ingen kommentarer endnu

Der er endnu ingen kommentarer til indlægget. Hvis du synes indlægget er interessant, så vær den første til at kommentere på indlægget.

Skriv en kommentar

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

 

Næste indlæg

Superlet smartwatch til lav pris