Kommunikationsforum

Mere AI mere bullshit?

Et AI-genereret interview med Michael Schumacher er et ekstremt eksempel på, hvordan kunstig intelligens kan misbruges til at skabe forvrængede nyheder. Er mere AI lig med mere bullshit? 
Mikkel Toxvig er kommunikations- og ledelseskonsulent i LEAD, og Andreas Fricke Møller, chefkonsulent i LEAD | Foto: Getty Images
Mikkel Toxvig er kommunikations- og ledelseskonsulent i LEAD, og Andreas Fricke Møller, chefkonsulent i LEAD | Foto: Getty Images
Andreas Fricke Møller og Mikkel Toxvig

I april måned fyrede det tyske ugeblad Die Aktuelle chefredaktør Anne Hoffmann, efter bladet bragte et interview med formel 1-legenden Michael Schumacher. Interviewet blev præsenteret som Schumachers første i et årti

I 2013 var han involveret i en alvorlig skiulykke og har siden da lidt af en hjerneskade. Det var derfor en stor nyhed – ja, ”en verdenssensation”, som forsiden udbasunerede sort på gult – at Die Aktuelle havde fået et interview med Schumacher. 

Problemet var, at samtalen med Schumacher stammede fra en kunstig intelligens. Baseret på lydbidder fra tidligere interviews med racerkøreren svarede den som ham og afslørede blandt andet detaljer om hans tilstand og genoptræning, som det ellers kun er de allernærmeste, der kender til. 

Reaktionen på artiklen var, at Schumachers familie truede med sagsanlæg, magasinets udgivere fordømte den ”smagløse og vildledende artikel”, og chefredaktøren mistede sit arbejde.

Forvrængede nyheder

Historien om Schumacher-interviewet er et af de hidtil mest iøjnefaldende og ekstreme eksempler på, hvordan kunstig intelligens kan misbruges til at skabe forvrængede nyheder. 

Det er svært at sige, hvad Die Aktuelles motiv var. Måske testede de teknologiens evner eller afprøvede grænserne for teknologiens møde med læserne: Hvis man kan bringe historier, hvor journalisten udspørger den kunstige intelligens, kan man så også trykke et interview, hvor den kunstige intelligens udgiver sig for at være en anden? Eller måske brugte de bare ”verdenssensationen” til at få opmærksomhed og sælge flere magasiner?

Hvad end motivet bestod i, var fordømmelsen hurtig og kontant: Kunstig intelligens er glimrende mange steder, men at imitere en hjerneskadet kendis er usmageligt og uacceptabelt.

Mængden af bullshit i verden

Et nærliggende spørgsmål at stille i forlængelse af Schumacher-interviewet er, hvordan kunstig intelligens kommer til at påvirke mængden af forvanskede nyheder, fake news og bullshit i verden? Bliver der mere, mindre eller helt nye, hallucinerende former for bullshit?

For at kunne nærme sig et svar på det spørgsmål er det nødvendigt først at definere, hvad bullshit er. Sproget.dk definerer bullshit som udtalelser, der virker uoprigtige, overfladiske eller pralende. De kan handle om at bluffe, bedrage eller være bevidst misvisende. 

Bullshit er dog mere end det. Ordet henviser nemlig også til et akademisk forskningsfelt og er et fagbegreb, som er mere præcist end forsøgsvise synonymer på dansk som ”nonsens” eller ”vrøvl”. Det meste forskning i bullshit tager udgangspunkt i Harry G. Frankfurts tanker. Han er filosof og professor emeritus på Princeton University. 

Ifølge Frankfurt er det særligt kendetegnende ved bullshit, at det ophæver eller suspenderer spændet mellem sandt og usandt. Når en person taler sandt, forsøger hun at give et klart, ærligt og retvisende billede af, hvordan hun oplever virkeligheden. Når hun lyver, gør hun det modsatte, men stadig med interesse for sandheden. For hun er optaget af, at andre ikke finder ud af, hvad sandheden er, eller gennemskuer, at hun lyver. Men når den samme person bruger bullshit, er hun imidlertid ligeglad med, om det, hun siger, er sandt eller usandt. Målet er i stedet at opnå en virkning eller effekt, for eksempel ved at bluffe sig til status eller magt ved at overtale, påvirke og vække følelser. 



Bullshit overflødiggør dermed sproglige maksimer om at tale sandt, klart, relevant og retvisende, fordi ens opfattelse af, hvordan verden og virkeligheden ser ud, ikke længere ligger til grund for, hvad man siger og gør. I stedet skaber man sin egen virkelighed gennem sproget, uafhængigt af sandt og falsk. Ligesom Die Aktuelle gjorde, da de med en slags ultimativ konstruktivisme præsenterede en virkelighed, hvor Schumacher igen gav interviews. 

Fordele og ulemper

Kernen i bullshit er altså en ligegyldighed over for sandhed og løgn. Målet er i stedet at opnå en effekt. Hvordan afspejler det sig i kunstig intelligens? 

På den positive side er der mulighed for at udvikle teknologi, der faktatjekker videoer, artikler og indlæg på nettet, eller som modererer fake news og andre former for forfalskede nyheder. Teknologien kan også kommentere på hadske og opflammende budskaber eller censurere trusler og racisme. 

Men hvilken ideologi ligger bag programmeringen af den teknologi? Handler det om at gøre verden til et bedre sted med en åben, stærk og inkluderende demokratisk dialog, eller drejer det sig om at fastholde brugerne så længe som muligt udelukkende med et kommercielt mål om at maksimere egen indtjening? 

På den negative side kan kunstig intelligens være med til i endnu højere grad end i dag at samle folk i ekkokamre, hvor sandheden er mindre vigtig end fællesskabet. Som den norske videnskabsjournalist Lena Lindgren skriver i sin bog ”Ekko. Et essay om algoritmer og begær”, så samler, spreder og splitter algoritmer. Konfliktniveauet stiger, og der sker en polarisering, hvor meningsfæller mødes og støder sammen med meningsfjender, mens algoritmerne skaffer tilskuere og engagement til åstedet. Folk samles i massebevægelser, og ekkokamrene spreder spin, løgne, rygter, konspirationer og bullshit. De resulterer i ”infodemier”, der kan være lige så farlige som pandemier. Ifølge Lindgren peger forskningen på en bestemt type algoritme som hovedårsag, nemlig anbefalingsmotorer – især på YouTube. 

Med kunstig intelligens kan det også være svært selv at faktatjekke svar eller løsninger. Hvad baserer den kunstige intelligens sine svar på? Her ligger en omfattende risiko for bullshit. Mister man evnen til at efterprøve kilder og incitamentet til selv at undersøge kilder og politiske eller akademiske diskussioner til bunds, er der risiko for at blive forført af den kunstige intelligens’ hurtige – og tilsyneladende præcise – svar. Men er svaret korrekt, eller hallucinerer teknologien og præsenterer et svar, der lyder sandsynligt, men som enten er forkert, misvisende eller irrelevant? Og hvilke pointer misser man ved at udelukkende at trække på kunstig intelligens’ udlægning?

Derudover kan man benytte kunstig intelligens til selv at blive storproducent af bullshit. Det kan blandt andet være:

  • Stater, der ønsker at påvirke andre lande
  • Stater, som vil manipulere deres befolkning
  • Partier, der vil skubbe til en dagsorden
  • Virksomheder, som forsøger at bearbejde krisesager
  • ”Eksperter”, der pludselig er enormt produktive og har ekspertise i alt
  • Internettrolde eller terrororganisationer, der ønsker at lave ravage.

Algoritmer er hverken gode eller onde

Det er selvfølgelige nærliggende at tro, at algoritmer er gode, fordi de erstatter menneskelige vurderinger og beslutninger med objektivitet og neutralitet – og dermed mindsker omfanget af fake news og bullshit. Men som Mads Vestergaard, ph.d. og forfatter, skriver i bogen ”Digital totalitarisme”, er algoritmer hverken gode eller onde. Derfor risikerer de at videreføre – og sågar intensivere – den diskrimination og forudindtagethed, der bevidst og ubevidst findes i en kultur. 

Det er i høj grad menneskelige holdninger, paradigmer og værdier, der ligger bag den data, som algoritmer fodres med, og algoritmer farves af den data, de spiser. Så hvis data er partisk, risikerer algoritmerne og deres resultater også at blive det, men diskriminationen bliver mere usynlig og får et fejlagtigt skær af videnskabelighed, når den stammer fra kunstig intelligens. Samtidig bliver det sværere at placere et ansvar. Er det den kunstige intelligens, programmøren, brugeren, virksomheden bag eller personerne, som data stammer fra, der bærer ansvaret?



Det er også nærliggende at tro, at algoritmer er vanskelige at manipulere med. Men som Peter Svarre, forfatter og ekspert i digital etik, skriver i sin bog ”Hvad skal vi med mennesker?”, så manipulerer de fleste virksomheder sandsynligvis med algoritmer hver dag. Det gælder blandt andet alle de virksomheder, som forsøger at forbedre deres placeringer i Googles søgeresultater. SEO er en milliardindustri, der bygger på viden om, hvordan Googles algoritme ser ud, og hvorfor den bedømmer visse typer indhold som mere relevant end andet. SEO er en kamp mellem virksomheder og Googles programmører. Resultatet bliver ofte hjemmesider fyldt med generisk indhold, der henvender sig mere til algoritmer end mennesker. 

Samme tendens ses på LinkedIn, hvor ivrige skribenter jagter flest mulige visninger og likes ved at skrive versaloverskrifter efterfulgt af en tekst, der er formuleret i den rette mængde tegn og indeholder tilstrækkeligt med tags til, at LinkedIn tilgodeser indlægget. For at gøre indlægget endnu mere algoritmevenligt – og ofte endnu mindre læservenligt – placerer skribenten linket til den artikel, vedkommende omtaler – altså hele årsagen til at skrive indlægget – i et kommentarfelt, så det tager længere tid at finde. 

I fremtiden kommer lignende manipulation af algoritmer til foregå andre steder. Svarre foreslår eksperter i ansættelsesoptimering, som hjælper jobansøgere med at blive udpeget af algoritmerne, og nyhedsmedier, der benytter kunstige intelligenser til at prioritere, hvilke nyheder de skal bringe, risikerer indblanding fra såkaldte ”newsjackere”, som kæmper for at placere bestemte nyheder højt på dagsordenen. 

Etik og kritisk tænkning

Spørgsmålet er så, hvem der kommer til at afgøre, om der bliver mere, mindre eller nye former for bullshit – og hvad man kan gøre for at få indflydelse på udviklingen i fremtiden.

Peter Svarre anbefaler i bogen ”Digital etik” at tænke etiske pauser eller øer ind i digital strategi og teknologisk udvikling. Svarre skriver, at organisationer og virksomheder typisk indretter sig på en sådan måde, at de bliver dygtige til at løse problemer, finde svar og handle resolut, og det kolliderer ofte med den etiske tænknings behov for tvivl og eftertænksomhed.

Etik kræver imidlertid tænkepauser eller dvæletid. Især når de kunstige intelligenser kommer til at minde mere og mere om mennesker. Så overføres nogle af vores etiske overvejelser til teknologien. I nyere tid har nogle IT-iværksættere kritiseret politikere for bureaukratisk træghed, der står i vejen for innovationen, men det kan være en overvejelse værd at bremse tempoet en smule – enten politisk eller organisatorisk. På den måde er der tid at forholde sig til de etiske implikationer af den teknologi, som er på vej.

Hastigheden i den kunstige intelligens kan i sig selv hjælpe med at finde mere overskud til gunstig intelligens i form af etiske diskussioner eller kritisk tænkning. Filosof Christoffer Boserup Skov argumenterer i bogen ”Kritisk tænkning i organisation og ledelse” for, at på trods af digitalisering og automatisering er der mere behov end nogensinde for grundlæggende menneskelige kompetencer som undren, refleksion og nysgerrighed. 

Medier og teknologier kæmper alle om at fange og fastholde opmærksomhed med et overflødighedshorn af information. Opmærksomheden er en ny valuta, og jo længere tid et medie formår at fastholde sine brugere, jo mere værdifuldt er det for mediet. I kampen om opmærksomhed fylder clickbait, fake news, deepfake-teknologier og manipulation af algoritmer. Det resulterer i, at informationer kan fabrikeres og deles i så højt et tempo og så overbevisende kvalitet, at det kan være svært at gennemskue, hvad der er sandt og falsk. Samtidig demokratiserer den lettilgængelige teknologi adgangen, så alle og enhver lynhurtigt kan sprede falsk, misvisende indhold. Så de teknologier, der tidligere var forbeholdt de største techvirksomheder, er snart tilgængelige for alle, og potentialet for bullshit og misvisende information er eksponentielt mangedoblet. 

Men der er forskel på information og viden, og det er afgørende at benytte sin viden til dels at forholde sig til teknologiens implicitte og eksplicitte etik (bl.a. som udviklere, ledere og politikere), dels at udnytte sine menneskelige evner inden for kritisk tænkning (som brugere) til at forholde sig til de informationer, man mødes af. Lykkes den kombination, bliver det nemmere at modarbejde nogle af de farer for bullshit, fake news, polarisering osv., som kunstig intelligens indeholder.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

!

Jeg accepterer vilkårene for nyhedsbreve

Forsiden lige nu

Læs også