The Median Is The Message

Vi drukner snart i AI bla-bla-bla. “It’s the digital equivalent of repeatedly making photocopies of photocopies in the old days.” 
Alle logoer, indretninger, tv-serier, cafeer, klummer og politiske projekter er begyndt at ligne hinanden. Vi bortskaffer alt, der kan skabe mental vindmodstand. Alt bliver mere og mere mainstream med AI. Mainstream har vundet. Kilde: Getty Images.
Alle logoer, indretninger, tv-serier, cafeer, klummer og politiske projekter er begyndt at ligne hinanden. Vi bortskaffer alt, der kan skabe mental vindmodstand. Alt bliver mere og mere mainstream med AI. Mainstream har vundet. Kilde: Getty Images.
Timme Bisgaard Munk

Den egentlige skurk i Georg Orwells “1984” er ikke Big Brother. Det er dobbelt tænkningen som en altfavnende illusion. Dette definerer Orwell som evnen til at tro på, at to modsatte ting kan være sande på samme tid. Den gennemsnitlige sandhed med andre ord. Netop i 1984 bemærkede den engelske reklamemand Jim Carroll et mystisk fænomen. 

Alle nye biler lignede hinanden til punkt og prikke. Forklaringen var enkel. Fra begyndelsen af 1980’erne blev alle nye biler i England testet i den samme vindtunnel. Kravet om en god benzinøkonomi havde skabt et fælles gennemsnitligt, intetsigende anonymt udtryk for alle bilerne. Nu er vi ved at blive blæst omkuld i en ny og større vindtunnel af AI-ligegyldigheder. Nu er det ikke længere blot bilerne, som ser ens ud. I fremtiden er det alle kreative udtryk, der er renset for alle, der kan skabe mental vindmodstand. ChatGPT’s algoritme vælger nemlig altid det mest brugte og gennemsnitlige ord, hvilket betyder, at det intetsigende og banale har fået superkræfter. Hvor det før krævede en personlig indsats at være banal og gennemsnitlig, er det nu en gratis og fuldt automatiseret omgang for alt og alle. 

Problemet bliver blot større dag for dag. Om blot to år er der ikke længere originalt menneskeskabt indhold tilbage, som ChatGPT ikke allerede har trænet sig selv på. Den lider derfor om lidt af desperat datasult. Modelkollapset kaldes den frygtede situation blandt IT-nørder. Dette kollaps opstår, når AI’er trænes på outputtet fra andre AI’er. Resultat er indhold af faldende kvalitet eller værdi. Som AI-forsker Ilia Shumailov udtrykker i den videnskabelige artikel ”The Curse of Recursion: Training on Generated Data Makes Models Forget” om brugen af syntetisk indhold til at træne AI: 

“We find that use of model-generated content in training causes irreversible defects in the resulting models.”

Problemet er, at outputtet bliver et automatiseret snæversyn af et begrænset sæt ideer eller perspektiver. Erkendelsens dimensioner reduceres fra tre til to. 

En proces, som forsker og forfatter Ted Chiang i The New Yorker sammenligner med en uendelig fotokopi af fotokopier: 

“It’s the digital equivalent of repeatedly making photocopies of photocopies in the old days.”

Det betyder, at vi er ved at drukne internettet i bla-bla-bla. Som det så malerisk udtrykkes af professor Ross Anderson fra Cambridge Universitet, er AI-spam den nye forurening:

“Just as we’ve strewn the oceans with plastic trash and filled the atmosphere with carbon dioxide, so we’re about to fill the Internet with blah. This will make it harder to train newer models by scraping the web, giving an advantage to firms which already did that, or which control access to human interfaces at scale. Indeed, we already see AI startups hammering the Internet Archive for training data.”

Her vil ChatGPT’s almindeligheder fra 2026 blive forurenet af indavl og indholdsincest, så almindelighederne i en uendelig spiral bliver mere og mere banale og almindelige. AI bliver i den forstand det nye spam, som spammer mere og mere løs i de næste årtier. Dette vil langsomt og usynligt indsnævre vores mentale horisont i en nedadgående spiral. Tidligere tiders frygt for menneskeskabt corporate business bullshit virker absurd, når man tænker på den kommende AI-bullshitguldalder. Risikoen er, at menneskets originale og kreative indhold drukner i kunstigt indhold, som begynder at kopiere sig selv. Som filosoffen D’Arcy Blaxell skriver, er faren, at vi skaber et AI-ekkokammer:

“This means that genuine originality and creativity will be lost as we descend into a feedback loop of increasingly sharpened AI-orthodoxy; where common-sense is distilled into its computerized essence and communication becomes characterized by adherence. The problem is not that individual people will outsource to AI and forget how to be creative, or even that humanity as a whole will lose its capacity for ingenuity. It’s that the widespread adoption of ChatGPT will lead to an internet-wide echo chamber of AI-regurgitation where chatbots compete in an endless cycle of homogenization and repetition.”

AI er dog blot toppen af isbjerget, no AI-spam klichémetafor-pun intended. Algoritmiseringen af menneskets kulturelle og sociale liv er en gigantisk vindtunneleffekt. Mest læste-, mest sete-, mest lyttede-lister peger os alle igen og igen tilbage til medianen. Mens reklamemodellens evige jagt på klik, views og downloads altid er lig med det, flest mulige mest muligt kan lide. 

Overvågningskapitalismen er samtidig en frivillig social overvågning af alt og alle. Resultatet er en hyperkonform social optræden, hvor kun banale, hyperkonforme virtue-signaler får de nødvendige likes. Kun det fælles har social valuta, for kun det, som har social valuta, deles i de fælles feeds. 

Det er ikke polariseringen, men konformiteten, som ødelægger

The median is the message. Ikke blot ligner alle biler hinanden, det gør også alle logoer, indretninger, tv-serier, cafeer, Politiken-klummer og politiske projekter. Langt de fleste film i dag er remakes, serier eller spin-offs. Måske er SVM-regeringen kun mulig, fordi vælgerne har reduceret politik til den mest uambitiøse sum af middelmådigheder? Måske tror danskere kun på, at de kan få både skattelettelser og velfærd, fordi alt og alting er blevet et gennemsnit af noget? Igen og igen hører vi, at verden er ved at blive revet i tusinde stykker af polarisering og sociale grupper, som ikke længere deler en fælles virkelighed. Uden fælles virkelighed, ingen fælles sandhed. Intet kunne være mere forkert. Det er lige omvendt. Den alt for fælles virkelighed betyder ingen farlig sandhed. Det er ikke polariseringen, men konformiteten, som ødelægger. Vi ser ikke længere hinanden, fordi vi ikke længere ser forskellen og modsætningens betydning. 

Mainstream har vundet

Mainstream har magten, som aldrig før. Georg Orwell så det totalitære i dobbelttækningen. Er dobbelttænkning ikke blot et andet ord for det gennemsnitlige? Nej, for ifølge ChatGPT er dobbelttænkning en specifik psykologisk mekanisme, der tjener et bestemt formål i et specifikt totalitært regime, som beskrevet specifikt i “1984”. Naturligvis, for i betydningens virtuelle vindtunnel er svaret altid specifikt, intetsigende, indlysende. Ja, måske er netop min banale ChatGPT-agtige fremhævelse af George Orwells “1984” beviset på, hvor indsnævret, karikeret og gennemsnitlig en muligt tænkt samfundskritik allerede er blevet. En skræmmende kliché. 1984 som ChatGPT’s input, model og output i al evighed. 

En kortere version af denne tekst har været trykt i Politiken som debatindlæg.

Læs mere her:

The age of average — Alex Murrell

Wind Tunnel Marketing — Jim Carroll’s Blog

Det nye spam er AI-spam, og den nye sult er datasult — Kommunikationsforum

The AI feedback loop: Researchers warn of ’model collapse’ as AI trains on AI-generated content | VentureBeat

https://arxiv.org/pdf/2211.04325.pdf

ChatGPT: The End of Originality? - Prindle Institute

Understanding and mitigating dimensional collapse in contrastive learning methods

Researchers warn of ‘model collapse’ as AI trains on AI-generated content | Hacker News

Ross Anderson Discusses AI Model Collapse as a Growing Problem in Online Content | Metaverse Post

https://arxiv.org/abs/2305.17493v2

AIs trained on other AI output will start producing junk within a few generations, scientists warn

ChatGPT Is a Blurry JPEG of the Web | The New Yorker

AI is killing the old web, and the new web struggles to be born - The Verge

What Happens When AI Has Read Everything? - The Atlantic

We could run out of data to train AI language programs | MIT Technology Review

What happens when we run out of data for AI models | VentureBeat

[2306.07899] Artificial Artificial Artificial Intelligence: Crowd Workers Widely Use Large Language Models for Text Production Tasks



Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også

Job

Se flere jobs