At dele eller ikke at dele … krigens gru

Gør det mere skade end gavn, når folk tager del i den informationskrig, der udkæmpes på millioner af menneskers sociale medier verden over?
Når krig remixes i realtid på TikTok og andre sociale medier, er de hyperpolariserende algoritmer med til at farve millioner af menneskers syn på konflikt. Et supervåben i kampen om at vinde narrativet, folkestemningen, at rekruttere og mobilisere flokke. Kilde: AI-skabt Firefly-montage collage.
Når krig remixes i realtid på TikTok og andre sociale medier, er de hyperpolariserende algoritmer med til at farve millioner af menneskers syn på konflikt. Et supervåben i kampen om at vinde narrativet, folkestemningen, at rekruttere og mobilisere flokke. Kilde: AI-skabt Firefly-montage collage.
Digital analytiker Katrine Pedersen

Mens millioner af mennesker verden over følger krigen i Gaza i realtid, er spørgsmålet om at dele eller ikke at dele blevet et dilemma, der rækker langt ud over det personlige valg.

Sociale medier er primære informationskanaler, også når der er krig i verden. Det er der intet nyt i, heller ikke den komplekse diskussion om de potentielle skader og fordele ved folks engagement i informationskrigen på sociale medier. På den ene side kan det at deltage aktivt sprede opmærksomhed om vigtige emner og bidrage til en bredere forståelse af en konflikt. På den anden side kan den samme deltagelse også forværre situationen ved at sprede misinformation, forstærke propaganda og dermed øge polarisering

Den algoritmestyrede krigståge

Det er umuligt for de fleste at undgå at være indrullet i den “algoritmestyrede krigståge,” der har gjort det sværere end nogensinde at navigere i informationskrigens gråzoner. Algoritmer på sociale medier har en tendens til at fremhæve indhold, der skaber engagement, hvilket ikke nødvendigvis er det mest nøjagtige eller afbalancerede.

Det kan være særligt skadeligt i tider med konflikt, og sociale mediers incitamentsstruktur har fået kritik for særligt at gavne “magtfulde aktører uden skrupler; den belønner propagandister og opportunister, svindlere og dem, der søger opmærksomhed,” skriver techjournalisten Brian Merchant.

Dette betyder, ifølge Caitlin Chin-Rothmann fra Center for Strategic and International Studies (CSIS), at de beslutninger, som virksomhederne bag platformene træffer, er forbundet med stor magt, der kan have store konsekvenser.

Hun siger i et interview til mediet Democracy Now, at disse beslutninger ikke kun påvirker, hvordan mange mennesker ser og forstår konflikter, men også, hvordan krigens aktører opfører sig. “For eksempel har ekstremistiske aktører fundet ud af, at de kan få meget opmærksomhed og engagement ved at poste meget voldeligt, grafisk indhold.”

Det forstærker, ifølge Chin-Rothmann, polariserende synspunkter. Internettet er globalt, og både den israelske regering og Hamas’ publikum er ikke kun Israel, ikke kun Palæstina – det er hele verden. Hvor Hamas primært poster på platformen Telegram, der er mest populær i lande som Rusland og Ukraine, så er den israelske regering aktiv på sociale medier som X og Instagram. 

Men én ting er de synlige delinger og opdateringer, noget andet er den informationsstrøm af had, vold, ekstremisme, antisemitiske og antimuslimske angreb, der er taget til i styrke i kølvandet på Hamas’ terrorangreb 7. oktober i år. En konstant tilgængelighed og en grad af samtidighed, der har transformeret den måde, vi forstår og engagerer os i globale konflikter på. Det har skabt et nyt paradigme for krigsførelse og offentlig opmærksomhed.

Rita Katz, direktør for Site Intelligence Group, beskriver det således:

”I mine 25 år med at spore ekstremisme og konflikter har jeg aldrig set misinformation nå så virale niveauer, som det har under denne krig mellem Israel og Hamas.” Ifølge Katz er informationskrigen mellem Israel og Hamas særligt farlig, “fordi der er få, hvis overhovedet nogen emner, der deler samfund så meget som denne.”

Sociale medier som våben

En magt, som virksomhederne bag ikke er gode nok til at forhindre misbrugt. Elon Musks sociale medie X har fået stemplet som komplet upålidelig kilde til nyheder. Ifølge konspirationsforsker Mike Rothschild var Hamas’ angreb på Israel “den første rigtige test af Elon Musks version af Twitter, og det fejlede spektakulært.” 

Europa-Kommissionen, EU’s udøvende organ, har, ifølge CNN, krævet, at bl.a. Meta og Bytedance forklarer, hvordan de bekæmper spredningen af terror, vold og had. I første omgang fik de 24 timer til at beskrive de foranstaltninger, der er iværksat for at overholde EU-reglerne om indholdsmoderation, som er fastlagt i den nyligt vedtagne Digital Services Act (DSA). Under den nye lovgivning kan EU iværksætte en formel undersøgelse.

Gør det mere end skade end gavn at poste?

Og spørgsmålet, der har rejst sig i flere medier, er: Hvad er omkostningerne ved at deltage online? På det individuelle plan diskuteres den enkeltes ansvar. Vi er alle en del af informationskrigens økosystem, når vi scroller igennem vores nyhedsfeed. Spørgsmålet er, om det at deltage i krigen online, når vi scroller, deler, liker mv. gør mere skade end gavn.

Det spørger David Oliver fra USA Today retorisk, og det samme gør Hannah Jane Parkinson fra The Guardian: “Er det rigtigt eller forkert at poste om konflikter på sociale medier??” En anden dimension, som The New York Times-journalisterne Emma Goldberg and Sapna Maheshwari peger på, er, at flere oplever pres for at udtale sig om krigen, fordi stilhed betragtes som et signal i sig selv.

På den anden side kan det at dele have omkostninger som hadtale og personangreb. Andre har sågar mistet deres jobs for at ytre sig online om krigen. Artforums tidligere chefredaktør David Velasco blev f.eks. fyret efter offentliggørelsen af et brev, der støttede palæstinensisk befrielse.

Shadowbanning

“Shadowbanning”, eller oversat til dansk “skyggecencuring”, er et begreb, der bliver brugt i flæng. Men det er ikke altid nemt at definere det. Det handler i bund og grund om, hvordan platforme håndhæver deres regler på en måde, der kan påvirke synligheden af bestemte synspunkter eller informationer. En skjult form for moderation, der begrænser synligheden af indhold på sociale platforme uden at forbyde det helt.

Dette kan påvirke brugere, der, uden at vide det, ikke længere får deres indlæg set af andre. I forbindelse med konflikten mellem Israel og Hamas har aktivister, ifølge det amerikanske medie VOX, udtrykt bekymring for, at indhold, der støtter palæstinenserne, bliver uretfærdigt undertrykt af platformenes moderationssystemer.

I den forbindelse er ”algospeak” benyttet som en strategi, der generelt set bruges på sociale medier for at omgås AI-drevne filtre ved at erstatte følsomme ord med alternative udtryk, f.eks. “seggs” for sex.

Denne praksis omfatter også et særligt udtryk for palæstinensere, “P*les+in1ans”, som afspejler bekymringer om censur af propalæstinensisk indhold under konflikten mellem Hamas og Israel. Dette fænomen er med til at understrege spændingerne mellem brugernes ytringsfrihed og sociale medieplatformes regulering.

At navigere i de sociale mediers informationsflod kræver ikke kun et kritisk øje, men også en forståelse for de konsekvenser, de digitale fodaftryk kan have. Brugere står over for beslutningen om at dele indhold med bevidsthed om, at de ikke kun påvirker deres eget digitale miljø, men også kan bidrage til den bredere kontekst af polarisering og konflikt.

At deltage i den digitale diskurs om konflikter kan være til både personlig og samfundsmæssig gavn, men det kan også forstærke misforståelser og øge spændinger. Der er altid en risiko for utilsigtet at forstærke de kræfter, der splitter os. I sidste ende kan det være evnen til at lytte og reflektere, snarere end at poste impulsivt, der definerer kvaliteten af vores deltagelse i denne digitale æra.

Del artikel

Tilmeld dig vores nyhedsbrev

Vær på forkant med udviklingen. Få den nyeste viden fra branchen med vores nyhedsbrev.

Forsiden lige nu

Læs også