YouTubes Crackdown på QAnon fungerer ikke

Den højreekstreme gruppe QAnon har fanget offentlighedens opmærksomhed de seneste uger for sin evne til at manøvrere sociale medieplatforme for at sprede misinformation og skabe viral opmærksomhed for sine sammensværgelsesteorier.

Sociale medieplatforme som Twitter og TikTok har handlet mod gruppen efter længe afkrævede konspirationsteorier som #PizzaGate fik ny opmærksomhed og forbød konti og deaktiverede dets populære hashtags fra at dukke op i søgning. Selvom begge platforme har vist sig at være grobund for gruppen, har QAnon blomstret på YouTube i årevis - på trods af virksomhedens investeringer i at moderere det.

Nu forsøger videoplatformen at stoppe QAnon-videoer i at vises i brugernes anbefalinger, men en Digital Trends-test viste, at konspirationsteorivideoerne stadig vises på fremtrædende steder på YouTube-hjemmesiden.

QAnon-supporter med Q-flag Scott Olson / Getty Images

QAnon-tilhængere tror på en række afkrævede konspirationsteorier, der stammer fra 4chan- og 8chan-imageboards i slutningen af ​​2016. Gruppen mener, at en figur ved navn “Q”, der hævder at være en del af Trump-administrationen, sender udsendelser om præsident Donald Trumps krig mod en "dyb tilstand" plot. Gruppen har oplevet stor vækst på YouTube siden 2016, da den engagement-drevne algoritme fremmer QAnon-videoer.

”QAnon greb oprindeligt trækkraft på YouTube,” sagde Will Partin, en forskningsanalytiker ved Data & Society Research Institute, der har studeret gruppen siden 2017. “Det blev hentet af YouTubers, der virkelig gav sammensværgelsesbenene og som et resultat , spredte det virkelig og gjorde arbejdet med at forbinde det med andre ting, der allerede var i luften ”blandt de konservative.

"Du kan ikke forhindre nogen i aktivt at søge det"

Takket være selve YouTube-karakteren viste platformen sig at være det førende sted, hvor langformede, pseudodokumentarer og talkshows, der dechifrerede spor eller "brødkrummer", der blev droppet af "Q", blomstrede. De, der er interesserede i QAnon-teorier, kunne let finde andre brugere, der anbefaler yderligere videoer i kommentarsektionen eller gennem YouTubes anbefalingsalgoritmer - en funktion, der er kommet under kritik fra kritikere som en nem måde at "radikalisere" seere på.

Men nu, hvis du skriver "QAnon" i søgefeltet på YouTube, vil din skærm "fremtrædende overflade autoritative kilder" som nyhedsorganisationer og eksperter - en del af YouTubes plan om at rejse faktuelt indhold til bekæmpelse af misinformation. YouTube er også begyndt at have tekstfelter og informationspaneler, der linker til tredjepartskilder. Digitale tendenser fandt ud af, at YouTube giver et link til Wikipedia-artiklen om QAnon under relaterede videoer.

Youtube

YouTube sagde, at siden det implementerede nye politikker for indholdsmoderering i januar, har det set en reduktion på 70% i antallet af visninger, som QAnon-indhold får fra videoanbefalinger. Da YouTube er et videoplatformwebsted, ikke et socialt netværkswebsted, foregår moderering på video-til-video-basis, ikke efter konto. Og ifølge en YouTube-talsmand er platformens systemer blevet justeret til at sænke placeringen på QAnon-indhold i sidebjælken med anbefalinger, selvom du ser lignende videoer.

Imidlertid fandt Digital Trends, at efter at have set et halvt dusin QAnon-relaterede videoer på platformen, indeholdt YouTube mindst tre videoer med QAnon-relaterede sammensværgelser under fanen "Alle henstillinger" på hjemmesiden. En video, der blev anbefalet, nævnte sammensværgelsen omkring den kemiske forbindelse Adrenochrome - bredt cirkuleret inden for QAnon-grupper som opnået af elite Hollywood-figurer gennem drab på børn - og havde over 1 million visninger.

En repræsentant fra YouTube nægtede at kommentere denne historie.

Ifølge Partin er den måde, hvorpå QAnon-indhold ses på tværs af YouTube, ikke baseret på de videoer, der anbefales til brugerne, men selve indholdet af de QAnon-relaterede videoer. QAnon-påvirkere råber ofte en anden i en video eller dirigerer seere til andre sider, uanset hvordan YouTube modererer QAnon-tags eller videoer. Partin sagde imidlertid, at der er nogle QAnon-tags, der er så uklare, at det er umuligt for YouTube at udfylde søgeresultaterne med faktuelt indhold fra velrenommerede kilder.

”På det tidspunkt kan du ikke skjule det algoritmisk, du kan ikke forhindre nogen i aktivt at søge det,” sagde han.

Partin sagde, at YouTube engang var "nøglepunktet" for en bruger, der blev introduceret til QAnon-relateret indhold, men nu sker det meste af rekrutteringen på Facebook - hvor private QAnon-grupper kan svulme op i hundreder af tusinder og er særligt vanskelige at moderere.

Ifølge Facebook planlægger Facebook at foretage et lignende skridt for at moderere gruppen, som følger i fodsporene på Twitter og TikTok.

”Når platforme bevæger sig for at forbyde QAnon, gør de ofte det hele på samme tid for at have styrke i antal,” sagde Partin. ”Men det er virkelig svært at opbygge en politik om QAnon, fordi meget af det bare er almindelige konservative vælgere.”

Partin sagde, at den ene ting, han håber, at folk forstår om farerne ved QAnon-relateret indhold på sociale medier, er ikke hvor bredt eller hvor dybt dets sammensværgelser antages, men risikoen ved at trykke på selve "del" -knappen.

”Det er umuligt at kende nogens intentioner, men hensigten betyder ikke så meget,” sagde han. "Jeg er ligeglad med, om de gør det eller ikke tror på det, de opfører sig som de gør, og de spreder dette indhold og denne troværdighed, uanset hensigten bag det."

Seneste indlæg

$config[zx-auto] not found$config[zx-overlay] not found