Kelompok sayap kanan QAnon telah menarik perhatian publik dalam beberapa pekan terakhir karena kemampuannya untuk melakukan manuver platform media sosial untuk menyebarkan informasi yang salah dan menciptakan perhatian viral untuk teori konspirasinya.
Platform media sosial seperti Twitter dan TikTok telah mengambil tindakan terhadap grup tersebut setelah teori konspirasi yang telah lama disangkal seperti #PizzaGate mendapatkan perhatian baru, melarang akun dan menonaktifkan tagar populernya agar tidak muncul dalam pencarian. Meskipun kedua platform telah terbukti menjadi lahan subur bagi grup, QAnon telah berkembang di YouTube selama bertahun-tahun - meskipun perusahaan berinvestasi untuk memoderasinya.
Sekarang, platform video mencoba menghentikan video QAnon agar tidak muncul dalam rekomendasi pengguna, tetapi tes Tren Digital menemukan bahwa video teori konspirasi masih muncul di tempat-tempat yang menonjol di beranda YouTube.

Pendukung QAnon percaya pada sejumlah teori konspirasi yang tidak terbukti yang berasal dari gambar 4chan dan 8chan pada akhir 2016. Kelompok ini percaya bahwa seorang tokoh bernama "Q," yang mengklaim sebagai bagian dari Pemerintahan Trump, memposting kiriman tentang perang Presiden Donald Trump melawan plot "keadaan dalam". Grup ini telah melihat pertumbuhan besar di YouTube sejak 2016, sejak algoritme yang didorong keterlibatan mempromosikan video QAnon.
“QAnon awalnya menarik perhatian di YouTube,” kata Will Partin, seorang analis riset di Data & Society Research Institute, yang telah mempelajari grup tersebut sejak 2017. “Itu diambil oleh YouTuber yang benar-benar memberikan kaki konspirasi, dan sebagai hasilnya , benar-benar menyebarkannya, dan melakukan pekerjaan untuk menghubungkannya dengan hal-hal lain yang sudah mengudara ”di antara kaum konservatif.
“Anda tidak dapat menghentikan seseorang untuk secara aktif mencarinya”
Berkat sifat YouTube itu sendiri, platform ini terbukti menjadi tempat utama di mana film dokumenter palsu dan acara bincang-bincang berdurasi panjang berkembang pesat. Mereka yang tertarik dengan teori QAnon dapat dengan mudah menemukan pengguna lain yang merekomendasikan video tambahan di bagian komentar atau melalui algoritme rekomendasi YouTube - sebuah fitur yang mendapat kecaman dari para kritikus sebagai cara mudah untuk "meradikalisasi" penonton.
Namun sekarang, jika Anda mengetik "QAnon" di bilah pencarian YouTube, layar Anda akan "secara mencolok memunculkan sumber-sumber otoritatif" seperti organisasi berita dan pakar - bagian dari rencana YouTube untuk memunculkan konten faktual guna memerangi kesalahan informasi. YouTube juga mulai menampilkan kotak teks dan panel informasi yang terhubung ke sumber pihak ketiga. Tren Digital menemukan bahwa YouTube menyediakan tautan ke artikel Wikipedia tentang QAnon di bawah video terkait.

YouTube mengatakan sejak menerapkan kebijakan moderasi konten baru pada bulan Januari, jumlah penayangan konten QAnon dari rekomendasi video telah berkurang 70%. Karena YouTube adalah situs platform video, bukan situs jejaring sosial, moderasi berdasarkan video-ke-video, bukan berdasarkan akun. Dan menurut juru bicara YouTube, sistem platform telah disesuaikan untuk menurunkan peringkat pada konten QAnon di bilah sisi rekomendasi, bahkan jika Anda menonton video serupa.
Namun, Digital Trends menemukan bahwa setelah menonton setengah lusin video terkait QAnon di platform, YouTube menampilkan setidaknya tiga video dengan konspirasi terkait QAnon di bawah tab "Semua Rekomendasi" di beranda. Satu video yang direkomendasikan menyebutkan konspirasi seputar senyawa kimia Adrenochrome - beredar luas dalam kelompok QAnon yang diperoleh oleh tokoh-tokoh elit Hollywood melalui pembunuhan anak-anak - dan ditonton lebih dari 1 juta kali.
Seorang perwakilan dari YouTube menolak berkomentar untuk cerita ini.
Menurut Partin, cara konten QAnon dilihat di YouTube tidak didasarkan pada video yang direkomendasikan kepada pengguna, tetapi konten dari video yang terkait dengan QAnon itu sendiri. Pemberi pengaruh QAnon akan sering meneriakkan orang lain dalam video, atau mengarahkan pemirsa ke halaman lain, terlepas dari bagaimana YouTube memoderasi tag atau video QAnon. Namun, Partin mengatakan ada beberapa tag QAnon yang sangat kabur sehingga tidak mungkin bagi YouTube untuk mengisi hasil pencarian dengan konten faktual dari sumber terpercaya.
"Pada titik itu, Anda tidak bisa menyembunyikannya secara algoritmik, Anda tidak bisa menghentikan seseorang untuk secara aktif mencarinya," katanya.
Partin mengatakan YouTube pernah menjadi "tempat utama" bagi pengguna untuk diperkenalkan ke konten terkait QAnon, tetapi sekarang sebagian besar perekrutan terjadi di Facebook - di mana grup QAnon pribadi dapat membengkak menjadi ratusan ribu dan sangat sulit untuk dimoderasi.
Facebook dilaporkan berencana untuk melakukan langkah serupa untuk memoderasi grup, menurut The New York Times, mengikuti jejak Twitter dan TikTok.
"Ketika platform bergerak untuk melarang QAnon, mereka sering melakukan semuanya pada saat yang sama untuk mendapatkan kekuatan dalam jumlah besar," kata Partin. “Tetapi sangat sulit untuk membangun kebijakan tentang QAnon karena banyak di antaranya hanyalah masalah pemilih konservatif biasa.”
Partin mengatakan satu hal yang dia harap orang mengerti tentang bahaya konten terkait QAnon di media sosial bukanlah seberapa luas atau seberapa dalam konspirasinya dipercaya, tetapi risiko menekan tombol "bagikan" itu sendiri.
“Tidak mungkin mengetahui niat seseorang, tapi niat itu tidak terlalu penting,” katanya. "Saya tidak terlalu peduli jika mereka percaya atau tidak, mereka bertindak seperti yang mereka lakukan, dan mereka menyebarkan konten ini dan kepercayaan ini, terlepas dari niat di baliknya."