Sebuah laporan baru menunjukkan bahwa kebijakan moderasi konten yang lemah dari Mastodon dan platform media sosial terdesentralisasi lainnya telah menyebabkan proliferasi materi pelecehan seksual terhadap anak. Stanford’s Internet Observatory menerbitkan penelitian baru pada hari Senin yang menunjukkan bahwa situs terdesentralisasi memiliki kekurangan serius dalam hal “infrastruktur keselamatan anak”. Sayangnya, itu tidak membuat mereka jauh berbeda dari mayoritas platform di internet biasa.

Beli Sekarang atau Tunggu? Cara Menghindari Penyesalan Pembeli Teknologi

Ketika kita berbicara tentang web “terdesentralisasi”, kita tentu saja berbicara tentang media sosial “federasi” atau “Fediverse”—konstelasi longgar platform yang menghindari kepemilikan dan tata kelola terpusat untuk model interaktif yang memprioritaskan otonomi dan privasi pengguna. Fediverse berjalan pada serangkaian protokol web sumber terbuka dan gratis yang memungkinkan siapa saja untuk mengatur dan menghosting komunitas sosial melalui server mereka sendiri, atau “instance”, sebagaimana mereka dikenal. Di antara kumpulan platform terbatas yang membentuk dunia terdesentralisasi ini, Mastodon adalah salah satu yang paling populer dan banyak digunakan di web. Namun, di samping internet terpusat, tanah desentralisasi adalah wilayah yang jauh lebih sedikit; pada puncaknya, Mastodon memiliki sekitar 2,5 juta pengguna. Anda dapat membandingkannya dengan jumlah pengguna aktif harian Twitter baru-baru ini, yang berkisar sekitar 250 juta.

Terlepas dari janji Fediverse yang menarik, ada masalah yang jelas dengan modelnya. Ancaman keamanan, untuk satu hal, adalah masalah. Keramahan pengguna yang terbatas dari ekosistem juga menjadi sumber pertengkaran. Dan, seperti yang dicatat oleh studi Stanford yang baru, kurangnya pengawasan terpusat berarti bahwa tidak ada cukup pagar pembatas yang dibangun di dalam ekosistem untuk bertahan dari proliferasi konten ilegal dan tidak bermoral. Memang, para peneliti mengatakan bahwa selama periode dua hari mereka menemukan sekitar 600 keping konten CSAM yang diketahui atau diduga di instans Mastodon teratas. Mengerikan, potongan pertama CSAM yang ditemui peneliti ditemukan dalam lima menit pertama penelitian. Secara umum, peneliti mengatakan kontennya mudah diakses dan dapat dicari di situs dengan mudah.

Laporan tersebut lebih lanjut merinci mengapa konten itu begitu mudah diakses…

…aktor jahat cenderung masuk ke platform dengan kebijakan moderasi dan penegakan yang paling longgar. Ini berarti bahwa jaringan terdesentralisasi, di mana beberapa kasus memiliki sumber daya yang terbatas atau memilih untuk tidak bertindak, mungkin kesulitan mendeteksi atau memitigasi Materi Pelecehan Seksual terhadap Anak (CSAM). Federasi saat ini menghasilkan redudansi dan inefisiensi yang menyulitkan CSAM, Citra Intim NonKonsensual (NCII), serta konten dan perilaku berbahaya dan ilegal lainnya.

Gizmodo menghubungi Mastodon untuk mengomentari penelitian baru tersebut tetapi tidak mendapat tanggapan. Kami akan memperbarui cerita ini jika platform merespons.

Web “terpusat” juga memiliki masalah CSAM yang masif

Terlepas dari temuan laporan Stanford, perlu dipertimbangkan bahwa hanya karena sebuah situs “terpusat” atau memiliki “pengawasan” tidak berarti situs tersebut memiliki lebih sedikit konten ilegal. Memang, investigasi baru-baru ini menunjukkan bahwa sebagian besar platform media sosial utama dipenuhi dengan materi pelecehan anak. Bahkan jika sebuah situs memiliki sistem moderasi konten yang canggih, itu tidak berarti bahwa sistem tersebut sangat bagus dalam mengidentifikasi dan membuang konten yang tercela.

Contoh kasus: pada bulan Februari, sebuah laporan dari New York Times menunjukkan bahwa Twitter telah membersihkan 400.000 akun pengguna yang mencengangkan karena telah “membuat, mendistribusikan, atau berinteraksi dengan CSAM”. Terlepas dari penghapusan akun aplikasi burung secara proaktif, laporan tersebut mencatat bahwa tim Keamanan Twitter tampaknya “gagal” dalam misinya untuk membersihkan platform dari sejumlah materi penyalahgunaan yang membingungkan.

Demikian pula, investigasi Wall Street Journal baru-baru ini menunjukkan bahwa tidak hanya ada sejumlah besar materi pelecehan anak yang beredar di Instagram, tetapi algoritme platform tersebut telah secara aktif “mempromosikan” konten semacam itu ke pedofil. Memang, menurut artikel Jurnal, Instagram telah bertanggung jawab untuk membimbing para pedofil “ke [CSAM] penjual konten melalui sistem rekomendasi yang unggul dalam menghubungkan mereka yang berbagi minat khusus.” Menyusul publikasi laporan Journal, perusahaan induk Instagram, Meta, mengatakan telah membentuk tim internal untuk menanganinya.

Kebutuhan akan “alat baru untuk lingkungan baru”

Sementara web terpusat dan terdesentralisasi jelas bergumul dengan proliferasi CSAM, peneliti utama laporan Stanford yang baru, David Thiel, mengatakan bahwa Fediverse sangat rentan terhadap masalah ini. Tentu, platform “terpusat” mungkin tidak terlalu bagus dalam mengidentifikasi konten ilegal, tetapi jika mereka harus menghapusnya, mereka memiliki alat untuk melakukannya. Platform seperti Mastodon, sementara itu, kekurangan infrastruktur terdistribusi untuk menangani CSAM dalam skala besar, kata Thiel.

“Hampir tidak ada alat Fediverse bawaan untuk membantu mengelola masalah, sedangkan platform besar dapat menolak CSAM yang dikenal dengan cara otomatis dengan sangat mudah,” kata Thiel kepada Gizmodo melalui email. “Platform pusat memiliki otoritas tertinggi untuk konten dan memiliki kemampuan untuk menghentikannya sebanyak mungkin, tetapi di Fediverse Anda hanya memotong server dengan aktor jahat dan melanjutkan, yang berarti konten masih didistribusikan dan masih merugikan korban.”

“Masalahnya, menurut pendapat saya, bukanlah bahwa desentralisasi entah bagaimana lebih buruk, tetapi setiap alat teknis yang tersedia untuk melawan CSAM dirancang dengan mempertimbangkan sejumlah kecil platform terpusat. Kami membutuhkan alat baru untuk lingkungan baru, yang akan membutuhkan sumber daya teknik dan pendanaan.”

Mengenai ekosistem media sosial mana yang mengalami masalah CSAM yang “lebih besar”—tersentralisasi atau terdesentralisasi—Thiel mengatakan dia tidak bisa mengatakannya. “Saya rasa kita tidak dapat mengukur “lebih besar” tanpa sampel yang representatif dan menyesuaikannya dengan basis pengguna,” katanya.