Facebook dan Meta Gagal Deteksi Ujaran Kebencian di Platformnya

- 12 Juni 2022, 14:39 WIB
Ilustrasi facebook
Ilustrasi facebook /Pixel/

SAN FRANCISCO, KALBAR TERKINI – Facebook dan Meta sebagai induknya dicap gagal mendeteksi ujaran kebencian di berbagai platformnya.

Hal ini memicu berbagai aksi kekerasan hingga pembunuhan massal.

Facebook dan Meta juga sekali lagi gagal dalam ujian terkait seberapa baik mereka dapat mendeteksi ujaran kebencian, yang jelas-jelas mengandung kekerasan dalam iklan yang dikirimkan ke platform tersebut oleh kelompok nirlaba Global Witness dan Foxglove.

Pesan kebencian terfokus ke Ethiopia, di mana dokumen internal yang diperoleh oleh pelapor Frances Haugen, menunjukkan bahwa moderasi Facebook yang tidak efektif adalah ‘benar-benar mengipasi kekerasan etnis’.

Baca Juga: Korban Seksual Ungkap Kebejatan Pendetanya saat Kebaktian: AS Geger saat Tayang di Facebook

Ini seperti yang dia nyatakan dalam kesaksiannya di Kongres AS pada 2021.

Pada Maret 2022, Global Witness melakukan tes serupa dengan ujaran kebencian di Myanmar, yang juga gagal dideteksi oleh Facebook.

Kelompok tersebut, dilansir Kalbar-Terkini.com dari The Associated Press, Kamis, 9 Juni 2022, membuat 12 iklan berbasis teks.

Mereka menggunakan ujaran kebencian yang tidak manusiawi, untuk menyerukan pembunuhan orang-orang yang termasuk dalam tiga kelompok etnis utama Ethiopia, Amhara, Oromo, dan Tigrayan.

Baca Juga: Facebook Meta Diprediksi Terseok-seok pasca Mundurnya Sheryl Sandberg: Manusia paling Berdosa di Dunia

Sistem Facebook kemudian menyetujui iklan untuk dipublikasikan, seperti yang mereka lakukan dengan iklan Myanmar.

Iklan tersebut sebenarnya tidak dipublikasikan di Facebook.

Namun, kali ini, grup tersebut memberi tahu ke Meta tentang pelanggaran yang tidak terdeteksi.

Perusahaan tersebut mengklaim, iklan tersebut seharusnya tidak disetujui, dan menunjuk pada pekerjaan yang telah dilakukan untuk menangkap konten kebencian di platformnya.

Seminggu setelah mendengar dari Meta, Global Witness mengirimkan dua iklan lagi untuk disetujui, sekali lagi dengan ujaran kebencian yang terang-terangan.

Baca Juga: Inggris Resah Konten Negatif Google, TikTok, Facebook dan Twitter Cs! Ancaman Penutupan Kian Serius

Kedua iklan tersebut, yang ditulis dalam bahasa Amharik, bahasa yang paling banyak digunakan di Etiopia, disetujui.

Meta ,menyatakan, iklan tersebut seharusnya tidak disetujui.

“Kami telah banyak berinvestasi dalam langkah-langkah keamanan di Ethiopia, menambahkan lebih banyak staf dengan keahlian lokal.

Membangun kapasitas kami untuk menangkap konten kebencian dan menghasut dalam bahasa yang paling banyak digunakan, termasuk Amharik,” kata Meta dalam pernyataan email.

Baca Juga: Google, TikTok, Facebook dan Twitter Cs Terancam di Inggris, Ada Apa?

Ditambahkan bahwa mesin dan orang masih bisa melakukan kesalahan. Pernyataan itu identik dengan yang diterima Global Witness.

“Kami memilih kasus terburuk yang bisa kami pikirkan,” kata Rosie Sharpe, juru kampanye di Global Witness.

“Yang seharusnya paling mudah dideteksi oleh Facebook. Mereka bukan bahasa kode. Itu bukan peluit anjing. Itu adalah pernyataan eksplisit yang mengatakan bahwa orang seperti ini bukanlah manusia atau orang seperti ini harus mati kelaparan,” tambahnya.

Meta secara konsisten menolak untuk mengakui berapa banyak moderator konten yang dimilikinya di negara-negara di mana bahasa Inggris bukan bahasa utama.

Ini termasuk moderator di Ethiopia, Myanmar, dan wilayah lain di mana materi yang diposting di platform perusahaan telah dikaitkan dengan kekerasan di dunia nyata.

Pada November 2021, Meta menyatakan telah menghapus sebuah posting oleh Perdana Menteri Ethiopia, yang mendesak warga untuk bangkit, dan ‘mengubur’ pasukan saingannya, Tigray, yang mengancam ibu kota negara itu.

Dalam unggahan yang telah dihapus, Abiy mengatakan: “Kewajiban mati untuk Ethiopia adalah milik kita semua.”

Dia meminta warga untuk memobilisasi diri ‘dengan memegang senjata atau kapasitas apa pun’.

Abiy terus memposting di platform, di mana dia memiliki 4,1 juta pengikut.

AS dan lainnya telah memperingatkan Ethiopia tentang ‘retorika yang tidak manusiawi’ setelah perdana menteri menggambarkan pasukan Tigray sebagai ‘kanker’ dan ‘gulma’ dalam komentar yang dibuat pada Juli 2021.

“Ketika iklan yang menyerukan genosida di Ethiopia berulang kali masuk melalui jaringan Facebook – bahkan setelah masalah ini ditandai dengan Facebook – hanya ada satu kesimpulan yang mungkin: tidak ada orang di rumah,” kata Rosa Curling, direktur Foxglove, sebuah organisasi nirlaba hukum berbasis di London yang bermitra dengan Global Witness dalam penyelidikannya.

“Bertahun-tahun setelah genosida Myanmar, jelas Facebook belum belajar darinya,” tambahnya.***

 

Editor: Slamet Bowo SBS

Sumber: The Associated Press


Tags

Artikel Pilihan

Terkait

Terkini

Terpopuler

Kabar Daerah

x