Facebook Menolak Laporan yang Mengklaim AI-nya Menyebalkan dalam Mendeteksi Ujaran Kebencian

Pendidikan —Senin, 18 Oct 2021 15:09
    Bagikan  
Facebook Menolak Laporan yang Mengklaim AI-nya Menyebalkan dalam Mendeteksi Ujaran Kebencian
facebook | Pinterest

DEPOST- Wakil presiden integritas Facebook Guy Rosen membunyikan klakson perusahaan media sosial itu sendiri karena memoderasi konten beracun, menulis dalam sebuah posting blog bahwa prevalensi ujaran kebencian di platform tersebut telah turun hampir setengahnya sejak Juli 2020.

Postingan tersebut tampaknya sebagai tanggapan terhadap serangkaian laporan dan kesaksian Wall Street Journal yang memberatkan dari pelapor Frances Haugen yang menguraikan cara-cara perusahaan media sosial secara sadar meracuni masyarakat.

“Data yang diambil dari dokumen yang bocor digunakan untuk membuat narasi bahwa teknologi yang kami gunakan untuk memerangi ujaran kebencian tidak memadai dan bahwa kami sengaja salah menggambarkan kemajuan kami,” kata Rosen. "Ini tidak benar."

Baca juga: Lowongan Kerja Media Online Terbaru 2021-2022, Cek di Sini!

“Kami tidak ingin melihat kebencian di platform kami, begitu juga pengguna atau pengiklan kami, dan kami transparan tentang pekerjaan kami untuk menghapusnya,” lanjutnya. “Apa yang ditunjukkan oleh dokumen-dokumen ini adalah bahwa pekerjaan integritas kami adalah perjalanan multi-tahun. Meskipun kami tidak akan pernah sempurna, tim kami terus bekerja untuk mengembangkan sistem kami, mengidentifikasi masalah, dan membangun solusi.”

Dia berpendapat bahwa “salah” untuk menilai keberhasilan Facebook dalam menangani ujaran kebencian hanya berdasarkan penghapusan konten, dan penurunan visibilitas konten ini adalah metrik yang lebih signifikan. Untuk metrik internalnya, Facebook melacak prevalensi ujaran kebencian di seluruh platformnya, yang telah turun hampir 50% selama tiga kuartal terakhir menjadi 0,05% dari konten yang dilihat, atau sekitar lima tampilan dari setiap 10.000, menurut Rosen.

Itu karena dalam hal menghapus konten, perusahaan sering melakukan kesalahan di sisi kehati-hatian, jelasnya. Jika Facebook mencurigai suatu konten apakah itu satu posting, halaman, atau seluruh grup melanggar peraturannya tetapi “tidak cukup percaya diri” bahwa konten tersebut perlu dihapus, konten tersebut mungkin tetap ada di platform, tetapi internal Facebook sistem diam-diam akan membatasi jangkauan posting atau menjatuhkannya dari rekomendasi untuk pengguna.

Baca juga: Apple Watch Series 7 Review

“Prevalensi memberi tahu kami konten yang melanggar apa yang dilihat orang karena kami melewatkannya,” kata Rosen. “Begitulah cara kami mengevaluasi kemajuan kami secara objektif, karena memberikan gambaran yang paling lengkap.”

Minggu juga melihat rilis paparan Facebook terbaru Journal. Di dalamnya, karyawan Facebook mengatakan kepada outlet bahwa mereka khawatir perusahaan tidak mampu menyaring konten ofensif dengan andal.

Dua tahun lalu, Facebook memangkas jumlah waktu yang dibutuhkan tim peninjau manusia untuk fokus pada keluhan ujaran kebencian dari pengguna dan mengurangi jumlah keseluruhan keluhan, alih-alih beralih ke penegakan AI terhadap peraturan platform, menurut Journal. Ini berfungsi untuk meningkatkan keberhasilan teknologi moderasi Facebook dalam statistik publiknya, klaim karyawan.

Baca juga: Microsoft Menempatkan Subsistem Windows untuk Linux untuk Pembaruan yang Lebih Cepat

Menurut laporan Journal sebelumnya, tim peneliti internal menemukan pada bulan Maret bahwa sistem otomatis Facebook menghapus posting yang menghasilkan antara 3-5% dari pandangan ujaran kebencian di platform. Sistem yang sama ini menandai dan menghapus sekitar 0,6% dari semua konten yang melanggar kebijakan Facebook terhadap kekerasan dan hasutan.

Dalam kesaksiannya di depan subkomite Senat awal bulan ini, Haugen menggemakan statistik ini. Dia mengatakan sistem algoritmik Facebook hanya dapat menangkap "minoritas yang sangat kecil" dari materi ofensif, yang masih mengkhawatirkan meskipun, seperti yang diklaim Rosen, hanya sebagian kecil pengguna yang pernah menemukan konten ini.

Haugen sebelumnya bekerja sebagai manajer produk utama Facebook untuk misinformasi sipil dan kemudian bergabung dengan tim intelijen ancaman perusahaan. Sebagai bagian dari upaya pengungkapan rahasianya, dia memberikan sejumlah dokumen internal kepada Journal yang mengungkapkan cara kerja Facebook dan bagaimana penelitian internalnya sendiri membuktikan betapa beracun produknya bagi pengguna.

Facebook dengan keras membantah laporan ini, dengan wakil presiden urusan global perusahaan, Nick Clegg, menyebut mereka "kesalahan karakterisasi yang disengaja" yang menggunakan kutipan yang dipetik dari materi yang bocor untuk menciptakan "pandangan yang sengaja miring dari fakta yang lebih luas." -23

Baca juga: Google Stadia Akan Membiarkan Gamer Kasual Menggunakan Ponselnya sebagai Pengontrol


Editor: Reza
    Bagikan  

Berita Terkait