Kartini di Era Algoritma

Ketika habis gelap bertemu bias data: tentang suara perempuan yang kembali harus diperjuangkan di ruang-ruang yang tak kasat mata.

Pada 21 April 1879, seorang perempuan kecil lahir di Jepara.

Kelak, surat suratnya yang ditulis kepada sahabat pena di Belanda akan menjadi dokumen perlawanan yang melampaui zamannya. Namun jika Kartini hidup hari ini, ia mungkin tidak hanya berhadapan dengan tembok feodalisme dan kolonialisme. Ia akan bertemu tembok yang jauh lebih tak kasat mata yaitu algoritma.

Setiap tahun, perayaan Hari Kartini kerap berhenti pada simbolisme kebaya, lomba memasak, dan kutipan-kutipan populer. Padahal ada pertanyaan yang jauh lebih mendesak untuk dijawab: apakah infrastruktur digital yang kita bangun hari ini sudah benar-benar memberi ruang bagi perempuan untuk bersuara — bukan sekadar terlihat?

ALGORITMA SEBAGAI GERBANG BARU

Dalam ilmu komunikasi, kita mengenal konsep gatekeeping: proses seleksi yang menentukan pesan apa yang boleh beredar, dan suara siapa yang diizinkan sampai ke publik. Di era media konvensional, gerbang ini dijaga oleh redaktur dan pemilik media. Kini, gerbang itu dikelola oleh model kecerdasan buatan, sistem rekomendasi platform, dan mesin pencari yang bekerja dua puluh empat jam tanpa jeda.

Persoalannya sederhana namun serius: sistem-sistem tersebut dilatih menggunakan data masa lalu — data yang mencerminkan ketidaksetaraan yang sudah ada. Sebuah studi dari MIT Media Lab menemukan bahwa sistem pengenalan wajah memiliki tingkat kesalahan hingga 34% pada perempuan berkulit gelap, dibanding 0,8% pada pria berkulit terang. Ini bukan semata masalah teknis. Ini adalah masalah representasi yang dikodekan ke dalam mesin dan bekerja secara sistematis.

Bila kita membiarkan data masa lalu mendefinisikan standar masa depan, kita tidak sedang membangun teknologi — kita sedang mengotomatisasi diskriminasi.

Di Indonesia, platform media sosial telah menjadi arena baru bagi perempuan untuk menyuarakan perspektif mereka. Namun ironi demi ironi terus bermunculan. Konten yang mengandung perspektif feminis, kesaksian kekerasan berbasis gender, atau kritik terhadap norma patriarkal kerap terkena moderasi otomatis — dilabel sebagai konten sensitif, dikurangi jangkauannya, atau dihapus tanpa penjelasan. Sementara ujaran kebencian terhadap perempuan kerap lolos dari radar sistem yang sama.

SIAPA YANG MEMBANGUN CERMIN INI?

Teori agenda-setting yang diperkenalkan McCombs dan Shaw (1972) mengajarkan bahwa media tidak hanya memberitahu kita apa yang harus dipikirkan, tetapi apa yang layak diperhatikan. Di era platform digital, fungsi ini kini dipegang entitas non-manusia yang memutuskan konten siapa yang akan dilihat jutaan orang, dan konten siapa yang akan tenggelam.

Studi-studi mengenai TikTok dan Instagram menunjukkan bahwa kreator perempuan yang membahas tubuh, seksisme, dan hak reproduksi mengalami shadowban — pembatasan jangkauan tanpa notifikasi — pada tingkat yang secara statistik lebih tinggi dibanding konten serupa dari akun lain. Ini bukan konspirasi. Ini adalah hasil dari sistem yang dirancang tanpa cukup mempertimbangkan dampak gender dalam proses pelatihan dan evaluasinya.

Paradoksnya sangat nyata di Indonesia: perempuan adalah pengguna media sosial terbesar secara jumlah, namun secara konsisten kurang terwakili dalam tim pengembang teknologi, dewan pembuat kebijakan platform, dan dataset yang melatih sistem AI yang mereka gunakan setiap hari. Artinya: mereka paling banyak menggunakan teknologi yang paling sedikit dirancang untuk mereka.

SUARA DALAM KECERDASAN BUATAN GENERATIF

Kecerdasan buatan generatif — dari ChatGPT hingga berbagai model lokal yang kini mulai bermunculan — telah digunakan jutaan orang untuk menulis, menganalisis, dan mengambil keputusan. Pertanyaannya bukan lagi apakah AI ini akan memengaruhi cara kita berkomunikasi. Pertanyaannya adalah: perspektif siapakah yang tertanam di dalamnya?

Organisasi-organisasi seperti AI Now Institute dan Data & Society telah lama mengingatkan bahwa homogenitas tim pengembang AI menghasilkan sistem yang secara tidak sadar mereproduksi bias gender, ras, dan kelas. Di Indonesia, kondisi ini diperparah oleh minimnya representasi peneliti perempuan dalam kajian AI dan kebijakan digital nasional — meski perlahan mulai berubah berkat komunitas seperti Women in Tech Indonesia dan berbagai inisiatif kampus daerah.

Kartini menulis surat untuk menembus tembok. Kita hari ini perlu menulis kode — dan kebijakan — untuk menembus algoritma.

TIGA LANGKAH KONKRET

Peringatan Hari Kartini yang bermakna bukan hanya mengenang, tetapi menerjemahkan semangat emansipasi ke dalam konteks zaman. Dalam ranah komunikasi dan teknologi digital, setidaknya ada tiga hal mendesak.

Pertama, literasi digital yang tidak berpura-pura netral gender. Kurikulum di sekolah dan perguruan tinggi perlu secara eksplisit membahas bagaimana algoritma bekerja, siapa yang membangunnya, dan bagaimana bias gender bisa masuk ke dalamnya. Mahasiswa — khususnya mahasiswi — perlu dibekali bukan hanya kemampuan menggunakan teknologi, tetapi kemampuan mengkritisinya.

Kedua, inklusivitas nyata dalam pengembangan AI, bukan sekadar dekoratif. Regulasi dan insentif perlu mendorong partisipasi perempuan bukan sebatas pengguna akhir, melainkan sebagai perancang sistem, auditor etika, dan pengambil keputusan. Ini bukan soal kuota semata — ini soal kualitas dan keadilan sistem yang kita hasilkan bersama.

Ketiga, advokasi kebijakan platform yang responsif gender. Pemerintah dan lembaga sipil perlu mendesak platform digital untuk lebih transparan dalam algoritma moderasi konten mereka — dan memastikan suara perempuan tidak secara sistematis dimarjinalkan dalam ekosistem informasi yang kita huni bersama.

Kartini pernah menulis kepada sahabatnya, Stella Zeehandelaar: bukan laki-laki yang menjadi tujuan perjuangan kami, melainkan kemanusiaan. Hari ini, kemanusiaan itu harus kita perjuangkan pula dalam ruang-ruang digital — dalam data yang kita labeli, dalam sistem yang kita rancang, dalam kebijakan yang kita advokasikan.

Sebab jika sistem kecerdasan buatan yang kita bangun tidak mampu mendengar semua suara secara setara, maka ia bukan kecerdasan. Ia hanyalah ketidakadilan yang bekerja lebih cepat.

Referensi: Buolamwini & Gebru (2018), Gender Shades. MIT Media Lab. | McCombs & Shaw (1972), Agenda-Setting Function. Public Opinion Quarterly. | AI Now Institute Annual Reports. | Data & Society Research Institute.

Wahyu Mahesa Miarta (Dosen Ilmu Komunikasi Unesa PSDKU Magetan)

Penulis adalah dosen dan peneliti di bidang ilmu komunikasi, dengan fokus kajian pada teknologi digital, media, dan masyarakat. Artikel ini dapat dikembangkan lebih lanjut dengan tinjauan literatur akademis untuk keperluan publikasi jurnal

Bagikan

Baca juga

Subscribe
Notify of
guest
0 Comments
Oldest
Newest Most Voted
Inline Feedbacks
View all comments

Trending

Scroll to Top