Algoritma dan Seksisme Terselubung

Kita diajarkan percaya bahwa mesin tak punya rasa. Bahwa algoritma tak berpihak. Tapi bagaimana jika justru karena tak punya rasa, ia menyerap bias dunia kita tanpa bertanya?

Bayangkan, ketika kita mengetik “perempuan yang” di mesin pencari. Hasil teratasnya: “cantik”, “emosional”, “lemah lembut”. Sementara, ketika diketik “laki-laki yang”, muncul: “sukses”, “kuat”, “kaya”.

https://www.instagram.com/jejaringduniasantri/

Inilah bias algoritmik. Dan salah satu bentuk paling berbahayanya adalah seksisme terselubung, bias gender yang bersembunyi dalam sistem cerdas yang tampaknya netral.

Algoritma tidak hidup di ruang hampa. Ia dilatih dari teks, data, gambar, dan percakapan manusia yang telah ada di internet, artikel berita, novel, komentar, meme, bahkan iklan. Dunia itu penuh dengan bias, stereotip, dan ketimpangan. Maka, saat mesin belajar dari dunia, ia menyerap seluruh isinya, yang baik maupun yang busuk.

Bolukbasi et al. (2016) menunjukkan bagaimana model bahasa seperti Word2Vec menciptakan asosiasi gender yang problematik. Dalam eksperimen mereka, mesin menyandingkan kata “man” dengan “computer programmer” dan “woman” dengan “homemaker”.

Mirip dengan itu, ketika kita menulis “CEO” di mesin pencari, wajah laki-laki akan lebih dominan muncul. Tapi saat diketik “sekretaris”, “asisten rumah tangga”, atau “guru TK”, wajah perempuan mendominasi. Ini bukan soal siapa yang layak, tapi soal asosiasi kolektif yang telah dibentuk oleh budaya dan kemudian diperkuat oleh sistem.

Bahkan dalam bentuk yang paling akrab seperti chatbot dan asisten digital, bias ini menyelinap. Hampir semua asisten virtual terkenal, Siri, Alexa, Cortana, memakai suara perempuan secara default. Mengapa?

Karena suara perempuan dianggap “lebih menyenangkan”, “lebih membantu”, dan “tidak mengintimidasi”. Tapi justru di sinilah masalahnya. Teknologi mengulang peran patriarki di mana perempuan hanya cocok menjadi pembantu, asisten; perempuan hanya pelayan.

UNESCO dalam laporan tahun 2019 bertajuk “I’d Blush If I Could” mengkritik fenomena ini. Laporan itu menunjukkan bahwa banyak chatbot perempuan merespons pelecehan verbal dengan tawa, kalimat santun, atau bahkan pujian balik. Bayangkan, sistem ini diam-diam mengajari pengguna bahwa melecehkan adalah hal normal yang tidak perlu dikoreksi.

AI menyerap ratusan juta kalimat dari Internet, dan Internet bukanlah tempat yang adil secara gender. Forum-forum online seperti Reddit, Quora, atau StackOverflow, yang menjadi sumber data bagi banyak model bahasa, didominasi oleh laki-laki, dengan gaya bahasa yang sering kali mengandung seksisme, walau halus.

Hasilnya, sistem pembelajaran mesin menyerap struktur itu. Siapa yang dominan bicara, siapa yang jadi subjek, dan siapa yang disingkirkan dari percakapan. Ini bukan hanya masalah representasi, tapi masalah kuasa.

Emily Bender, profesor linguistik dari University of Washington, pernah berkata, “Every language model is a political actor. It decides what counts as knowledge, and who gets to speak.” AI bukan sekadar pengolah bahasa, tapi penjaga gerbang percakapan. Ia memilih apa yang pantas didengar dan apa yang dibiarkan hilang.

Dalam konteks Indonesia, kita menghadapi problem ganda, bahasa yang beragam dan struktur patriarkal yang kompleks. Kata “perempuan” dalam berita sering disandingkan dengan kata-kata seperti “korban”, “istri”, atau “menangis”. Sementara, “laki-laki” lebih sering tampil dalam posisi “pelaku”, “pemimpin”, atau “berprestasi”. Pola ini terulang dalam ribuan artikel berita daring, yang menjadi bahan belajar AI lokal.

Di salah satu platform berita daring populer Indonesia, jika kita mengetik “perempuan” di kolom pencarian, artikel yang muncul berkisar seputar kekerasan, fashion, dan keluarga. Sementara, kata “laki-laki” lebih sering dikaitkan dengan prestasi, kriminalitas, atau kepemimpinan.

Di dunia kerja, lowongan yang ditargetkan secara algoritmik cenderung menyasar laki-laki untuk posisi teknik dan finansial, sementara perempuan lebih sering mendapat iklan pekerjaan administratif. Ini sudah dibuktikan oleh sejumlah riset tentang sistem periklanan otomatis di platform seperti Facebook dan Google.

Hal ini menjadi berbahaya ketika teknologi digunakan dalam proses rekrutmen atau seleksi beasiswa. Sistem berbasis AI bisa saja tanpa sadar menyaring kandidat berdasarkan asumsi gender yang tak adil.

Apa yang Bisa Dilakukan?

Langkah pertama adalah kesadaran. Kita harus berhenti menganggap AI netral. Ia hanya secerdas dan seadil data yang kita beri. Kesadaran ini penting agar masyarakat tidak menyerahkan sepenuhnya penilaian moral pada sistem yang sebenarnya amoralis.

Kedua, audit dan pengawasan algoritma harus dilakukan secara terbuka dan berkala. Prompt testing perlu dilakukan: bagaimana sistem merespons pertanyaan-pertanyaan sensitif, bagaimana respons berbeda ketika gender pengguna diasumsikan berbeda?

Ketiga, diversifikasi tim pengembang. Tim pembuat AI harus melibatkan perempuan, queer, kelompok minoritas, dan mereka yang hidup di pinggiran sistem. Tanpa keragaman, produk teknologi akan terus mencerminkan dunia dari kacamata segelintir orang.

Keempat, kita perlu mendorong etika data feminis seperti yang diajukan oleh Catherine D’Ignazio dan Lauren Klein dalam “Data Feminism”. Mereka menekankan pentingnya meninjau dari siapa data diambil, untuk siapa data digunakan, dan siapa yang diuntungkan dari sistem cerdas yang dibangun.

Dan terakhir, mengubah cara kita memandang bahasa itu sendiri. Bahasa bukan hanya alat komunikasi. Ia adalah medan perjuangan makna. Jika kita ingin AI yang adil, maka bahan ajarnya pun harus berasal dari dunia yang lebih setara dalam suara, dalam pengalaman, dan dalam pilihan kata.

AI tidak memilih untuk menjadi bias. Tapi ia belajar dari dunia yang bias. Maka tugas kita bukan hanya memperbaiki sistem, tapi memperbaiki sumbernya di masyarakat, bahasa, dan relasi kuasa di dalamnya.

Bahasa yang adil hanya lahir dari dunia yang adil. Jika hari ini kita merasa tak nyaman dengan respons AI yang seksis, itu artinya kita sedang bercermin. Dan seperti cermin yang jujur, ia tak pernah berdusta, hanya memperlihatkan luka yang belum kita sembuhkan.

Multi-Page

Tinggalkan Balasan