Algoritma dan Seksisme Terselubung

Kita diajarkan percaya bahwa mesin tak punya rasa. Bahwa algoritma tak berpihak. Tapi bagaimana jika justru karena tak punya rasa, ia menyerap bias dunia kita tanpa bertanya?

Bayangkan, ketika kita mengetik “perempuan yang” di mesin pencari. Hasil teratasnya: “cantik”, “emosional”, “lemah lembut”. Sementara, ketika diketik “laki-laki yang”, muncul: “sukses”, “kuat”, “kaya”.

https://www.instagram.com/jejaringduniasantri/

Inilah bias algoritmik. Dan salah satu bentuk paling berbahayanya adalah seksisme terselubung, bias gender yang bersembunyi dalam sistem cerdas yang tampaknya netral.

Algoritma tidak hidup di ruang hampa. Ia dilatih dari teks, data, gambar, dan percakapan manusia yang telah ada di internet, artikel berita, novel, komentar, meme, bahkan iklan. Dunia itu penuh dengan bias, stereotip, dan ketimpangan. Maka, saat mesin belajar dari dunia, ia menyerap seluruh isinya, yang baik maupun yang busuk.

Bolukbasi et al. (2016) menunjukkan bagaimana model bahasa seperti Word2Vec menciptakan asosiasi gender yang problematik. Dalam eksperimen mereka, mesin menyandingkan kata “man” dengan “computer programmer” dan “woman” dengan “homemaker”.

Mirip dengan itu, ketika kita menulis “CEO” di mesin pencari, wajah laki-laki akan lebih dominan muncul. Tapi saat diketik “sekretaris”, “asisten rumah tangga”, atau “guru TK”, wajah perempuan mendominasi. Ini bukan soal siapa yang layak, tapi soal asosiasi kolektif yang telah dibentuk oleh budaya dan kemudian diperkuat oleh sistem.

Bahkan dalam bentuk yang paling akrab seperti chatbot dan asisten digital, bias ini menyelinap. Hampir semua asisten virtual terkenal, Siri, Alexa, Cortana, memakai suara perempuan secara default. Mengapa?

Karena suara perempuan dianggap “lebih menyenangkan”, “lebih membantu”, dan “tidak mengintimidasi”. Tapi justru di sinilah masalahnya. Teknologi mengulang peran patriarki di mana perempuan hanya cocok menjadi pembantu, asisten; perempuan hanya pelayan.

UNESCO dalam laporan tahun 2019 bertajuk “I’d Blush If I Could” mengkritik fenomena ini. Laporan itu menunjukkan bahwa banyak chatbot perempuan merespons pelecehan verbal dengan tawa, kalimat santun, atau bahkan pujian balik. Bayangkan, sistem ini diam-diam mengajari pengguna bahwa melecehkan adalah hal normal yang tidak perlu dikoreksi.

Halaman: First 1 2 3 Next → Last Show All

Tinggalkan Balasan