(dok. unbabel)
SuaraKita.org – Sebagian besar dari kita berinteraksi dengan semacam sistem Artificial Intelligence (AI/Kecerdasan Buatan) beberapa kali sehari, apakah itu menggunakan fungsi teks prediktif di ponsel kita atau menerapkan filter selfie di Instagram atau Snapchat.
Beberapa sistem bertenaga AI melakukan hal-hal berguna yang membantu kita, seperti mengoptimalkan jaringan listrik. Yang lain menangkap informasi pribadi kita yang paling sensitif – suara Anda, bentuk wajah Anda, warna kulit Anda, cara Anda berjalan – dan menggunakannya untuk membuat kesimpulan tentang siapa kita.
Perusahaan dan pemerintah sudah menggunakan sistem AI untuk membuat keputusan yang mengarah pada diskriminasi . Ketika polisi atau pejabat pemerintah mengandalkan mereka untuk menentukan siapa yang harus mereka awasi, interogasi, atau tangkap – atau bahkan “memprediksi” siapa yang akan melanggar hukum di masa depan – ada konsekuensi yang serius dan terkadang fatal.
Organisasi masyarakat sipil, aktivis, dan peneliti di seluruh dunia melawan. Di Eropa, Access Now adalah organisasi yang ikut ambil bagian dari kampanye Reclaim Your Face yang telah meluncurkan petisi resmi untuk melarang pengawasan massal biometrik di Uni Eropa, dan mereka bergabung dengan 61 LSM terkemuka yang meminta larangan atau garis merah pada aplikasi AI yang tidak sesuai dengan pembuat undang-undang hak asasi Manusia.
Beberapa ancaman yang ditimbulkan oleh AI tidak jelas seperti yang lainnya. Itu tidak membantu ketika perusahaan seperti Spotify secara diam-diam mengembangkan sistem AI berdasarkan biometrik yang sangat sensitif tanpa menunjukkan bagaimana mereka berencana untuk melindungi hak asasi manusia.
Minggu ini Access Now meluncurkan kampanye baru dengan All Out, sebuah organisasi LGBT global, dan dengan dukungan Reclaim Your Face dan peneliti Os Keyes, untuk mengungkap ancaman “pengenalan” gender otomatis dan sistem AI untuk memprediksi orientasi seksual. Pesan kami: sistem ini berbahaya bagi kaum LGBT di seluruh dunia. Inilah alasannya.
Bagaimana AI dapat mengotomatiskan penindasan LGBT
Mari kita mulai dengan pengenalan gender otomatis, atau AGR. Antarmuka pengguna yang mengharuskan orang memasukkan informasi tentang jenis kelamin mereka ada di mana-mana. Untungnya, dalam beberapa kasus, Access Now telah melihat upaya untuk membentuk kembali desain antarmuka pengguna untuk memberi orang lebih banyak agensi dalam mendefinisikan identitas gender mereka sendiri di luar biner lelaki/perempuan yang sederhana, memberi orang pilihan label yang lebih luas atau, lebih baik lagi , memungkinkan mereka untuk dengan bebas memasukkan label yang paling menggambarkan identitas gender mereka .
AGR melakukan yang sebaliknya. Teknologi ini menghilangkan kesempatan Anda untuk mengidentifikasi diri, dan sebaliknya menyimpulkan gender Anda dari data yang dikumpulkan tentang Anda. Teknologi ini menggunakan informasi seperti nama resmi Anda, apakah Anda memakai riasan atau tidak, atau bentuk garis rahang atau tulang pipi Anda, untuk mengurangi identitas gender Anda ke dalam bentuk biner yang sederhana. Hal ini tidak hanya gagal untuk mencerminkan pemahaman objektif atau ilmiah apa pun tentang gender , tetapi juga merupakan bentuk penghapusan bagi orang-orang yang trans atau non-biner. Penghapusan ini, yang diperkuat secara sistematis dan teknis, memiliki konsekuensi di dunia nyata. Ketika Anda dan komunitas Anda tidak terwakili, Anda kehilangan kemampuan untuk melakukan advokasi secara efektif untuk hak-hak dasar dan kebebasan Anda. Itu dapat memengaruhi segalanya mulai dari perumahan hingga pekerjaan hingga perawatan kesehatan.
Sistem AGR telah memicu kontroversi karena memungkinkan pengucilan trans dan orang-orang yang tidak sesuai gender. Misalnya Giggle, aplikasi jejaring sosial “khusus perempuan” . Untuk menegakkan kebijakan khusus perempuan, perusahaan menuntut pengguna mengunggah foto selfie untuk mendaftar. Giggle kemudian menggunakan teknologi pengenalan wajah pihak ketiga yang diklaim “menentukan kemungkinan subjek menjadi perempuan pada tingkat kepercayaan yang dinyatakan”.
Mengesampingkan masalah lain dengan aplikasi, banyak penelitian dan audit telah menunjukkan bahwa teknologi AGR berbasis pengenalan wajah tidak akurat bagi banyak orang. Dalam penelitian terobosan mereka, Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification, Joy Buolamwini dan Timnit Gebru menemukan bahwa sistem AGR yang digunakan oleh perusahaan terkemuka memiliki tingkat kesalahan yang lebih tinggi untuk perempuan daripada lelaki, dan tingkat kegagalan bahkan lebih tinggi untuk orang berkulit gelap khususnya perempuan. Sayangnya, membuat pengenalan wajah lebih akurat tidak akan mengurangi dampak diskriminatifnya di banyak konteks lain – dan seperti yang akan Access Now tunjukkan, sangat tidak mungkin penyesuaian apa pun akan membuatnya kurang berbahaya bagi orang trans dan non-biner.
Bagaimana mesin yang melakukan kesalahan dalam penentuan gender merugikan orang
Penelitian menunjukkan bahwa teknologi AGR berdasarkan pengenalan wajah hampir dijamin membuat kesalahan penentuan gender terhadap orang transgender dan secara inheren mendiskriminasi orang non-biner. Seperti yang dijelaskan Os Keyes dalam makalahnya, The Misgendering Machines: Trans / HCI Implications of Automatic Gender Recognition, pendekatan AGR biasanya didasarkan pada biner gender lelaki-perempuan dan memperoleh gender dari ciri fisik; Artinya, orang trans sering disalahkan gendernya, sedangkan orang non-biner dipaksa masuk ke dalam biner yang merongrong identitas gender mereka.
Bagaimana sebenarnya hal ini memengaruhi hak dan kebebasan mereka? Daniel Leufer dari Access Now bergabung dengan Os Keyes dan pakar lainnya untuk mengeksplorasi pertanyaan itu pada diskusi panel di konferensi Komputer, Privasi, dan Perlindungan Data (CPDP) tahun ini, yang bertema Automated Gender Attribution: It’s a Boy, It’s Girl! Said the Algorithm. (R.A.W)
Sumber: