Menjaga Keamanan dan Kebebasan di Ruang Digital

Oleh: Khoirul A.*

SuaraKita.org – Saat ini, kehidupan manusia tidak hanya ada di dunia nyata, tetapi juga di dunia maya. Keduanya berjalan bersamaan tanpa bisa dipisahkan. Berbagai platform komunikasi digital dan aplikasi telah menjadi infrastruktur sosial tempat identitas, relasi, hingga pekerjaan sehari-hari berlangsung.

Di tengah optimisme besar terhadap Kecerdasan Buatan (AI) sebagai teknologi digital masa depan, ada satu pertanyaan penting yang sering luput: apakah AI ini aman?

Bagi banyak kelompok minoritas ragam gender dan seksualitas, berbagai kemajuan teknologi dan AI justru membuka bentuk-bentuk kerentanan baru. Hal ini terjadi karena semua itu lahir dari struktur sosial yang sejak awal sudah timpang dan penuh bias.

Feminisme, Teknologi, dan Politik Keamanan Digital

Berbicara tentang keamanan digital bagi kelompok minoritas ragam gender dan seksualitas, Suara Kita berkesempatan berbincang dengan kawan-kawan dari Purple Code Collective. Didirikan sejak 2015, Purple Code Collective berfokus pada irisan antara gender, seksualitas, dan teknologi. Sejak awal, mereka termasuk salah satu pionir di Indonesia yang konsisten membicarakan isu keamanan digital dari perspektif feminis. Bagi Purple Code Collective, baik dunia nyata maupun dunia maya, keamanan diri sama pentingnya.

“Sekarang kita tidak lagi hanya hidup di ruang fisik. Kehidupan kita juga ada di ruang digital. Kalau di ruang fisik kita bicara soal rasa aman, maka di ruang digital pun sama, kita harus bicara soal rasa aman,” kata Dhyta Caturani, pendiri Purple Code Collective.

Berbeda dengan pendekatan keamanan digital yang sering bersifat teknokratis dan netral secara politik, Purple Code Collective justru memulai dari satu asumsi dasar: teknologi tidak pernah netral. Setiap sistem digital selalu membawa nilai, ideologi, dan relasi kuasa dari para pembuatnya. Ketidaknetralan ini pada akhirnya menimbulkan masalah pada keamanan digital. Karena itu, keamanan digital tidak bisa dipahami hanya sebagai soal enkripsi, kata sandi, atau anonimitas, tetapi sebagai persoalan keadilan sosial.

Teknologi Tidak Pernah Benar-Benar Netral

Salah satu asumsi paling populer tentang teknologi adalah bahwa teknologi itu netral. Mesin dianggap objektif, rasional, dan bebas nilai. Padahal, teknologi selalu dibuat oleh manusia, dan manusia membawa bias.

Banyak teknologi, termasuk AI, dikembangkan oleh perusahaan besar yang mayoritas berada di negara Global North seperti Amerika Serikat dan Eropa. Para pengembangnya didominasi laki-laki, heteroseksual, berkulit putih, dan berasal dari kelas sosial tertentu. Maka, nilai-nilai, perspektif, dan cara pandang kelompok inilah yang secara tidak langsung tertanam dalam teknologi yang mereka buat.

Bias ini bisa muncul dalam bentuk yang tampak sepele, seperti mesin penerjemah. Dhyta mencontohkan, dalam bahasa Indonesia kata “dia” tidak memiliki gender. Tetapi ketika diterjemahkan ke bahasa Inggris oleh mesin, “dia adalah seorang dokter” sering berubah menjadi “he is a doctor”, sementara “dia adalah seorang perawat” menjadi “she is a nurse”. Di sini, teknologi tidak menerjemahkan secara netral, tetapi mereproduksi stereotip gender.

“Nah, ketika kita menggunakan kalimat ‘dia adalah seorang dokter’, maka yang muncul adalah ‘he is a doctor’. Kalau kita menerjemahkan ‘dia adalah seorang perawat’, jawabannya ‘she is a nurse’. Ini contoh bias dari pengembangan teknologi itu sendiri. Mesin translasi dikembangkan dengan bias, menempatkan dokter sebagai laki-laki dan perawat sebagai perempuan.”

AI Dapat Memperparah Bias dan Ketimpangan

Sekalipun kecenderungan penerjemahan mesin translasi tersebut tampak sepele, dalam konteks yang lebih serius, itu adalah contoh kecil bagaimana bias di masyarakat dapat dilanggengkan melalui teknologi. Bias ini berdampak langsung pada kelompok minoritas gender dan seksualitas.

Hal ini diperparah dengan lahirnya banyak sekali AI yang mengambil data bias dari masyarakat. AI bekerja dengan data dalam jumlah masif. Model bahasa, model gambar, dan sistem rekomendasi dilatih menggunakan miliaran teks, gambar, dan video dari internet.

Masalahnya, internet sendiri sudah timpang. Representasi tentang perempuan, queer, trans, dan identitas non-normatif jumlahnya jauh lebih sedikit dibandingkan representasi laki-laki heteroseksual. Bahkan di Wikipedia, sekitar 80 persen kontennya berkaitan dengan laki-laki, dan sebagian besar editornya juga laki-laki. Artinya, sejak awal AI belajar dari dunia yang tidak setara. Ketika AI dilatih dari realitas yang bias, hasilnya bukan kecerdasan netral, melainkan kecerdasan yang memperkuat ketimpangan.

Yumna, salah seorang anggota Purple Code Collective, menambahkan bahwa setidaknya ada tiga faktor dari AI yang dapat memperparah bias terhadap minoritas ragam gender dan seksualitas: dari mana data berasal, bagaimana cara memperolehnya, dan siapa yang menjalankan AI.

“Pertama, kita tidak tahu data itu milik siapa. Kedua, apakah data itu termasuk mengambil data kita. Ketiga, pekerja-pekerja di balik AI, kita tidak tahu pengetahuan dan identitas mereka seperti apa. Itu bisa mereplikasi bias yang sudah ada, sehingga hanya memperkuat ketimpangan.”

AI dan Ledakan Kekerasan Seksual Digital

Lebih parah lagi, teknologi deepfake AI memungkinkan wajah seseorang ditempelkan ke tubuh orang lain dalam video atau gambar pornografi.

Korban terbanyak adalah perempuan dan kelompok queer. Data menunjukkan peningkatan ekstrem konten pornografi palsu, termasuk yang melibatkan anak.

Masalahnya, seseorang tidak perlu mengunggah foto “sensitif” untuk menjadi korban. Cukup satu foto wajah di media sosial, lalu AI bisa menciptakan tubuh, pose, dan adegan yang sama sekali tidak pernah terjadi.

Akibatnya, banyak orang menjadi takut hadir di ruang digital. Mereka menarik diri, membatasi ekspresi, dan hidup dalam kecemasan bahwa citra tubuh mereka bisa diproduksi ulang tanpa izin.

Anonimitas, Swasensor, atau Tampil Bebas?

Sebagai salah satu cara untuk aman di ruang digital, banyak orang menggunakan akun anonim dan membatasi publikasi foto diri. Meski terlihat aman, dalam perspektif Purple Code Collective, keamanan tidak selalu identik dengan anonimitas. Anonimitas memang bisa menjadi strategi perlindungan, tetapi tidak boleh dipaksakan sebagai satu-satunya bentuk aman. Setiap orang berhak memilih: ingin tampil dengan identitas asli atau anonim. Keduanya sama-sama pilihan politis dan seharusnya sama-sama mendapatkan perlindungan.

“Anonim harus menjadi pilihan. Kalau ada orang ingin anonim, dia berhak. Kalau ada orang tidak ingin anonim, dia juga berhak dengan keamanan yang setara,” ujar Dhyta.

Menurut Dhyta, tidak mempublikasikan foto diri memang bisa menjadi strategi keamanan di era deepfake. Namun, hal ini justru bisa menjadi bentuk swasensor dan melanggengkan ketakutan, yang seharusnya tidak terjadi.

“Tidak mempublikasikan foto di internet memang bisa menjadi strategi keamanan. Tetapi itu juga membuat orang menyensor dirinya sendiri, menyensor ekspresinya, dengan harapan tidak terkena kejahatan. Padahal seharusnya tidak begitu. Orang yang tidak memasang foto di internet itu pilihan, strategi keamanan. Tetapi orang yang memasang foto juga seharusnya bisa mengekspresikan diri tanpa menjadi objek kekerasan.”

Permasalahan anonimitas dan swasensor ini lebih kompleks bagi kelompok minoritas ragam gender dan seksualitas. Bagi banyak orang queer, kemampuan mengekspresikan diri di ruang digital justru merupakan bentuk keamanan itu sendiri.

“Sebagai queer, saya merasa bisa berekspresi di ruang digital adalah bentuk keamanan. Tetapi apakah itu memungkinkan atau tidak, itu pertanyaannya. Jadi melihat keamanan tidak bisa disederhanakan: aman berarti anonim, atau aman berarti bebas berekspresi. Itu berbeda bagi setiap pengguna,” ujar Yumna.

Oleh karena itu, semua orang, termasuk minoritas ragam gender dan seksualitas, harus punya pilihan bebas: menjadi anonim atau mengekspresikan diri tanpa takut ancaman. Keamanan dan kebebasan seharusnya saling melengkapi, bukan dipertentangkan.

 

 

Siapa yang Bertanggung Jawab?

Menurut Dhyta, pendekatan holistik sangat diperlukan untuk mengatasi berbagai ancaman terhadap keamanan digital. Kita tidak bisa membebankan ini pada pengguna semata.

“Pendekatannya memang harus holistik. Tidak bisa hanya satu lapis saja.”

Pertanyaan pentingnya bukan hanya bagaimana individu melindungi diri, tetapi siapa yang seharusnya bertanggung jawab. Selama ini, beban keamanan hampir selalu diletakkan pada korban: jangan unggah foto, jangan terlalu terbuka, jangan pakai identitas asli. Pola ini menciptakan budaya menyalahkan korban. Padahal, kekerasan digital dimungkinkan oleh tiga lapis aktor utama:

  1. Individu pengguna: Mereka perlu bertanggung jawab secara etis, tidak menggunakan teknologi untuk melukai orang lain. Hal ini membutuhkan edukasi, literasi digital, dan perubahan budaya.
  2. Perusahaan teknologi: Mereka mendapatkan keuntungan besar dari produk AI. Maka, mereka juga harus bertanggung jawab atas dampak sosialnya, termasuk menyediakan sistem moderasi, mekanisme pelaporan, desain keamanan, dan batasan teknologi.
  3. Negara: Negara memiliki mandat untuk melindungi warga. Namun, sering kali negara memilih solusi instan: memblokir platform, melakukan sensor massal, atau melarang teknologi. Solusi ini memang terlihat cepat, tetapi justru mengorbankan kebebasan berekspresi. Alih-alih membangun regulasi yang adil, transparan, dan berbasis hak asasi, negara sering memilih pendekatan represif yang merugikan semua pihak.

Kesimpulan

Keamanan digital tidak bisa hanya dipahami sebagai urusan teknis, melainkan juga sebagai persoalan keadilan sosial. AI dan teknologi digital membawa peluang sekaligus ancaman, terutama bagi kelompok minoritas ragam gender dan seksualitas. Karena itu, keamanan dan kebebasan harus berjalan beriringan. Semua pihak—individu, perusahaan teknologi, dan negara—harus mengambil tanggung jawab bersama agar ruang digital menjadi tempat yang aman sekaligus bebas untuk mengekspresikan diri.

 

*Penulis adalah relawan jurnalis di Suara Kita. Penulis pernah berkontribusi konten di Pelangi Dharma dan di media sosial lainnya.