Melawan Algoritma

Algoritma dan keputusan kita

Dalam tulisan singkat ini, saya ingin mengajak pembaca untuk melakukan refleksi atas perkembangan mutakhir yang berlangsung dalam keseharian kita. Meski demikian, ketidaktahuan atau ketidakmampuan telah menjadikan kita menerima begitu saja tanpa pernah berusaha untuk membebaskan diri darinya.

Saya akan memulai dengan sebuah pertanyaan. Apakah kita sadar, banyak dari keputusan sehari-hari kita dipengaruhi oleh algoritma yang dikembangkan dalam berbagai aplikasi yang kita gunakan, termasuk media sosial?

Sebelum melanjutkan, mari kita pahami bersama apa itu algoritma? Algoritma adalah serangkaian langkah untuk menyelesaikan masalah. Kita menggunakan algoritma dalam banyak tindakan sehari-hari, mulai dari memasak mi instan sampai mengambil keputusan untuk kebaikan bangsa. Di sana ada urutan logis langkah-langkah yang harus diikuti.

Nah, aplikasi komputer pun menggunakan algoritma yang mengolah data menjadi informasi, yang diwujudkan dalam bentuk kode atau program yang dipahami oleh mesin.

Keputusan kita yang dipengaruhi algoritma yang tertanam dalam aplikasi, termasuk media sosial, dapat mewujud dalam beragam bentuk, mulai dari keputusan terkait berita yang kita baca, teman yang kita kontak, mobilitas fisik yang kita lakukan, dan bahkan barang atau layanan yang kita gunakan atau beli.

Tentu, hal itu tidak selalu berarti buruk, tetapi ketidaksadaran akan hal ini bisa menjadikan kita dikendalikan oleh algoritma yang tidak semuanya kita tahu arahnya.

 

Algoritma rekomendasi dan beberapa ilustrasi

Mari kita ambil beberapa ilustrasi. Apakah kita pernah mencari sebuah produk di media sosial? Katakanlah kita sedang mencari sepeda elektrik. Meskipun kita tidak jadi membeli, jangan heran, jika dalam beberapa hari selanjutnya, iklan sepeda elektrik akan sering muncul di layar kita.

Mengapa hal tersebut dapat terjadi? Aplikasi merekam setiap aktivitas kita dan karenanya mengetahui preferensi atau profil kita. Iklan produk yang sesuai dengan profil kita akan sering tampil di layar kita. Inilah algoritma rekomendasi melalui gelembung tapis (filter bubble) yang memilihkan informasi untuk kita.

Apa masalahnya? Keputusan yang kita buat tidak selalu rasional. Banyak di antaranya yang bersifat impulsif alias tergantung dari stimulus eksternal.

Hal ini mirip dengan kejadian ketika kita pergi ke sebuah pusat pembelajaran untuk mencari produk A. Tetapi, ketika ada paparan informasi produk lain yang memberikan banyak diskon, kita tergoda untuk membeli. Paparan yang berulang terhadap informasi tertentu akan mengubah persepsi kita dan akhir dapat mengarahkan perilaku kita.

Hal serupa juga terjadi ketika kita memberi sebuah produk di toko daring. Sebagai contoh, ketika membeli sebuah buku dengan judul tertentu, berdasar algoritma tertentu, toko daring memberi informasi, jika buku dengan judul lain biasanya juga dibeli oleh pembeli buku dengan judul yang kita pilih. Toko menawarkan produk dalam bentuk paket atau bundel. Sialnya, tawaran tersebut seringkali sayang untuk dilewatkan jika dibarengi dengan diskon menarik. Lagi-lagi, perilaku kita diarahkan oleh algoritma.

Selama beberapa waktu kemudian, setelah pembelian buku tersebut, jangan kaget jika kita juga akan mendapatkan penawaran buku lain melalui email yang terkirim secara otomatis. Sekali lagi, kita digoda oleh algoritma.

Sekarang, kita ganti buku dengan barang-barang keseharian lain, seperti pakaian dan produk gaya hidup lain. Bisa jadi, sebagian dari kita menganggap ini masalah lumrah saja, yang ujungnya terburuknya adalah perilaku konsumtif. Tapi ingat, perilaku konsumtif (bukan konsumerisme) dapat mengalihkan prioritas pengeluaran kepada pos yang tidak penting, dan mengabaikan yang lebih penting. Tapi, terlepas dari itu, bahwa perilaku kita sangat mungkin diarahkan oleh algoritma tetap valid.

 

Kamar gema dan manipulasi opini

Saya ingin mengajak membawa pelajaran ini ke konteks lain, dikaitkan dengan keterpaparan informasi yang sudah disaring oleh algoritma rekomendasi.

Perilaku daring dalam memilih konten yang kita akses dan baca akan direkam oleh aplikasi. Ketika kita sering membaca berita baik tentang tokoh B misalnya, jangan kaget jika melalui algoritma rekomendasi kita akan ditawari banyak berita baik tentang tokoh tersebut. Paparan kita terhadap berita baik tokoh lain, akibatnya, menjadi sangat terbatas.

Ketika kita mencintai seorang tokoh, maka akan sangat muncil rasa cinta kita akan semakin tinggi. Di sisi lain, ketika kita membenci tokoh pesaingnya, maka rasa benci itu akan menggunung. Semuanya karena informasi yang sudah tersaring.

Pun demikian yang terjadi di berbagai grup media sosial. Grup tersebut seakan mengikuti algoritma natural dan hanya orang-orang yang cenderung menggunakan perspektif yang saya berkumpul. Yang tidak, biasanya tidak diundang ke dalam grup atau bahkan dikeluarkan dari grup atau diputus pertemanannya.

Akibatnya dapat ditebak. Informasi yang mendukung perspektif grup tersebut akan semakin banyak dibagikan.

Akhirnya, sebuah kamar gema (echo chamber) terbentuk. Kita hanya mendengar “suara kita” sendiri, atau suara yang sama dengan suara kita.

Kita pun akhirnya terjebak pada bias konfirmasi yang menjadikan kita hanya percaya dengan informasi yang sesuai dengan yang kita yakini sebelumnya, dan cenderung tidak percaya dengan informasi dengan perspektif lain, meskipun informasi tersebut valid (Greenhill & Oppenheim, 2017; Davies, 2018).

Algoritma inilah yang berandil dalam membuat keterbelahan di tengah bangsa, ketika ada kontestasi politik, seperti pemilihan kepada daerah atau bahkan presiden. Sialnya, kita tidak sadar bahwa persepsi kita terhadap sebuah kejadian atau seorang tokoh dapat digiring oleh algoritma.

Ketidaksadaran inilah yang akhirnya memperdalam jurang keterpecahan antarkelompok anak bangsa. Yang semakin mengkhawatirkan adalah bahwa sentimen antarkelompok ini terus dilanggengkan dan bahkan semakin mengkristal dari waktu ke waktu.

Algoritma ini pun tak jarang justru dimanfaatkan untuk menggiring opini khalayak, termasuk dengan melibatkan pasukan siber. Pasukan ini ditugaskan untuk mengamplifikasi pesan yang beredar secara masif dan mendominasi ruang digital. Di sinilah penggiringan opini terjadi.

Studi yang dilakukan oleh tim dari Universitas Oxford (Bradshaw, Bailey, & Howard, 2021), menemukan bahwa pada 2020, aktivitas pasukan siber telah berlangsung di 70 negara. Pasukan siber tidak hanya melibatkan pengguna manusia, tetapi juga akun terautomatisasi atau robot politik (political bots) untuk mengamplifikasi pesan dengan cepat. Penggunaan akun terautomatisasi untuk manipulasi opini publik ditemukan di 57 negara, termasuk Indonesia (Bradshaw, Bailey, & Howard, 2021).

 

Profil dan penggiringan perilaku

Selain algoritma yang memfasilitasi amplifikasi informasi untuk memanipulasi opini publik, pengendalian perilaku kita juga dapat disebatkan oleh pemanfataan profil kita.

Karakteristik personal dan rekaman aktivitas daring, termasuk hubungan yang kita jalin dan percakapan yang kita lakukan, bisa dijadikan untuk menentukan profil kita, yang akan berasosiasi dengan preferensi kita atas banyak hal, termasuk pilihan produk dan politik (Kietzmann et al., 2012).

Kita bisa ambil contoh dari Amerika Serikat (AS). Pada pemilu 2016, ditemukan adanya keterlibatan perusahaan Cambridge Analytica yang membantu kampanye seorang calon presiden, dengan menambang data dari Facebook. Data dari sebanyak 200.000 pengguna Facebook digunakan untuk membuat profil psikologis rinci terhadap 87 juta pengguna (Heawood, 2018).

Data ini kemudian digunakan untuk microtargeting kampanye. Terdapat beragam bahaya praktik ini, termasuk di dalamnya adalah potensi untuk mengeksploitasi data personal, menutup karakteristik informasi yang sebetulnya iklan politik, informasi yang diterima secara privat tidak mudah dikoreksi, informasi yang diterima secara privat mungkin tidak benar, dan memungkinkan partai politik membuat janji politik yang berbeda-beda tergantung profil personal (Heawood, 2018).

Penyalahgunaan data ini diungkap oleh mantan pegawai Cambridge Analytica dalam sebuah wawancara. Skandal ini melibatkan Facebook. Facebook melalui CEO Mark Zukernberg meminta maaf ketika dimintai keterangan oleh Kongres AS. Pada Juli 2019, Facebook didenda USD5 miliar karena pelanggaran privasi (Wong, 2019).

Apakah penggiringan perilaku seperti ini terjadi di Indonesia? Meskipun tidak suka, praktik seperti ini juga ditemukan di Indonesia dalam beberapa kasus (lihat misalnya Sastramidjaja & Wijayanto, 2022).

 

Tawaran perlawanan

Apa yang mungkin kita lakukan untuk melawan manipulasi opini dan penggiringan perilaku oleh algoritma dari banyak aplikasi yang kita gunakan? Kita bisa ungkap beberapa inisiatif.

Pertama, kita harus menyadari bahwa setiap aplikasi menggunakan algoritma tertentu yang tidak semuanya kita ketahui arahnya. Ada nilai atau kepentingan yang ditanamkan di dalamnya. Kesadaran ini akan menjadikan kita selalu terjaga dan menjauhkan kita dari bersikap seperti anak kecil yang polos.

Karenanya, setiap klik yang kita lakukan, seharusnya didahului dengan refleksi dan pilihan sadar akan dampaknya. Jangan terlalu mudah mengklik atau membagikan informasi yang tidak jelas validitas dan manfaatnya.

Kedua, kita perlu melatih diri menjadi pemikir mandiri yang tidak mudah diobang-ambingkan oleh narasi publik, termasuk informasi yang direkomendasikan oleh beragam aplikasi.

Tentu, menjaga independensi seperti ini tidak selalu mudah. Dalam konteks ini, tingkat asupan individu terhadap informasi benar yang beragam dan pendidikan yang baik, akan mempermudah seseorang menjadi pemikir mandiri.

Mengapa ini penting? Studi menemukan bahwa banyak keputusan kita yang tidak didasarkan pada rasionalitas individu, tetapi dipengaruhi oleh narasi kelompok (Sloman & Fernbach, 2017).

Ketiga, secara kolektif, kita harus melantangkan konten yang baik dan informasi yang benar. Penyebaran informasi salah atau hoaks, tidak sebenuhnya bisa kita kendalikan.

Karenanya, pelantangkan konten baik dan informasi yang benar ini akan melawannya di ruang publik. Ada koreksi yang dilakukan secara kolektif, sehingga diharapkan persepsi publik bisa dikembalikan ke arah yang benar. Koreksi kolektif ini juga memanfaatkan algoritma rekomendasi yang menjadikan pesan menjadi dominan.

Meski demikian, kita perlu menyadari bahwa koreksi informasi salah yang beredar tidak serta merta bisa mengoreksi informasi yang salah (Nyhan and Reifler, 2010; Flynn et al., 2017). Informasi pengoreksi pun tidak dapat menjangkau semua orang yang sudah terpapar informasi yang salah tersebut. Lebih jauh lagi, informasi salah yang sering terbaca, apalagi jika berasal dari sumber yang dianggap kredibel, lebih mudah dipercaya dibandingkan dengan informasi benar yang jarang menyapa (Swire et al., 2017).

 

Epilog

Bahwa algoritma yang tertanam dalam beragam aplikasi, termasuk media sosial, telah mengarahkan perilaku kita adalah fakta. Namun kita secara kolektif dapat membuat “perlawanan” supaya menjadikan setiap pilihan dan keputusan dalam hidup kita semakin didasarkan pada refleksi yang cukup dan argumentasi yang rasional.

Tanpa perlawanan, hidup kita akan digiring oleh algoritma. Jangan lupa, algoritma juga buatan manusia. Manusia jenis ini tak jarang ingin melakukan eksploitasi atas manusia yang lain, baik secara finansial maupun politik. Inilah yang oleh Zuboff (2019), seorang profesor dari Universitas Harvard, disebut sebagai kapitalisme pengawasan (surveillance capitalism). Karenanya, semboyan kuasai data untuk menguasai dunia valid adanya, dan akan sangat berbahaya jika tidak dibarengi dengan nilai-nilai yang memuliakan manusia.

Saya berharap tulisan singkat ini bermanfaat dalam memantik kesadaran kolektif kita akan bahaya “menyerahkan hidup” kepada algoritma.

 

Referensi

Bradshaw, S., Bailey, H. & Howard, P. N. (2021) Industrialized disinformation: 2020 global inventory of organised social media manipulation. Working Paper 2021.1. Oxford, UK: Project on Computational Propaganda.

Davies, W. (2018). Nervous states: Democracy and the decline of reason. New York: WW Norton & Company.

Flynn, D. J., Nyhan, B., & Reifler, J. (2017). The nature and origins of misperceptions: Understanding false and unsupported beliefs about politics. Political Psychology38, 127-150.

Greenhill, K. M., & Oppenheim, B. (2017). Rumor has it: The adoption of unverified information in conflict zones. International Studies Quarterly, 61(3), 660-676.

Heawood, J. (2018). Pseudo-public political speech: Democratic implications of the Cambridge Analytica scandal. Information Polity, 23(4), 429-434.

Kietzmann, J. H., Silvestre, B. S., McCarthy, I. P., & Pitt, L. F. (2012). Unpacking the social media phenomenon: towards a research agenda. Journal of Public Affairs12(2), 109-119.

Nyhan, B., & Reifler, J. (2010). When corrections fail: The persistence of political misperceptions. Political Behavior, 32(2), 303–330.

Sastramidjaja, Y., & Wijayanto (2022). Cyber troops, online manipulation of public opinion and co-optation of Indonesia’s cybersphere. Singapura: ISEAS – Yusof Ishak Institute.

Sloman, S., & Fernbach, P. (2017). The knowledge illusion: Why we never think alone. Penguin.

Swire, B., Berinsky, A. J., Lewandowsky, S., & Ecker, U. K. H. (2017). Processing political misinformation: comprehending the Trump phenomenon. Royal Society Open Science, 4(3), 160802.

Wong, J. C (2019). Facebook to be fined $5bn for Cambridge Analytica privacy violations – reports. The Guardian, 12 Juli. Tersedia daring: https://www.theguardian.com/technology/2019/jul/12/facebook-fine-ftc-privacy-violations

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power. London: Profile Books.

Rangkuman orasi ilmiah dalam acara Wisuda ke-14 dan peringatan Dies Natalis ke-23, Universitas Amal Ilmiah Yapis Wamena, 3 Oktober 2022.