Tulisan Terbaru

Wawasan baru maupun tips

Bagaimana Algoritma Memberikan Dampak Buruk Pada Kita?

Dampak buruk dari algoritma sangat berbahaya karena dapat menyebabkan diskriminasi dan misinformasi. Seiring meningkatnya persaingan di antara raksasa teknologi, manusia diperkenalkan dengan teknologi terbaru yang menerapkan Kecerdasan Buatan. Tetapi algoritma bukanlah hal baru. Mereka telah ada sejak awal pemrograman komputer. Dan seiring waktu, mereka telah berkembang menjadi teknologi yang bisa bermanfaat tetapi sebagian bisa berbahaya.

Banyak organisasi hak asasi manusia menunjukkan bahwa algoritma memiliki potensi bahaya. Beberapa pemerintah juga memberikan sorotan, karena adanya bias yang diciptakan oleh algoritma Kecerdasan Buatan. Bahkan perusahaan teknologi besar seperti Facebook sering dipertanyakan karena penggunaan bias algoritmik. Namun, penyalahgunaan algoritma tidak terbatas pada segregasi rasial atau diskriminasi gender, di sebagian besar industri di mana algoritma diterapkan.

Algoritma digunakan oleh lembaga pendidikan untuk mengambil data tentang kinerja siswa, dan mengevaluasi kinerja guru dan sekolah. Saat pandemi COVID-19 menghambat ujian siswa di seluruh dunia, banyak negara, termasuk Inggris, memutuskan untuk memberi nilai berdasarkan kinerja selama satu tahun penuh.

Untuk ini, pemerintah Inggris menggunakan algoritma yang dikenal sebagai algoritma Ofqual, yang dirancang untuk melawan inflasi nilai dan digunakan untuk memprediksi nilai kualifikasi A-level dan GCSE bagi siswa, karena ujian dibatalkan karena COVID-19. Namun, algoritma ini menjadi mimpi buruk bagi banyak siswa di Inggris, ketika lebih dari sepertiga siswa (35,6%) mendapatkan penurunan nilai dari yang diberikan oleh guru karena bias algoritma tersebut.

Algoritma digunakan oleh kepolisian untuk menentukan lokasi kejahatan dan untuk menentukan orang yang berpotensi menjadi pelaku kejahatan. Namun, usai diperiksa pengenalan wajah yang digunakan oleh kepolisian malah menjadi bencana, seperti dalam kasus Breonna Taylor dan George Floyd, yang menunjukkan bias algoritma. Studi Liberty di Inggris telah mengidentifikasi setidaknya 14 kepolisian di Inggris yang menggunakan teknologi ini untuk menentukan tempat-tempat kejahatan, yang dapat menyebabkan profil rasial dan diskriminasi, serta mengancam privasi dan Kebebasan Berbicara.

Di bidang keuangan, algoritma digunakan untuk memilih dan menolak aplikasi pinjaman, atau untuk mengidentifikasi aplikasi yang memerlukan pemrosesan mendesak. Namun, bias algoritma dalam keuangan juga teramati di antara perusahaan teknologi besar, yang menyebabkan perselisihan antara kedua perusahaan. Pada tahun 2017, terjadi debat yang berkembang mengenai penggunaan algoritma saat mengeluarkan kartu kredit antara Apple dan Goldman Sachs, di mana pendiri Apple, Steve Wozniak, mempertanyakan diskriminasi oleh algoritma kartu kredit Goldman Sachs. Wozniak mengungkapkan bahwa ia dapat meminjam sepuluh kali lebih banyak dari istrinya namun tetap diperlakukan sama saat mengembalikan jumlah yang dipinjam. Ini adalah kasus kedua di mana bias algoritma kartu kredit dipertanyakan.

Algoritma dapat menghasilkan diskriminasi yang tidak adil terhadap kelompok-kelompok tertentu, baik berdasarkan ras, gender, agama, atau faktor-faktor lain. Hal ini terjadi ketika algoritma didasarkan pada data yang memiliki bias inheren atau ketika proses pembelajaran mesin mencerminkan bias yang ada dalam data pelatihan. Hasilnya adalah ketidakadilan dalam pengambilan keputusan, seperti pemilihan pekerjaan, penentuan kelayakan pinjaman, atau tindakan hukum.

Algoritma dapat mempengaruhi privasi individu dengan mengumpulkan dan menganalisis data pribadi tanpa izin atau pengetahuan mereka. Informasi yang dikumpulkan, seperti riwayat penelusuran, preferensi pribadi, atau data demografis, dapat digunakan untuk tujuan yang tidak diinginkan, seperti pemosisian iklan yang agresif atau penyalahgunaan data untuk manipulasi politik.

Algoritma yang mengendalikan aliran informasi dapat membatasi kebebasan berbicara dan mempengaruhi keragaman pendapat. Ketika platform media sosial atau mesin pencari menggunakan algoritma untuk menampilkan konten yang sesuai dengan preferensi pengguna, ini dapat menyebabkan pengguna terperangkap dalam "gelembung filter" di mana mereka hanya terpapar pada sudut pandang yang sejalan dengan pandangan mereka sendiri. Hal ini dapat menghambat pertukaran informasi dan dialog yang beragam.

Algoritma dapat dimanipulasi untuk menyebarkan konten palsu, hoaks, atau propaganda dengan dampak yang merusak. Dalam upaya mendapatkan perhatian atau mempengaruhi opini publik, aktor jahat dapat memanfaatkan algoritma untuk menyebarkan informasi yang salah atau memanipulasi aliran berita.

Penting untuk menyadari dan mempertimbangkan dampak buruk ini saat mengembangkan dan menerapkan algoritma. Keberlanjutan dan etika harus menjadi pertimbangan utama dalam penggunaan algoritma untuk meminimalkan risiko dan memastikan keadilan, privasi, dan kebebasan yang tepat.

Refactory

Refactory adalah pengaktif teknologi digital di Indonesia. Sejak didirikan pada 2015 di Surabaya dan membuka Bootcamp kelas pertama pada 2017 di Bandung, Refactory telah berkembang melebihi Bootcamp dengan menambah berbagai solusi untuk memberdayakan anak-anak muda Indonesia melalui pemrograman, serta membantu perusahaan di tingkat nasional maupun mancanegara untuk merealisasikan potensi mereka.

Kantor Utama di Jl. Palagan Tentara Pelajar Km. 9,8 Sleman, DI Yogyakarta 55581 - Indonesia

© 2017-2024 PT. BIXBOX TEKNOLOGI PERKASA. All rights reserved.