Skip to content
  • Tentang
  • Bermitra dengan Kami
  • GNA Internasional
  • Berlangganan
  • Log In
Primary Menu
  • Beranda
  • Terbaru
  • Topik
  • Wilayah
    • Jawa
    • Kalimantan
    • Maluku
    • Nusa Tenggara
    • Papua
    • Sulawesi
    • Sumatera
  • Kabar
  • Ikhtisar
  • Wawancara
  • Opini
  • Figur
  • Infografik
  • Video
  • Komunitas
  • ESG
  • Muda
  • Dunia
  • Siaran Pers
  • GNA Knowledge Hub
  • Kolom Penasihat GNA
  • Opini

Memahami Sisi Gelap Kecerdasan Buatan

AI bukanlah tujuan, melainkan alat. Dan alat yang baik harus melayani kepentingan manusia dan kemanusiaan, bukan menggantikannya, mengeksploitasinya, atau bahkan menghancurkannya.
Oleh Jalal
5 September 2025
sebuah tangan robot mengambil lampu bercahaya

Ilustrasi: Irhan Prabasukma.

Panduan Artikel Opini GNA

Pelajari Lebih Lanjut

Di tengah gemuruh inovasi teknologi yang disebut-sebut revolusioner, di mana istilah Kecerdasan Buatan (Artificial Intelligence, disingkat AI) digunakan bak mantra suci untuk membuka pintu masa depan, muncul sebuah kegelisahan yang semakin menguat: apakah kita sedang membangun peradaban berbasis logika dan kecerdasan, ataukah justru kita sedang membangun ilusi yang menghancurkan akal sehat? Dalam gelombang euforia yang digerakkan oleh perusahaan raksasa teknologi seperti OpenAI, Google, dan Microsoft, para kritikus menyatakan bahwa istilah AI telah direduksi menjadi alat pemasaran, jargon spekulatif, bahkan alat legitimasi bagi eksploitasi sistemik—bukan sebagai teknologi yang transparan, bertanggung jawab, mendekatkan pada keberlanjutan dan keadilan seperti yang dahulu didengung-dengungkan.

Teknologi yang Mengorbankan Manusia

Sejak tahun lalu hingga sekarang, dalam catatan saya setidaknya ada tiga buku yang bisa kita jadikan dasar refleksi ini. Pertama, AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference oleh Arvind Narayanan dan Sayash Kapoor. Kedua, The AI Con: How To Fight Big Tech’s Hype and Create the Future We Want oleh Emily Bender dan Alex Hanna. Ketiga, Empire of AI: Dreams and Nightmares in Sam Altman’s OpenAI oleh Karen Hao. Ketiga buku itu bukan sekadar kritik akademik, melainkan alarm keras yang menggema dari dalam ruang-ruang riset, redaksi media, dan komunitas yang terpinggirkan. Dari ketiga buku itu kita bisa belajar bahwa dunia AI yang kita lihat hari ini bukanlah puncak evolusi teknologi, melainkan sebuah sandiwara besar yang mengorbankan manusia demi profit, kekuasaan yang lebih besar, yang disandarkan pada mitos tentang kecerdasan super.

Perusahaan-perusahaan AI modern telah mengubah teknologi menjadi komoditas yang dijual dengan narasi yang begitu megah hingga nyaris tak bisa dibantah—kecuali oleh mereka yang benar-benar mengulik isi benak, hati, dan perut perusahaan-perusahaan itu. Perusahaan-perusahaan AI menjanjikan keajaiban: dokter virtual yang menyembuhkan, pengacara robot yang tak pernah salah kutip, dan penulis yang mampu melahirkan karya sastra setara para pujangga besar dalam hitungan detik. Namun, di balik layar, yang terjadi justru sesuatu yang sangat berbeda. AI yang mereka tawarkan bukanlah entitas yang berpikir, memahami, apalagi mencipta—melainkan sistem statistik raksasa yang meniru pola dari data yang dikumpulkan tanpa izin, termasuk dan sering kali dari karya intelektual manusia yang dijarah secara sistematis.

Seperti yang diungkapkan oleh Bender dan Hanna, large language models sesungguhnya hanyalah “stochastic parrots”—beo stokastik—yang mengulang apa yang pernah mereka dengar, tanpa memahami maknanya. Mereka tidak menulis, mereka meniru. Mereka tidak berpikir, mereka memprediksi urutan kata. Namun, narasi yang dibangun oleh perusahaan-perusahaan ini begitu kuatnya hingga publik percaya bahwa mesin-mesin ini “tahu” apa yang mereka katakan, padahal yang terjadi hanyalah simulasi kecerdasan yang begitu meyakinkan, bahkan mengagumkan, hingga menipu bahkan para penggunanya sendiri.

Eksploitasi Sistemik

Salah satu bentuk eksploitasi paling nyata adalah pencurian karya intelektual untuk melatih model AI. Hao mengungkap bagaimana OpenAI dan perusahaan sejenis membangun fondasi bisnis mereka di atas data yang dikumpulkan secara ilegal dan tidak etis. Karya sastra, artikel jurnal, skrip film, buku dan lukisan yang dilindungi hak cipta diambil secara massal tanpa izin, tanpa kredit, dan tentu saja tanpa kompensasi. Dua di antara penulis favorit saya, George R. R. Martin dan John Grisham, telah menuntut perusahaan AI karena menggunakan novel mereka sebagai bahan pelatihan tanpa persetujuan.

Ini bukan semata-mata soal hukum, melainkan juga soal moral. Seperti yang diingatkan oleh Bender dan Hanna, proses pelatihan AI ini adalah bentuk content theft yang sistematis—perampasan nilai dari pencipta yang telah menghabiskan bertahun-tahun untuk mengasah keterampilan mereka, mencari sumber-sumber yang relevan, lalu menuangkannya ke dalam karya-karya tulis atau bentuk lainnya. Sementara itu, perusahaan menghasilkan miliaran dolar dari teknologi yang dibangun di atas tulang punggung kerja orang lain. Ironisnya, kini para penulis itu sendiri kehilangan pekerjaan karena pasar dibanjiri oleh buku yang dihasilkan AI. Ini jelas bukan bentuk kemajuan, melainkan destruksi masif atas ekosistem kreatif.

Lebih dari itu, industri AI telah menciptakan bentuk baru dari eksploitasi tenaga kerja global. Di balik kemampuan “ajaib” chatbot seperti ChatGPT, terdapat ribuan pekerja outsourcing di negara-negara berkembang yang bertugas membersihkan data, menandai konten berbahaya, dan memberi umpan balik untuk membuat model terlihat lebih “manusiawi”. Narayanan dan Kapoor menunjukkan bahwa para pekerja ini—sering disebut sebagai content moderators atau data annotators—bekerja dalam kondisi yang menyedihkan bahkan traumatis, digaji rendah, dan tidak dilindungi secara psikologis. Mereka dipaksa melihat konten kekerasan, pornografi anak, dan ujaran kebencian setiap hari demi memastikan bahwa chatbot tidak akan menghasilkan hal serupa.

Ini sebetulnya adalah bentuk cognitive colonialism: perusahaan-perusahaan tajir di Utara memperoleh keuntungan raksasa dari teknologi canggih, sementara dampak mental dan emosional ditanggung oleh pekerja dari negara-negara Selatan. Mereka tidak disebut-sebut dalam iklan, tidak diwawancarai oleh media massa, tidak tampil di seminar dan konferensi global, dan tidak mendapatkan royalti dari produk yang mereka bantu ciptakan. Mereka adalah bayangan yang tak terlihat, tetapi tanpa mereka, AI tidak akan pernah bisa menulis dan berbicara meniru manusia.

Pengalihan dari Bahaya Nyata

Yang lebih mengkhawatirkan dan menyebalkan adalah bagaimana perusahaan AI sengaja menciptakan mitos tentang Artificial General Intelligence (AGI) dan Artificial Super-Intelligence (ASI) untuk mengalihkan perhatian dari masalah-masalah nyata yang kita hadapi. Istilah AGI dan ASI—yang merujuk pada mesin yang memiliki kecerdasan setara atau melebihi manusia—dijual sebagai horizon tak terhindarkan, sebagai “revolusi” yang pasti datang dan kita sambut dengan gegap gempita. Namun, seperti yang diingatkan oleh Narayanan dan Kapoor, tidak ada bukti bahwa AGI apalagi ASI mungkin terjadi, dan klaim tentang kedatangannya sering kali berasal dari orang-orang yang memiliki kepentingan finansial dalam memertahankan hype.

OpenAI, misalnya, didirikan dengan misi menciptakan AGI untuk “kebaikan bagi seluruh umat manusia”. Tetapi dalam praktiknya, ia beroperasi sebagai perusahaan kapitalis yang mencari keuntungan melalui dominasi pasar. Bahkan ketika para ilmuwan seperti Geoffrey Hinton—yang dikenal sebagai Godfather of AI—mulai memperingatkan tentang risiko eksistensial dari AI, para petinggi perusahaan itu sering kali berbicara dalam bahasa yang spekulatif dan dramatis, yang justru memperkuat narasi bahwa AI adalah ancaman futuristik yang harus dan niscaya dikendalikan oleh segelintir elit teknokrat. Padahal, seperti yang ditekankan oleh Bender dan Hanna, fokus pada ancaman eksistensial justru mengalihkan perhatian dari bahaya nyata yang sedang terjadi hari ini: diskriminasi oleh sistem prediktif, pengawasan massal oleh negara dan intelijen, pemecatan pekerja, dan penyebaran misinformasi yang hampir-hampir tak terbendung.

Sistem prediktif, yang menjadi tulang punggung banyak aplikasi AI, adalah salah satu bentuk teknologi paling berbahaya yang dijual sebagai solusi. Narayanan dan Kapoor menunjukkan bahwa AI prediktif—yang digunakan untuk meramalkan perilaku manusia, seperti kemungkinan seseorang melakukan kejahatan atau gagal membayar pinjaman—pada dasarnya tidak dapat diandalkan karena manusia bukanlah sistem deterministik. Mereka berubah, belajar, dan bereaksi terhadap lingkungan. Jadi, teknologi prakognisi seperti yang dibayangkan dalam film Minority Report sebetulnya berbahaya serta rentan manipulasi—seperti yang ditunjukkan di akhir film itu.

Namun, perusahaan dan pemerintah terus menggunakan sistem ini untuk mengambil keputusan penting: siapa yang mendapat pinjaman, siapa yang dipekerjakan, siapa yang ditahan di penjara. Hasilnya? Pengulangan bahkan penguatan bias rasial, kelas sosial, dan gender. Algoritma yang dilatih pada data historis jelas akan mereproduksi ketidakadilan masa lalu. Sebuah sistem yang digunakan oleh lembaga peradilan di Amerika Serikat untuk meramalkan risiko kejahatan ulang ternyata lebih sering menandai orang kulit hitam sebagai berisiko tinggi meskipun data menunjukkan bahwa mereka tidak lebih mungkin melakukan kejahatan dibandingkan orang kulit putih. Ini bukan netralitas teknologi—ini adalah diskriminasi yang dikodifikasi.

Media massa jelas menjadi kaki tangan dalam memperkuat hype seputar AI ini. Narayanan dan Kapoor mengungkap bahwa banyak pemberitaan tentang AI secara membabi buta mengulang pernyataan humas perusahaan-perusahaan AI, menggunakan gambar robot humanoid untuk melambangkan sistem statistik, dan menggambarkan AI seolah-olah memiliki niat atau agensi. Frasa seperti “AI belajar” atau “mesin memutuskan” menciptakan ilusi bahwa teknologi ini hidup dan otonom, padahal yang terjadi hanyalah eksekusi algoritma berdasarkan data yang dimasukkan oleh manusia. Media seringkali menampilkan angka akurasi tanpa konteks—“Mesin AI telah mencapai akurasi 95%!”—tanpa menjelaskan secara memadai bahwa angka itu mungkin berarti 95% akurat pada himpunan data yang terbatas, yang tidak mencerminkan kondisi dunia nyata. Terkadang media massa juga menggunakan metafora yang menempatkan AI pada posisi sakral, seakan-akan teknologi ini adalah entitas ilahi yang harus disembah—dan memang demikian yang diimpikan oleh Sam Altman. Jurnalisme yang seharusnya menjadi penjaga kebenaran justru menjadi corong pemasaran bahkan glorifikasi perusahaan teknologi.

Pertanyaan tentang Apa yang Disebut ‘Kemajuan’

Tetapi yang paling provokatif dari semua ini adalah bagaimana perusahaan AI berhasil memosisikan diri sebagai penjaga keselamatan umat manusia, sambil terus mengembangkan produk yang luar biasa membahayakan. OpenAI merilis pernyataan tentang risiko eksistensial dari AI, sementara pada saat yang sama mereka merilis model yang bisa dipergunakan untuk membuat deepfake, menyebar misinformasi, dan menggusur pekerjaan manusia. Mereka meminta moratorium pada pengembangan model besar, tetapi hanya setelah mereka sendiri telah membangun fondasi dominasi pasar. Ini adalah taktik yang cerdas sekaligus culas: ciptakan ancaman, lalu posisikan diri Anda sebagai satu-satunya yang bisa menyelamatkan dunia darinya. Seperti yang diungkap oleh Hao, Altman dan rekan-rekannya di OpenAI memang tidak hanya membangun perusahaan, mereka membangun sebuah empire—bukan hanya mencari kekuasaan ekonomi, tetapi juga kekuasaan epistemologi, di mana mereka menjadi penentu kebenaran, kecerdasan, dan masa depan.

Dalam dunia yang semakin digerakkan oleh AI, kita benar-benar perlu menginjak rem dan bertanya: siapa yang mendefinisikan kemajuan? Apakah kemajuan itu ketika sebuah chatbot bisa menulis buku dan puisi, atau ketika seorang penulis kehilangan penghasilannya karena pasar dibanjiri oleh karya-karya palsu? Apakah kemajuan itu ketika sistem bisa meramalkan perilaku kriminal, atau ketika sistem itu menghancurkan hidup seseorang karena kesalahan algoritma? Narayanan dan Kapoor menegaskan bahwa AI prediktif kemungkinan besar tidak akan pernah berhasil karena manusia tidak bisa diprediksi seperti cuaca atau pasar saham. Tapi perusahaan-perusahaan AI terus saja menjualnya karena ada seabreg duit yang bisa didapat. Mereka tidak menjual solusi—mereka menjual ilusi. Sepanjang ilusi itu dipercaya secara kolektif, tentu kelimpahan pendapatan dan profit bakal di tangan.

Greenwashing Digital

Yang lebih mengkhawatirkan lagi adalah dampak lingkungan dari industri AI. Bender dan Hanna mencatat bahwa Google dan Microsoft, dalam obsesi mereka terhadap AI, telah mengabaikan komitmen terhadap iklim yang kerap mereka sampaikan di laporan keberlanjutan maupun acara-acara bergengsi macam di World Economic Forum. Pelatihan model-model AI membutuhkan energi dalam jumlah luar biasa besar—jutaan kilowatt-jam—yang mayoritasnya masih berasal dari pembangkit listrik berbahan bakar fosil.

Data center yang mendukung operasi ini menjadi pulau konsumsi energi yang masif, sementara perusahaan mengklaim diri mereka “hijau” dengan membeli kredit karbon. Ini adalah bentuk greenwashing digital: mengklaim ramah lingkungan sambil terus menggerus masa depan planet ini demi keunggulan mesin AI.  Membeli kredit karbon, seharusnya adalah tindakan terakhir—setelah efisiensi dan efikasi dijalankan dengan sungguh-sungguh—bukannya meningkatkan emisi dengan gila-gilaan, lalu membayar dosa lewat projek sekuestrasi yang sudah berjalan.

Mengubah Cara Pandang tentang Kecerdasan Buatan

Namun, asa masih tetap ada. Seperti yang diingatkan oleh Bender dan Hanna, kita bisa melawan hype ini. Kita bisa meminta pertanggungjawaban perusahaan-perusahaan itu. Kita bisa menolak untuk menggunakan produk yang dibangun di atas eksploitasi. Kita perlu meninggalkan AI yang dibuat oleh perusahaan yang mendukung kolonialisme, apartheid dan genosida di Palestina. Kita bisa mendukung regulasi yang ketat, seperti Artificial Intelligence Act (AIA) di Eropa, yang mulai mengklasifikasikan sistem AI berdasarkan risikonya. Kita juga bisa mendukung model alternatif, seperti yang dilakukan oleh Te Hiku Media di Selandia Baru, yang membangun teknologi suara berbasis bahasa Maori dengan prinsip kedaulatan data, persetujuan, dan timbal balik manfaat di antara seluruh yang terlibat membangunnya. Mereka membuktikan bahwa AI bisa dibangun secara etis—jika kita memilih untuk melakukannya.

Kita juga perlu mengubah cara kita berbicara tentang AI. Seperti yang disarankan oleh para penulis itu, kita harus berhenti menggunakan istilah “AI” secara acak dan mulai bersikap spesifik. Apakah ini sistem pengenalan wajah atau algoritma rekomendasi? Dengan menyebut nama yang tepat, kita menghilangkan aura mistis yang sengaja diciptakan untuk menyelimuti teknologi ini. Kita harus mengajukan pertanyaan kritis: Siapa yang membangun ini? Untuk siapa? Dengan data dari mana? Siapa yang diuntungkan? Siapa yang dirugikan? Dan, bagaimana seharusnya kita menyikapinya?

Pada akhirnya, kita harus mengembalikan manusia ke pusat dari semua ini. AI bukanlah tujuan, melainkan alat. Dan alat yang baik harus melayani kepentingan manusia dan kemanusiaan, bukan menggantikannya, mengeksploitasinya, atau bahkan menghancurkannya. Dunia yang dijanjikan oleh perusahaan AI—dunia tanpa kerja, tanpa kreativitas manusia, tanpa ketidakpastian—bukanlah dunia yang layak ditinggali. Kita tidak butuh lebih banyak, seperti kata Bender dan Hanna, “beo stokastik” yang meniru kreativitas manusia. Kita butuh sistem yang menghormati kerja, hak, dan martabat manusia.

Bagi saya, ketiga buku ini adalah panggilan untuk bangun dari mimpi buruk yang dikemas sebagai kemajuan. Para penulis yang kritis itu mengingatkan kita semua bahwa teknologi tidak netral, dan bahwa kekuasaan tidak boleh diserahkan kepada segelintir perusahaan yang mengklaim bisa membaca masa depan. Kita tidak perlu menunggu AGI atau ASI untuk menyadari bahwa kita sedang dalam krisis. Krisis kejujuran, krisis etika, krisis imajinasi—bahkan krisis kemanusiaan secara total. Saatnya kita berhenti memuja algoritma dan mulai memperjuangkan dunia yang lebih adil—dengan atau tanpa AI.

Editor: Abul Muamar

Perkuat pengembangan kapasitas pribadi dan profesional Anda dengan Langganan GNA Indonesia.

Jika konten ini bermanfaat, harap pertimbangkan Langganan GNA Indonesia untuk mendapatkan akses digital ke wawasan interdisipliner dan lintas sektor tentang isu-isu keberlanjutan (sustainability) dan pembangunan berkelanjutan (sustainable development) di Indonesia dan dunia.

Pilih Paket Langganan Anda

Jalal
+ postsBio

Jalal adalah Penasihat Senior Green Network Asia. Ia seorang konsultan, penasihat, dan provokator keberlanjutan dengan pengalaman lebih dari 25 tahun. Ia telah bekerja untuk beberapa lembaga multilateral dan perusahaan nasional maupun multinasional dalam kapasitas sebagai subject matter expert, penasihat, maupun anggota board committee terkait CSR, keberlanjutan dan ESG; menjadi pendiri dan principal consultant di beberapa konsultan keberlanjutan; juga duduk di berbagai board dan menjadi sukarelawan di organisasi sosial yang seluruhnya mempromosikan keberlanjutan.

    This author does not have any more posts.

Continue Reading

Sebelumnya: Mendukung Inisiatif yang Dipimpin Kaum Muda dalam Pelestarian Laut

Lihat Konten GNA Lainnya

Pria menanam bakau Mendukung Inisiatif yang Dipimpin Kaum Muda dalam Pelestarian Laut
  • GNA Knowledge Hub
  • Ikhtisar

Mendukung Inisiatif yang Dipimpin Kaum Muda dalam Pelestarian Laut

Oleh Attiatul Noor
5 September 2025
deretan polisi dengan rompi dan tameng menghadap ke arah pengunjuk rasa dengan latar asap hitam Demokrasi yang Cacat di Indonesia: Kebebasan Berpendapat di Bawah Ancaman Kekerasan Aparat
  • GNA Knowledge Hub
  • Highlight
  • Kabar

Demokrasi yang Cacat di Indonesia: Kebebasan Berpendapat di Bawah Ancaman Kekerasan Aparat

Oleh Abul Muamar
4 September 2025
patung-patung kuno di lahan hijau terbuka Melestarikan Situs Warisan di Tengah Perubahan Iklim
  • GNA Knowledge Hub
  • Ikhtisar

Melestarikan Situs Warisan di Tengah Perubahan Iklim

Oleh Kresentia Madina
4 September 2025
seorang pria berkaus dan bercelana jins berbaring di jalan Ketimpangan, Pengangguran, hingga Korupsi yang Merajalela: 6 Isu Sosial yang Mendesak untuk Diatasi
  • GNA Knowledge Hub
  • Highlight
  • Ikhtisar

Ketimpangan, Pengangguran, hingga Korupsi yang Merajalela: 6 Isu Sosial yang Mendesak untuk Diatasi

Oleh Abul Muamar
3 September 2025
Seorang pemain sepak bola perempuan berbaju oranye menendang bola saat bertanding menghadapi lawan yang mengenakan kaus putih. Ihwal Kesenjangan Gaji Berbasis Gender dalam Olahraga dan Bagaimana Dampaknya
  • GNA Knowledge Hub
  • Ikhtisar

Ihwal Kesenjangan Gaji Berbasis Gender dalam Olahraga dan Bagaimana Dampaknya

Oleh Sukma Prasanthi
3 September 2025
logo is2p IS2P Serukan Setop Eskalasi Konflik dan Selamatkan Masa Depan Indonesia
  • GNA Knowledge Hub
  • Siaran Pers

IS2P Serukan Setop Eskalasi Konflik dan Selamatkan Masa Depan Indonesia

Oleh IS2P
2 September 2025

Tentang Kami

  • Surat CEO GNA
  • Tim In-House GNA
  • Jaringan Penasihat GNA
  • Jaringan Author GNA
  • Panduan Artikel Opini GNA
  • Panduan Konten Komunitas GNA
  • Layanan Penempatan Siaran Pers GNA
  • Program Magang GNA
  • Pedoman Media Siber
  • Ketentuan Layanan
  • Kebijakan Privasi
© 2021-2025 Green Network Asia