Apakah Kecerdasan Buatan (AI) berbahaya?

Apakah Kecerdasan Buatan (AI) berbahaya?

AI dipuji sebagai sesuatu yang revolusioner dan mengubah dunia, namun hal ini bukannya tanpa kelemahan.

Ketika AI semakin canggih dan tersebar luas, suara-suara peringatan terhadap potensi bahaya kecerdasan buatan semakin keras. “Hal-hal ini bisa menjadi lebih cerdas daripada kita dan bisa memutuskan untuk mengambil alih, dan kita perlu khawatir sekarang tentang bagaimana kita mencegah hal itu terjadi,” kata Geoffrey Hinton , yang dikenal sebagai “Godfather of AI” atas karya dasarnya tentang pembelajaran mesin dan algoritma jaringan saraf . Pada tahun 2023, Hinton meninggalkan posisinya di Google agar dia bisa “ berbicara tentang bahaya AI ,” bahkan ada bagian dari dirinya yang menyesali pekerjaan seumur hidupnya . Ilmuwan komputer terkenal ini tidak sendirian dalam kekhawatirannya.

Pendiri Tesla dan SpaceX, Elon Musk, bersama dengan lebih dari 1.000 pemimpin teknologi lainnya, mendesak dalam surat terbuka pada tahun 2023 untuk menghentikan eksperimen AI skala besar, dengan alasan bahwa teknologi tersebut dapat “menimbulkan risiko besar bagi masyarakat dan kemanusiaan.”
BAHAYA KECERDASAN BUATAN
  • Kehilangan pekerjaan yang dipicu oleh otomatisasi
  • pemalsuan mendalam
  • Pelanggaran privasi
  • Bias algoritma disebabkan oleh data yang buruk
  • Ketimpangan sosial ekonomi
  • Volatilitas pasar
  • Otomatisasi senjata
  • AI sadar diri yang tidak terkendali
Baik itu peningkatan otomatisasi pada pekerjaan tertentu , algoritme yang bias gender dan ras, atau senjata otonom yang beroperasi tanpa pengawasan manusia (dan masih banyak lagi), kegelisahan muncul di berbagai bidang. Dan kita masih dalam tahap awal mengenai kemampuan AI sebenarnya.
APAKAH AI BERBAHAYA?

Komunitas teknologi telah lama memperdebatkan ancaman yang ditimbulkan oleh kecerdasan buatan. Otomatisasi pekerjaan, penyebaran berita palsu, dan perlombaan senjata berbahaya yang didukung AI disebut-sebut sebagai beberapa bahaya terbesar yang ditimbulkan oleh AI. Berikut beberapa resiko yang digadang-gadang akan jadi masalah dikemudian hari:

1. Kurangnya Transparansi dan Penjelasan AI
Model AI dan pembelajaran mendalam mungkin sulit dipahami, bahkan bagi mereka yang bekerja langsung dengan teknologi tersebut . Hal ini menyebabkan kurangnya transparansi tentang bagaimana dan mengapa AI mengambil kesimpulan, sehingga menyebabkan kurangnya penjelasan mengenai data apa yang digunakan algoritma AI, atau mengapa mereka membuat keputusan yang bias atau tidak aman. Kekhawatiran ini telah mendorong penggunaan AI yang dapat dijelaskan , namun masih ada jalan panjang sebelum sistem AI yang transparan menjadi praktik umum.
2. Kehilangan Pekerjaan Karena Otomatisasi AI
Otomatisasi pekerjaan yang didukung AI menjadi perhatian mendesak karena teknologi ini diadopsi di industri seperti pemasaran , manufaktur , dan layanan kesehatan . Pada tahun 2030, tugas-tugas yang memakan waktu hingga 30 persen dari jam kerja saat ini di perekonomian AS dapat diotomatisasi – dengan karyawan kulit hitam dan Hispanik menjadi sangat rentan terhadap perubahan tersebut – menurut McKinsey . Goldman Sachs bahkan menyatakan 300 juta pekerjaan penuh waktu bisa hilang karena otomatisasi AI.
“Alasan kita memiliki tingkat pengangguran yang rendah, yang tidak benar-benar mencakup orang-orang yang tidak mencari pekerjaan, sebagian besar karena pekerjaan berupah rendah di sektor jasa diciptakan dengan cukup kuat oleh perekonomian ini,” kata futuris Martin Ford kepada Built In. . Namun, dengan meningkatnya AI, “Saya rasa hal ini tidak akan berlanjut.”
Ketika robot AI menjadi lebih pintar dan cekatan, tugas yang sama akan membutuhkan lebih sedikit manusia. Meskipun AI diperkirakan akan menciptakan 97 juta lapangan kerja baru pada tahun 2025 , banyak karyawan yang tidak memiliki keterampilan yang diperlukan untuk peran teknis ini dan akan tertinggal jika perusahaan tidak meningkatkan keterampilan tenaga kerjanya .
“Jika Anda menjual burger di McDonald’s dan semakin banyak otomatisasi yang masuk, apakah salah satu pekerjaan baru ini cocok untuk Anda?” kata Ford. “Atau mungkinkah pekerjaan baru tersebut memerlukan banyak pendidikan atau pelatihan atau bahkan mungkin bakat intrinsik – keterampilan antarpribadi atau kreativitas yang sangat kuat – yang mungkin tidak Anda miliki? Karena itulah hal-hal yang, setidaknya sejauh ini, belum bisa dilakukan dengan baik oleh komputer.”
Bahkan profesi yang memerlukan gelar sarjana dan pelatihan tambahan pasca-perguruan tinggi pun tidak kebal terhadap perpindahan AI.
Seperti yang dikemukakan oleh ahli strategi teknologi Chris Messina, bidang-bidang seperti hukum dan akuntansi siap untuk diambil alih oleh AI. Faktanya, kata Messina, beberapa di antaranya mungkin akan musnah. AI telah memberikan dampak yang signifikan terhadap dunia kedokteran. Hukum dan akuntansi adalah yang berikutnya, kata Messina, hukum dan akuntansi sedang bersiap untuk “perombakan besar-besaran.”
“Pikirkan kompleksitas kontrak, dan benar-benar mendalami serta memahami apa yang diperlukan untuk menciptakan struktur kesepakatan yang sempurna,” ujarnya terkait bidang hukum. “Banyak pengacara yang membaca banyak informasi — ratusan atau ribuan halaman data dan dokumen. Sangat mudah untuk melewatkan sesuatu. Jadi AI yang memiliki kemampuan untuk menyisir dan secara komprehensif memberikan kontrak terbaik untuk hasil yang ingin Anda capai mungkin akan menggantikan banyak pengacara perusahaan.”
3. Manipulasi Sosial Melalui Algoritma AI
Manipulasi sosial juga merupakan bahaya dari kecerdasan buatan. Ketakutan ini menjadi kenyataan ketika para politisi mengandalkan platform untuk mempromosikan sudut pandang mereka, salah satu contohnya adalah Ferdinand Marcos, Jr., yang menggunakan pasukan troll TikTok untuk menjaring suara generasi muda Filipina pada pemilu Filipina tahun 2022.
TikTok, yang merupakan salah satu contoh platform media sosial yang mengandalkan algoritma AI , mengisi feed pengguna dengan konten terkait dengan media sebelumnya yang mereka lihat di platform tersebut. Kritik terhadap aplikasi ini menargetkan proses ini dan kegagalan algoritme dalam menyaring konten yang berbahaya dan tidak akurat, sehingga meningkatkan kekhawatiran atas kemampuan TikTok dalam melindungi penggunanya dari informasi yang menyesatkan.
Media dan berita online menjadi semakin suram mengingat gambar dan video yang dihasilkan AI, pengubah suara AI, serta deepfake yang menyusup ke ranah politik dan sosial. Teknologi ini memudahkan pembuatan foto, video, klip audio yang realistis atau mengganti gambar satu gambar dengan gambar lainnya dalam gambar atau video yang sudah ada. Akibatnya, pihak-pihak yang tidak bertanggung jawab mempunyai cara lain untuk menyebarkan informasi yang salah dan propaganda perang , sehingga menciptakan skenario mimpi buruk di mana hampir mustahil untuk membedakan antara berita yang dapat dipercaya dan berita yang salah.
“Tidak ada yang tahu mana yang nyata dan mana yang tidak,” kata Ford. “Jadi ini benar-benar mengarah pada situasi di mana Anda benar-benar tidak dapat mempercayai mata dan telinga Anda sendiri; Anda tidak dapat mengandalkan apa yang, secara historis, kami anggap sebagai bukti terbaik… Itu akan menjadi masalah besar.”

4. Pengawasan Sosial Dengan Teknologi AI

Selain ancaman yang lebih nyata, Ford fokus pada dampak buruk AI terhadap privasi dan keamanan. Contoh utamanya adalah penggunaan teknologi pengenalan wajah di kantor, sekolah, dan tempat lainnya di Tiongkok. Selain melacak pergerakan seseorang, pemerintah Tiongkok mungkin dapat mengumpulkan cukup data untuk memantau aktivitas, hubungan, dan pandangan politik seseorang.
Contoh lainnya adalah departemen kepolisian AS yang menerapkan algoritma kepolisian prediktif untuk mengantisipasi di mana kejahatan akan terjadi. Masalahnya adalah algoritma ini dipengaruhi oleh tingkat penangkapan, yang secara tidak proporsional berdampak pada komunitas kulit hitam . Departemen kepolisian kemudian melakukan tindakan ganda terhadap komunitas-komunitas ini, yang mengarah pada kebijakan yang berlebihan dan pertanyaan mengenai apakah negara-negara yang memproklamirkan diri sebagai negara demokrasi dapat menolak menjadikan AI sebagai senjata otoriter.
“Rezim otoriter menggunakan atau akan menggunakannya,” kata Ford. “Pertanyaannya adalah, seberapa besar serangannya terhadap negara-negara Barat, negara-negara demokrasi, dan batasan apa yang kita berikan terhadapnya?”
5. Kurangnya Privasi Data Menggunakan Alat AI
Jika Anda pernah mencoba chatbot AI atau mencoba filter wajah AI secara online, data Anda akan dikumpulkan — namun ke mana data tersebut akan dikirim dan bagaimana cara penggunaannya? Sistem AI sering kali mengumpulkan data pribadi untuk menyesuaikan pengalaman pengguna atau untuk membantu melatih model AI yang Anda gunakan (terutama jika alat AI tersebut gratis). Data bahkan mungkin tidak dianggap aman dari pengguna lain ketika diberikan ke sistem AI, karena salah satu insiden bug yang terjadi dengan ChatGPT pada tahun 2023 “ memungkinkan beberapa pengguna melihat judul dari riwayat obrolan pengguna aktif lainnya .” Meskipun terdapat undang-undang yang melindungi informasi pribadi di beberapa kasus di Amerika Serikat, tidak ada undang-undang federal yang secara eksplisit melindungi warga negara dari bahaya privasi data yang disebabkan oleh AI.
6. Hilangnya Pengaruh Manusia
Ketergantungan yang berlebihan pada teknologi AI dapat mengakibatkan hilangnya pengaruh manusia – dan kurangnya fungsi manusia – di beberapa bagian masyarakat. Penggunaan AI dalam layanan kesehatan dapat mengakibatkan berkurangnya empati dan nalar manusia , misalnya. Dan penerapan AI generatif untuk upaya kreatif dapat mengurangi kreativitas dan ekspresi emosional manusia . Berinteraksi terlalu banyak dengan sistem AI bahkan dapat menyebabkan berkurangnya keterampilan komunikasi dan sosial teman sebaya. Jadi, meskipun AI bisa sangat membantu dalam mengotomatisasi tugas sehari-hari, ada yang mempertanyakan apakah AI dapat menghambat kecerdasan, kemampuan, dan kebutuhan masyarakat secara keseluruhan.
7. AI Sadar Diri yang Tak Terkendali
Ada juga kekhawatiran bahwa AI akan mengalami kemajuan pesat dalam hal kecerdasan sehingga ia menjadi makhluk hidup , dan bertindak di luar kendali manusia — mungkin dengan cara yang jahat. Dugaan laporan mengenai perasaan ini telah terjadi, dengan salah satu akun populer berasal dari mantan insinyur Google yang menyatakan bahwa chatbot AI LaMDA adalah makhluk hidup dan berbicara kepadanya seperti halnya manusia. Karena pencapaian besar AI berikutnya melibatkan pembuatan sistem dengan kecerdasan umum buatan , dan pada akhirnya kecerdasan super buatan , seruan untuk sepenuhnya menghentikan perkembangan ini terus meningkat .
Menganalis Resiko yang ada
AI masih memiliki banyak manfaat , seperti mengatur data kesehatan dan menggerakkan mobil tanpa pengemudi. Namun, untuk mendapatkan hasil maksimal dari teknologi yang menjanjikan ini, beberapa pihak berpendapat bahwa diperlukan banyak peraturan.
“Ada bahaya serius bahwa kita akan menjadi lebih pintar dalam waktu dekat dan hal-hal ini mungkin mempunyai motif buruk dan mengambil kendali,” kata Hinton kepada NPR . “Ini bukan hanya masalah fiksi ilmiah. Ini adalah masalah serius yang mungkin akan segera terjadi, dan para politisi perlu memikirkan apa yang harus dilakukan sekarang.”
Source About AI