Sukses

Peneliti Ungkap Daftar Bahaya Bila Kecerdasan Buatan Disalahgunakan

Sekumpulan ahli dari berbagai institusi dan universitas menuliskan potensi bahaya AI di keamanan digital, fisik, dan teknologi.

Liputan6.com, Jakarta - Kecerdasan buatan (artificial intelligence, AI) menjadi topik terhangat di dunia teknologi.

Para raksasa di dunia teknologi pun masih belum satu suara pada perkembangan AI. Salah satunya Elon Musk yang berpendapat AI dapat membahayakan umat manusia.

Diskusi tentang etika AI pun mulai digencarkan agar robot-robot yang dibuat manusia tidak malah menjadi merugikan.

Sebuah laporan berjudul The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation (Penggunaan Berbahaya Kecerdasan Buatan: Perkiraan, Prevensi, dan Mitigasi) menuliskan potensi bahaya dari AI dalam bidang keamanan digital, fisik, dan politik.

Laporan itu disusun oleh gabungan ahli dari berbagai institusi, seperti OpenAI yang mengembangkan AI yang baik, serta ahli dari berbagai universitas terkenal di dunia, di antaranya Universitas Oxford, Yale, dan Cambridge, dan Louisville.

Ditulis, AI dapat memperluas ancaman-ancaman yang sudah ada, memperkenalkan ancaman baru, dan mengubah karakter tipikal sebuah ancaman, contohnya sebuah serangan akan lebih efektif dan semakin sulit dihindari.

Berikut daftar potensi bahaya AI yang dilansir dari laporan tersebut pada Minggu (25/2/2018).

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 4 halaman

Ancaman AI dalam Keamanan Digital

1. Serangan rekayasa sosial otomatis: Penjahat siber dapat dengan mudah membuat situs, email, atau link berbahaya menggunakan identitas curian, bahkan gaya penulisan korban pun dapat ditiru.

AI yang disalahgunakan berpotensi dipakai sebagai chatbot yang berpura-pura menjadi manusia agar dapat berdialog dengan korbannya.

2. Pencarian kelemahan otomatis: Kelemahan sebuah kode akan dapat lebih cepat dicari-cari dengan bantuan AI.

3. Hacking yang lebih canggih dan otomatis: Dengan mengeksploitasi AI, penjahat siber akan lebih efisien dan sulit dilacak saat melakukan tindakan kriminal seperti mencuri informasi calon korbannya untuk disalahgunakan.

3 dari 4 halaman

Ancaman AI dalam Keamanan Fisik

1. Terorisme Menggunakan AI: Sistem-sistem yang mengandalkan AI untuk tujuan komersil dapat dieksploitasi teroris untuk kepentingan jahat. Teroris dapat melancarkan serangan dari jauh, dan membiarkan robot AI yang bertindak.

Ambil contoh pemakaian drone atau mobil yang bisa berkendara sendiri digunakan untuk melakukan serangan.

2. Teroris Tidak Perlu Repot Memberi Pelatihan: Dengan kekuatan AI, seorang individual yang tidak ahli melakukan aksi tingkat tinggi dapat ditunjang menggunakan kemampuan AI.

3. Skala Serangan Meningkat: Dengan menggunakan AI, satu orang dapat melancarkan serangan dalam skala besar, contohnya lewat drone.

4. Pengintaian Makin Menyeramkan: Sistem-sistem jaringan pengawasan yang mengandalkan sistem robot dapat mengawasi khalayak dalam jumlah besar dan memonitor area luas, tapi efek sampingnya adalah teroris dapat menyalahgunakan untuk mengeksekusi serangan dengan cepat dan terkoordinasi.

4 dari 4 halaman

Ancaman AI dalam Keamanan Politik

1. AI dapat disalahgunakan penguasa: Kekuatan AI di bidang informasi dan komunikasi dapat disalahgunakan penguasa untuk mengumpulkan informasi dalam skala besar yang rentan, hal itu disinyalir dapat memojokan orang-orang yang mengkritik penguasa.

2. Berita palsu lebih meyakinkan: Berita palsu atau hoax dapat dibuat lebih bagus dengan bantuan AI. Pembuatan video yang berisi tindakan jahat yang dilakukan orang lain juga dapat dipalsukan meski orang tersebut tidak pernah melakukan tindakan jahat.

3. Manipulasi informasi: Dengan memanipulasi algoritme, orang-orang dapat digiring menuju informasi tertentu atau digiring menjauhi informasi tertentu.

(Tom/Ysl) 

Saksikan Video Pilihan Berikut Ini:

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.