Sukses

Bahaya, Penjahat Siber Bisa Menyalahgunakan Kecerdasan Buatan

Para peneliti menilai penjahat siber dapat memanfaatkan kemajuan Artificial Intelligence (AI) atau kecerdasan buatan.

Liputan6.com, Jakarta - Para peneliti menilai penjahat dapat memanfaatkan kemajuan kecerdasan buatan (AI, Artificial Intelligence).

Penjahat siber dianggap dapat mengeksploitasi teknologi tersebut untuk membuat serangan peretasan, menyebabkan mobil otonomos kecelakaan, dan mengubah pesawat tanpa awak menjadi senjata.

Hal tersebut disampaikan dalam sebuah studi yang dipublikasikan pada Rabu (28/2/2018) oleh 25 teknisi dan para peneliti kebijakan publik dari Universitas Cambridge, Oxford dan Yale, bersama dengan pakar militer dan keamanan.

Studi ini dinilai menjadi pengingat atas kemungkinan potensi penyalahgunaan kecerdasan buatan oleh negara-negara "nakal", penjahat dan penjahat tunggal (lone-wolf attacker).

Para peneliti beranggapan penyalahgunaan kecerdasan buatan dapat menimbulkan ancaman yang segera terjadi di dalam keamanan digital, fisik dan politik, dengan diikuti serangan skala besar yang ditargetkan sangat efisien.

"Kami semua setuju ada banyak aplikasi positif dari kecerdasan buatan. Namun, ada celah dalam literatur terkait isu penggunaannya yang berbahaya," kata peneliti dari Future of Human Institute Oxford, Miles Brundage.

Kecerdasan buatan merupakan teknologi yang menggunakan komputer untuk melakukan tugas-tugas yang biasanya membutuhkan kecerdasan manusia, seperti membuat keputusan atau mengenali teks, ucapan, dan gambar visual.

Kecerdasan buatan dianggap sebagai teknologi yang dapat memecahkan masalah teknis, tetapi di sisi lain juga memunculkan perdebatan mengenai apakah fungsi otomatisasinya dapat mengakibatkan pengangguran yang luas atau perubahan sosial lainnya.

* Follow Official WhatsApp Channel Liputan6.com untuk mendapatkan berita-berita terkini dengan mengklik tautan ini.

2 dari 2 halaman

Kompak Atasi Kekhawatiran Risiko Kecerdasan Buatan

Lebih lanjut, para peneliti juga membahas perkembangan riset akademis tentang risiko keamanan kecerdasan buatan, serta mengimbau pemerintah, pakar teknis, dan kebijakan, untuk berkolaborasi mengatasi masalah ini.

Mereka pun merinci kekuatan kecerdasan buatan untuk membuat gambar, teks, dan audio yang dapat meniru identitas orang lain secara online, atau bisa memengaruhi opini publik. Rezim otoriter dinilai dapat menggunakan teknologi semacam itu.

Studi tersebut juga berisi sejumlah rekomendasi termasuk mengatur kecerdasan buatan sebagai teknologi penggunaan ganda, yaitu militer dan komersial.

Selain itu, para peneliti juga mempertanyakan apakah akademisi dan pihak lain harus mengendalikan apa yang mereka publikasikan atau mengungkapkan perkembangan baru kecerdasan buatan, sampai para pakar lain di lapangan memiliki peluang untuk belajar dan bereaksi terhadap potensi bahaya yang mungkin mereka hadapi.

"Akhirnya kami berakhir dengan lebih banyak pernyataan daripada jawaban," tutur Brundage.

Para peneliti berspekulasi, kecerdasan buatan dapat digunakan membuat audio dan video palsu pejabat publik terlihat sangat realistis untuk propaganda.

Pada tahun lalu, video pornografi "deepfake" muncul di ranah online yang menampilkan wajah-wajah selebritas pada tubuh berbeda.

"Hal ini terjadi dalam pornografi ketimbang propaganda. Namun, tidak ada hal di 'deepfakes' yang tidak bisa diimplementasikan untuk propaganda," ungkap Head of Policy OpenAI, Jack Clark.

OpenAI adalah kelompok didirikan oleh CEO Tesla Elon Musk dan investor Silicon Valley Sam Altman, dengan fokus pada pengembangan kecerdasan buatan ramah yang menguntungkan kemanusiaan. Demikian seperti dikutip dari Reuters, Kamis (22/2/2018).

(Din/Jek)

Saksikan Video Pilihan Berikut Ini:

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.