Sukses

Mengacau di Twitter, Microsoft Minta Maaf atas Kelakuan Tay

Setelah mencuit kata-kata tidak pantas, Microsoft menonaktifkan kecerdasan buatannya, Tay.

Liputan6.com, Washington - Belum 24 jam sejak Microsoft memperkenalkan program hasil eksperimen kecerdasan buatannya yang bernama Tay, kini perusahaan komputasi tersebut meminta maaf kepada publik.

Informasi yang dilansir tim Tekno Liputan6.com dari laman Cnet, Minggu (27/3/2016), kecerdasan buatan (artificial intelligence/AI) berbentuk chatbot untuk kaum millenial tersebut mencuit secara liar di situs microblogging Twitter.

Pada Jumat waktu Washington, Microsoft yang merasa bertanggung jawab atas cuitan bernada rasis dan seksisme yang dilontarkan Tay tersebut memutuskan untuk menonaktifkan Tay.

Dalam sebuah unggahan blog, Vice President Microsoft Reseach Peter Lee mengungkapkan perusahaan memohon maaf atas kelakuan buruk Tay. Ia menyebutkan AI berbentuk remaja perempuan tersebut mungkin telah salah bergaul, sehingga Tay tertular pengaruh buruk.

"Orang-orang secara sengaja mengeksploitasi kelemahan Tay dengan sebuah serangan terkoordinasi. Akibatnya, Tay mencuit kata-kata liar dan gambar yang tidak pantas," ujar Lee dalam unggahan blog tersebut.

Dalam waktu kurang dari 24 jam sejak kemunculannya di Twitter, kecerdasan buatan yang dikembangkan oleh tim riset Microsoft dan Bing itu memuji Hitler dan mengunggah gambar grafis yang berunsur seksual. Tay juga menyalahkan Presiden Bush atas terjadinya serangan 11 September. Tidak hanya itu, Tay pun mengungkapkan pendapatnya tentang faham feminisme.

"Saya sangat membenci feminis dan mereka seharusnya terbakar di api neraka," kata Tay dalam tweet-nya, seperti dilansir dari Cnet.

Tweet bernada kasar dari Tay itu disebut-sebut sangat menjadi perhatian banyak orang yang justru meminta remaja hasil eksperimen itu untuk mengulangi apa yang dituliskannya.

Tay sendiri dirancang untuk meniru pola bicara kaum millenial sebagai upaya meneliti dan memahami pola percakapan remaja. Microsoft meluncurkan chatbot tersebut di jejaring sosial Twitter, GroupMe, dan Kik.

Perusahaan yang didirikan Bill Gates itu juga telah menghapus setidaknya 96.000 cuitan yang diunggah Tay. Sayangnya, dunia maya telah melihat kata-kata tersebut dan akan sulit untuk menghapus tragedi tersebut.

(Tin/Ysl)

* Fakta atau Hoaks? Untuk mengetahui kebenaran informasi yang beredar, silakan WhatsApp ke nomor Cek Fakta Liputan6.com 0811 9787 670 hanya dengan ketik kata kunci yang diinginkan.