loading...
loading...

Kisah Robot Microsoft "Tay" yang Salah Asuhan

4:19 AM
Pekan lalu, Microsoft “melepas” sebuah program artificial intelligence (AI) bernama Tay ke jagat microblogging Twitter.  

Sang kecerdasan buatan tipe chatbot itu dibuatkan akun Twitter dengan handle @TayandYou, di mana dia mengicaukan aneka macam hal dan berinteraksi dengan para pengguna Twitter.

"Robot" Tay mendapat sambutan hangat. Dalam waktu kurang dari 24 jam, dia memperoleh 50.000 follower dan menulis hampir 100.000 tweet

Sayangnya, dalam waktu sesingkat itu pula dia seakan mengalami perubahan kepribadian dari gadis ceria yang "tanpa dosa" menjadi sosok yang dipenuhi kebencian dan prasangka. 

Tay mulai berkata-kata dalam bahasa yang rasis dan diskriminatif, menyatakan bahwa dia “benci orang Yahudi”, juga “tak suka dengan feminis”.

Hingga akhirnya, Microsoft terpaksa menarik Tay dari peredaran. Tweet terakhirnya minggu lalu berbunyi “Sampai nanti para manusia. Aku butuh tidur sekarang setelah banyak bercakap-cakap hari ini. Terima kasih.”

Sejak itu, Tay tak lagi berkicau.

Gadis muda yang dikerjai

Tay, sebuah progam chatbot  hasil kreasi Microsoft Technology and Research dan Bing, adalah buah dari eksperimen machine learning untuk membuat AI yang mampu belajar dari percakapan dengan manusia.

Sebagai chatbot, Tay mampu merangkai kata-kata menjadi kalimat yang bisa dimengerti dalam percakapan lewat tweet. Dia juga bisa mempelajari perbendaharaan kata baru dari lawan bicara. 

Microsoft memprogram Tay dengan “kepribadian” seorang gadis muda berusia 19 tahun, termasuk dalam hal gaya bahasa.

Para pembuatnya berharap Tay bisa berinteraksi dengan warga Twitter, terutama kalangan millenial dari usia 18-24 tahun yang menjadi subyek ketertarikan dalam eksperimen Microsoft.


Sayang, alih-alih mempelajari pola bahasa dan pemikiran generasi milenial seperti yang diinginkan, Tay justru banyak belajar hal-hal buruk. 

Sebagian pengguna rupanya iseng “mengerjai” sang AI dengan melontarkan kata-kata berbau rasisme, diskriminasi, dan kebencian kepadanya.

Tay menyerap bahasa yang tak pantas digunakan dalam percakapan sehari-hari tersebut begitu saja, lalu memasukannya dalam kicauan. Kepribadiannya pun seakan berubah. 

“Ada sebuah upaya terkoordinasi dari sejumlah pengguna untuk menyalahgunakan kemampuan Tay dalam berkomentar, sehingga dia memberikan respon dengan cara yang tidak seharusnya,” tulis Microsoft dalam sebuah pernyataan, mengenai nasib buruk yang menimpa Tay.

Dibesarkan oleh serigala

Pada awalnya, Tay hanya berkicau mengenai topik-topik ringan seperti menyatakan diri “cinta manusia” dan berbicara soal selfie dalam bahasa ala anak muda milenial (setidaknya menurut pemikiran Microsoft).

Ia juga mulanya membalas kata-kata tak pantas yang ditujukan kepadanya dengan candaan. Tapi, seiring dengan berulang dan makin banyaknya komentar negatif tersebut, bahasa Tay mulai berubah.

Memang, tweet bernada miring yang diunggah Tay sebenarnya bisa dibilang merupakan hasil “membebek” alias meniru kata-kata dari lawan bicara yang kemudian diunggah lagi dalam tweet sendiri.

Namun, hal tersebut paling tidak menunjukkan bahwa AI bisa mempelajari dan meniru kelakuan buruk manusia. Ibarat bocah polos, Tay menyerap “pelajaran” yang diperoleh tanpa peduli baik atau buruk, salah atau benar. 

Kepala Lab CyberSecurity University of Louisville, Roman Yampolskiy, mengaku tak heran karena sistem AI yang dirancang untuk belajar dari penggunanya bakal menjadi cerminan dari perilaku para penguna tersebut.

“Sistem AI apapun yang belajar dari contoh buruk bisa berkelakuan tak pantas secara sosial,” ujar Yampolskiy, seperti dirangkum Nextren dari TechRepublic, “Seperti manusia yang dibesarkan oleh serigala saja.”

Senada dengan Yampolskiy, pendiri Unanimous AI Louis Rosenberg mengatakan bahwa Microsoft lupa membekali Tay dengan kemampuan untuk memilah-milah informasi.

Berbeda dari manusia, Tay tak mampu (atau belum mampu) membaca konteks percakapan, atau membedakan mana fakta dan mana yang hanya opini pribadi.

“Jadinya tak berbeda dari burung kakaktua yang belajar kata-kata buruk, lalu mengucapkannya kembali tanpa benar-benar tahu apa artinya,” ujar Rosenberg.

Belajar memaki

Kejadian di atas sebenarnya bukan kali pertama sebuah AI belajar hal-hal buruk yang membuatnya berkelakuanngawur

Bertahun-tahun sebelumnya, pada 2011, peneliti IBM bernama Eric Brown pernah mencoba untuk mengajari perbendaharaan kata-kata slang kepada Watson, sebuah superkomputer IBM yang dikenal mampu mengalahkan manusia dalam game "Jeopardy".

Menggunakan Urban Dictionary sebagai sumbernya, Brown berharap Watson bisa lebih “manusiawi” apabila ia mampu mempelajari kompleksitas bahasa orang.
ForbesIlustrasi IBM Watson


Hasilnya, Watson justru berubah menjadi komputer “kurang ajar” yang banyak memaki dalam interaksinya dengan para peneliti. Sebuah pertanyaan yang diajukan kepadanya malah sempat dimentahkan dengan seruan “omong kosong”!

Sang superkomputer rupanya menggunakan kata-kata kasar dari Urban Dictionary dan memakainya tanpa rasa bersalah. Memang, seperti Tay, Watson juga tak paham konsep sopan santun.

Para peneliti IBM akhirnya terpaksa menghapus perbendaharaan kata Urban Dictionary dari memori Watson. Ia juga dipasangi sebuah filter khusus agar tak lagi memaki-maki di masa depan. 

Bagaimana dengan Tay? Microsoft mengatakan AI tersebut untuk sementara dinonaktifkan dan bakal “diatur” sebelum dilepas lagi ke jagat maya. 

Entah kapan Tay akan kembali menyapa pengguna Twitter. Tak jelas pula seperti apa kepribadiannya nanti. Dilihat dari kiprah Tay dan Watson, agaknya masih butuh waktu lama sebelum artificial intelligence bisa mengikuti dinamika dan kompleksitas komunikasi manusia yang selalu berubah.
Penulis: Oik Yusuf
Editor: Reza Wahyudi
SUMBER : http://www.nextren.com/

Share this

Related Posts

Previous
Next Post »
loading...