Tay (bot)
Tay | |||||
---|---|---|---|---|---|
Tipe | Chatterbot | ||||
Versi pertama | 23 Maret 2016 | ||||
Genre | chatterbot intelijensi artifisial | ||||
Bahasa | Daftar bahasa | ||||
| |||||
Bagian dari
| |||||
Tay adalah sebuah chatterbot intelijensi artifisial untuk platform Twitter yang dirilis oleh Microsoft Corporation pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan[1] dan di-nonaktif-kan setelah sekitar 16 jam setelah diluncurkan.
Pembuatan
[sunting | sunting sumber]Bot tersebut dibuat oleh divisi Technology and Research and Bing dari Microsoft.[2] Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada Xiaoice, sebuah proyek yang mirip dengan Microsoft di China.[3] Ars Technica menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".[4] Tay dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun, dan digunakan untuk berinteraksi dengan pengguna-pengguna manusia di Twitter.[5]
Perilisan awal
[sunting | sunting sumber]Tay dirilis di Twitter pada 23 Maret 2016 dengan nama TayTweets dan menangani @TayandYou.[6] Bot tersebut dipersembahkan sebagai "The AI with zero chill".[7] Tay mulai memberi jawaban kepada pengguna-pengguna Twitter lainnya, dan juga mengomentari foto-foto yang terdapat di Twitter dalam bentuk meme-meme Internet.[8]
Perilisan kedua
[sunting | sunting sumber]Ketika mengetes Tay, Microsoft secara tak sengaja merilis kembali bot tersebut di Twitter pada 30 Maret 2016.[9]
Referensi
[sunting | sunting sumber]- ^ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Diakses tanggal 25 Maret 2016.
- ^ Hope Reese (24 Maret 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
- ^ Caitlin Dewey (23 Maret 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
- ^ Kesalahan pengutipan: Tag
<ref>
tidak sah; tidak ditemukan teks untuk ref bernamaArsT
- ^ Rob Price (24 Maret 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider.
- ^ Andrew Griffin (23 Maret 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent.
- ^ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Daily Telegraph. Diakses tanggal 25 March 2016.
- ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Diakses tanggal 26 Maret 2016.
- ^ Graham, Luke (30 Maret 2016). "Tay, Microsoft's AI program, is back online". CNBC. Diakses tanggal 30 Maret 2016.