Tay (bot): Perbedaan antara revisi
Baris 15: | Baris 15: | ||
==Pembuatan== |
==Pembuatan== |
||
Bot tersebut dibuat oleh divisi [[Microsoft Research|Technology and Research]] and [[Bing]] dari Microsoft.<ref name="tr">{{cite news|url=http://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/|publisher=Tech Republic|title=Why Microsoft's 'Tay' AI bot went wrong|author= Hope Reese |date=24 Maret 2016}}</ref> Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada [[Xiaoice]], sebuah proyek yang mirip dengan Microsoft di China.<ref>{{cite news|title=Meet Tay, the creepy-realistic robot who talks just like a teen|author=Caitlin Dewey|date=23 Maret 2016|work=[[The Washington Post]]|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/23/meet-tay-the-creepy-realistic-robot-who-talks-just-like-a-teen/}}</ref> ''[[Ars Technica]]'' menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".<ref name=ArsT/> Tay dirancang dengan mimik |
Bot tersebut dibuat oleh divisi [[Microsoft Research|Technology and Research]] and [[Bing]] dari Microsoft.<ref name="tr">{{cite news|url=http://www.techrepublic.com/article/why-microsofts-tay-ai-bot-went-wrong/|publisher=Tech Republic|title=Why Microsoft's 'Tay' AI bot went wrong|author= Hope Reese |date=24 Maret 2016}}</ref> Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada [[Xiaoice]], sebuah proyek yang mirip dengan Microsoft di China.<ref>{{cite news|title=Meet Tay, the creepy-realistic robot who talks just like a teen|author=Caitlin Dewey|date=23 Maret 2016|work=[[The Washington Post]]|url=https://www.washingtonpost.com/news/the-intersect/wp/2016/03/23/meet-tay-the-creepy-realistic-robot-who-talks-just-like-a-teen/}}</ref> ''[[Ars Technica]]'' menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".<ref name=ArsT/> Tay dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun, dan digunakan untuk berinteraksi dengan pengguna-pengguna manusia di Twitter.<ref name="bi">{{cite news|url=http://www.businessinsider.com/microsoft-deletes-racist-genocidal-tweets-from-ai-chatbot-tay-2016-3|publisher=[[Business Insider]]|title=Microsoft is deleting its AI chatbot's incredibly racist tweets|date=24 Maret 2016|author=Rob Price}}</ref> |
||
==Perilisan awal== |
==Perilisan awal== |
Revisi per 17 Juni 2016 11.47
Tay | |||||
---|---|---|---|---|---|
Tipe | Chatterbot | ||||
Versi pertama | 23 Maret 2016 | ||||
Genre | chatterbot intelijensi artifisial | ||||
Bahasa | Daftar bahasa | ||||
| |||||
Bagian dari
| |||||
Tay adalah sebuah chatterbot intelijensi artifisial untuk platform Twitter yang dirilis oleh Microsoft Corporation pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan[1] dan di-non aktif-kan setelah sekitar 16 jam setelah diluncurkan.
Pembuatan
Bot tersebut dibuat oleh divisi Technology and Research and Bing dari Microsoft.[2] Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada Xiaoice, sebuah proyek yang mirip dengan Microsoft di China.[3] Ars Technica menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".[4] Tay dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun, dan digunakan untuk berinteraksi dengan pengguna-pengguna manusia di Twitter.[5]
Perilisan awal
Tay dirilis di Twitter pada 23 Maret 2016 dengan nama TayTweets dan menangani @TayandYou.[6] Bot tersebut dipersembahkan sebagai "The AI with zero chill".[7] Tay mulai memberi jawaban kepada pengguna-pengguna Twitter lainnya, dan juga mengomentari foto-foto yang terdapat di Twitter dalam bentuk meme-meme Internet.[8]
Perilisan kedua
Ketika mengetes Tay, Microsoft secara tak sengara merilis kembali bot tersebut di Twitter pada 30 Maret 2016.[9]
Referensi
- ^ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Diakses tanggal 25 Maret 2016.
- ^ Hope Reese (24 Maret 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
- ^ Caitlin Dewey (23 Maret 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
- ^ Kesalahan pengutipan: Tag
<ref>
tidak sah; tidak ditemukan teks untuk ref bernamaArsT
- ^ Rob Price (24 Maret 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider.
- ^ Andrew Griffin (23 Maret 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent.
- ^ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Daily Telegraph. Diakses tanggal 25 March 2016.
- ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Diakses tanggal 26 Maret 2016.
- ^ Graham, Luke (30 Maret 2016). "Tay, Microsoft's AI program, is back online". CNBC. Diakses tanggal 30 Maret 2016.