Tay (bot): Perbedaan antara revisi
k Robot: Perubahan kosmetika |
k Menghapus Kategori:Kontroversi 2016; Menambah Kategori:Kontroversi tahun 2016 menggunakan HotCat |
||
(4 revisi perantara oleh 3 pengguna tidak ditampilkan) | |||
Baris 12: | Baris 12: | ||
}} |
}} |
||
'''Tay''' adalah sebuah [[chatterbot]] [[intelijensi artifisial]] untuk platform [[Twitter]] yang dirilis oleh [[Microsoft Corporation]] pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan<ref name="bbc swear">{{cite web|last1=Wakefield|first1=Jane|title=Microsoft chatbot is taught to swear on Twitter|url=http://www.bbc.com/news/technology-35890188|publisher=[[BBC News]]|accessdate=25 Maret 2016}}</ref> dan di- |
'''Tay''' adalah sebuah [[chatterbot]] [[intelijensi artifisial]] untuk platform [[Twitter]] yang dirilis oleh [[Microsoft Corporation]] pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan<ref name="bbc swear">{{cite web|last1=Wakefield|first1=Jane|title=Microsoft chatbot is taught to swear on Twitter|url=http://www.bbc.com/news/technology-35890188|publisher=[[BBC News]]|accessdate=25 Maret 2016}}</ref> dan di-nonaktif-kan setelah sekitar 16 jam setelah diluncurkan. |
||
== Pembuatan == |
== Pembuatan == |
||
Baris 22: | Baris 22: | ||
== Perilisan kedua == |
== Perilisan kedua == |
||
Ketika mengetes Tay, Microsoft secara tak |
Ketika mengetes Tay, Microsoft secara tak sengaja merilis kembali bot tersebut di Twitter pada 30 Maret 2016.<ref>{{cite web |last=Graham |first=Luke |title=Tay, Microsoft's AI program, is back online |url=http://www.cnbc.com/2016/03/30/tay-microsofts-ai-program-is-back-online.html |work=CNBC |date=30 Maret 2016 |accessdate=30 Maret 2016}}</ref> |
||
== Referensi == |
== Referensi == |
||
Baris 32: | Baris 32: | ||
[[Kategori:Penyensoran diri]] |
[[Kategori:Penyensoran diri]] |
||
[[Kategori: |
[[Kategori:Chatterbot]] |
||
[[Kategori:Perangkat lunak Microsoft]] |
[[Kategori:Perangkat lunak Microsoft]] |
||
[[Kategori:Akun Twitter]] |
[[Kategori:Akun Twitter]] |
||
[[Kategori:Kontroversi 2016]] |
[[Kategori:Kontroversi tahun 2016]] |
Revisi terkini sejak 13 Januari 2022 02.02
Tay | |||||
---|---|---|---|---|---|
Tipe | Chatterbot | ||||
Versi pertama | 23 Maret 2016 | ||||
Genre | chatterbot intelijensi artifisial | ||||
Bahasa | Daftar bahasa | ||||
| |||||
Bagian dari
| |||||
Tay adalah sebuah chatterbot intelijensi artifisial untuk platform Twitter yang dirilis oleh Microsoft Corporation pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan[1] dan di-nonaktif-kan setelah sekitar 16 jam setelah diluncurkan.
Pembuatan
[sunting | sunting sumber]Bot tersebut dibuat oleh divisi Technology and Research and Bing dari Microsoft.[2] Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada Xiaoice, sebuah proyek yang mirip dengan Microsoft di China.[3] Ars Technica menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".[4] Tay dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun, dan digunakan untuk berinteraksi dengan pengguna-pengguna manusia di Twitter.[5]
Perilisan awal
[sunting | sunting sumber]Tay dirilis di Twitter pada 23 Maret 2016 dengan nama TayTweets dan menangani @TayandYou.[6] Bot tersebut dipersembahkan sebagai "The AI with zero chill".[7] Tay mulai memberi jawaban kepada pengguna-pengguna Twitter lainnya, dan juga mengomentari foto-foto yang terdapat di Twitter dalam bentuk meme-meme Internet.[8]
Perilisan kedua
[sunting | sunting sumber]Ketika mengetes Tay, Microsoft secara tak sengaja merilis kembali bot tersebut di Twitter pada 30 Maret 2016.[9]
Referensi
[sunting | sunting sumber]- ^ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Diakses tanggal 25 Maret 2016.
- ^ Hope Reese (24 Maret 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic.
- ^ Caitlin Dewey (23 Maret 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post.
- ^ Kesalahan pengutipan: Tag
<ref>
tidak sah; tidak ditemukan teks untuk ref bernamaArsT
- ^ Rob Price (24 Maret 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider.
- ^ Andrew Griffin (23 Maret 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent.
- ^ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Daily Telegraph. Diakses tanggal 25 March 2016.
- ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Diakses tanggal 26 Maret 2016.
- ^ Graham, Luke (30 Maret 2016). "Tay, Microsoft's AI program, is back online". CNBC. Diakses tanggal 30 Maret 2016.