Lompat ke isi

Tay (bot): Perbedaan antara revisi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Konten dihapus Konten ditambahkan
k Robot: Perubahan kosmetika
 
(4 revisi perantara oleh 3 pengguna tidak ditampilkan)
Baris 12: Baris 12:
}}
}}


'''Tay''' adalah sebuah [[chatterbot]] [[intelijensi artifisial]] untuk platform [[Twitter]] yang dirilis oleh [[Microsoft Corporation]] pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan<ref name="bbc swear">{{cite web|last1=Wakefield|first1=Jane|title=Microsoft chatbot is taught to swear on Twitter|url=http://www.bbc.com/news/technology-35890188|publisher=[[BBC News]]|accessdate=25 Maret 2016}}</ref> dan di-non aktif-kan setelah sekitar 16 jam setelah diluncurkan.
'''Tay''' adalah sebuah [[chatterbot]] [[intelijensi artifisial]] untuk platform [[Twitter]] yang dirilis oleh [[Microsoft Corporation]] pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan<ref name="bbc swear">{{cite web|last1=Wakefield|first1=Jane|title=Microsoft chatbot is taught to swear on Twitter|url=http://www.bbc.com/news/technology-35890188|publisher=[[BBC News]]|accessdate=25 Maret 2016}}</ref> dan di-nonaktif-kan setelah sekitar 16 jam setelah diluncurkan.


== Pembuatan ==
== Pembuatan ==
Baris 22: Baris 22:


== Perilisan kedua ==
== Perilisan kedua ==
Ketika mengetes Tay, Microsoft secara tak sengara merilis kembali bot tersebut di Twitter pada 30 Maret 2016.<ref>{{cite web |last=Graham |first=Luke |title=Tay, Microsoft's AI program, is back online |url=http://www.cnbc.com/2016/03/30/tay-microsofts-ai-program-is-back-online.html |work=CNBC |date=30 Maret 2016 |accessdate=30 Maret 2016}}</ref>
Ketika mengetes Tay, Microsoft secara tak sengaja merilis kembali bot tersebut di Twitter pada 30 Maret 2016.<ref>{{cite web |last=Graham |first=Luke |title=Tay, Microsoft's AI program, is back online |url=http://www.cnbc.com/2016/03/30/tay-microsofts-ai-program-is-back-online.html |work=CNBC |date=30 Maret 2016 |accessdate=30 Maret 2016}}</ref>


== Referensi ==
== Referensi ==
Baris 32: Baris 32:


[[Kategori:Penyensoran diri]]
[[Kategori:Penyensoran diri]]
[[Kategori:Chatterbots]]
[[Kategori:Chatterbot]]
[[Kategori:Perangkat lunak Microsoft]]
[[Kategori:Perangkat lunak Microsoft]]
[[Kategori:Akun Twitter]]
[[Kategori:Akun Twitter]]
[[Kategori:Kontroversi 2016]]
[[Kategori:Kontroversi tahun 2016]]

Revisi terkini sejak 13 Januari 2022 02.02

Tay
TipeChatterbot Edit nilai pada Wikidata
Versi pertama23 Maret 2016 Edit nilai pada Wikidata
Genrechatterbot intelijensi artifisial
Bahasa
Daftar bahasa
Informasi pengembang
PengembangMicrosoft Research, Bing
Facebook: thatbasicbot X: TayandYou Modifica els identificadors a Wikidata
Bagian dari
Sunting di Wikidata Sunting di Wikidata • Sunting kotak info • L • B
Info templat
Bantuan penggunaan templat ini


Tay adalah sebuah chatterbot intelijensi artifisial untuk platform Twitter yang dirilis oleh Microsoft Corporation pada 23 Maret 2016. Tay menyebabkan kontroversi karena mengeluarkan kicauan-kicauan tidak menyenangkan[1] dan di-nonaktif-kan setelah sekitar 16 jam setelah diluncurkan.

Pembuatan

[sunting | sunting sumber]

Bot tersebut dibuat oleh divisi Technology and Research and Bing dari Microsoft.[2] Meskipun Microsoft awalnya mengeluarkan beberapa penjelasan mengenai bot tersebut, sumber-sumber mengatakan bahwa bot tersebut memiliki kesamaan atau berdasarkan pada Xiaoice, sebuah proyek yang mirip dengan Microsoft di China.[3] Ars Technica menyebut Xiaoice "memiliki lebih dari 40 juta anggota konservasi yang muncul tanpa insiden besar" "sejak akhir 2014".[4] Tay dirancang dengan mimik susunan bahasa dari seorang gadis Amerika berumur 19 tahun, dan digunakan untuk berinteraksi dengan pengguna-pengguna manusia di Twitter.[5]

Perilisan awal

[sunting | sunting sumber]

Tay dirilis di Twitter pada 23 Maret 2016 dengan nama TayTweets dan menangani @TayandYou.[6] Bot tersebut dipersembahkan sebagai "The AI with zero chill".[7] Tay mulai memberi jawaban kepada pengguna-pengguna Twitter lainnya, dan juga mengomentari foto-foto yang terdapat di Twitter dalam bentuk meme-meme Internet.[8]

Perilisan kedua

[sunting | sunting sumber]

Ketika mengetes Tay, Microsoft secara tak sengaja merilis kembali bot tersebut di Twitter pada 30 Maret 2016.[9]

Referensi

[sunting | sunting sumber]
  1. ^ Wakefield, Jane. "Microsoft chatbot is taught to swear on Twitter". BBC News. Diakses tanggal 25 Maret 2016. 
  2. ^ Hope Reese (24 Maret 2016). "Why Microsoft's 'Tay' AI bot went wrong". Tech Republic. 
  3. ^ Caitlin Dewey (23 Maret 2016). "Meet Tay, the creepy-realistic robot who talks just like a teen". The Washington Post. 
  4. ^ Kesalahan pengutipan: Tag <ref> tidak sah; tidak ditemukan teks untuk ref bernama ArsT
  5. ^ Rob Price (24 Maret 2016). "Microsoft is deleting its AI chatbot's incredibly racist tweets". Business Insider. 
  6. ^ Andrew Griffin (23 Maret 2016). "Tay tweets: Microsoft creates bizarre Twitter robot for people to chat to". The Independent. 
  7. ^ Horton, Helena. "Microsoft deletes 'teen girl' AI after it became a Hitler-loving sex robot within 24 hours". The Daily Telegraph. Diakses tanggal 25 March 2016. 
  8. ^ "Microsoft's AI teen turns into Hitler-loving Trump fan, thanks to the internet". Stuff. Diakses tanggal 26 Maret 2016. 
  9. ^ Graham, Luke (30 Maret 2016). "Tay, Microsoft's AI program, is back online". CNBC. Diakses tanggal 30 Maret 2016. 

Pranala luar

[sunting | sunting sumber]