Penurunan gradien stokastik: Perbedaan antara revisi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Konten dihapus Konten ditambahkan
k Badak Jawa memindahkan halaman Stochastic gradient descent ke Penurunan gradien stokastik
Tag: Suntingan perangkat seluler Suntingan peramban seluler Suntingan seluler lanjutan
Tidak ada ringkasan suntingan
Tag: Suntingan perangkat seluler Suntingan peramban seluler Suntingan seluler lanjutan
 
Baris 1: Baris 1:
{{short description|Algoritma optimasi}}
{{short description|Algoritma optimasi}}
{{Pemelajaran mesin}}
{{Pemelajaran mesin}}
'''''Stochastic gradient descent''''' (biasanya disingkat '''SGD''') adalah sebuah metode iteratif yang digunakan untuk mengoptimasi [[fungsi objektif]] dengan sifat ''[[smoothness]]'' yang sesuai (misal [[Fungsi terdiferensialkan|diferensiabel]] atau [[Metode subgradien|subdiferensiabel]]). SGD dapat dianggap sebagai [[aproksimasi stokastik]] dari optimasi [[penurunan gradien]] karena SGD menggantikan gradien aktual yang dihitung dari keseluruhan [[himpunan data]] dengan gradien perkiraan yang dihitung dari subset data yang dipilih secara acak. Terutama dalam masalah optimasi [[dimensi|berdimensi tinggi]], SGD dapat mengurangi [[kompleksitas komputasional]] yang sangat tinggi dan mencapai iterasi yang lebih cepat sebagai gantinya untuk tingkat konvergensi yang lebih rendah.<ref>{{cite book |first1=Léon |last1=Bottou |author-link=Léon Bottou |first2=Olivier |last2=Bousquet |chapter=The Tradeoffs of Large Scale Learning |title=Optimization for Machine Learning |editor-first=Suvrit |editor-last=Sra |editor2-first=Sebastian |editor2-last=Nowozin |editor3-first=Stephen J. |editor3-last=Wright |location=Cambridge |publisher=MIT Press |year=2012 |isbn=978-0-262-01646-9 |pages=351–368 |chapter-url=https://books.google.com/books?id=JPQx7s2L1A8C&pg=PA351 }}</ref>
'''Penurunan gradien stokastik''' ({{lang-en|Stochastic gradient descent}} biasa disingkat '''SGD''') adalah sebuah metode iteratif yang digunakan untuk mengoptimasi [[fungsi objektif]] dengan sifat ''[[smoothness]]'' yang sesuai (misal [[Fungsi terdiferensialkan|diferensiabel]] atau [[Metode subgradien|subdiferensiabel]]). SGD dapat dianggap sebagai [[aproksimasi stokastik]] dari optimasi [[penurunan gradien]] karena SGD menggantikan gradien aktual yang dihitung dari keseluruhan [[himpunan data]] dengan gradien perkiraan yang dihitung dari subset data yang dipilih secara acak. Terutama dalam masalah optimasi [[dimensi|berdimensi tinggi]], SGD dapat mengurangi [[kompleksitas komputasional]] yang sangat tinggi dan mencapai iterasi yang lebih cepat sebagai gantinya untuk tingkat konvergensi yang lebih rendah.<ref>{{cite book |first1=Léon |last1=Bottou |author-link=Léon Bottou |first2=Olivier |last2=Bousquet |chapter=The Tradeoffs of Large Scale Learning |title=Optimization for Machine Learning |editor-first=Suvrit |editor-last=Sra |editor2-first=Sebastian |editor2-last=Nowozin |editor3-first=Stephen J. |editor3-last=Wright |location=Cambridge |publisher=MIT Press |year=2012 |isbn=978-0-262-01646-9 |pages=351–368 |chapter-url=https://books.google.com/books?id=JPQx7s2L1A8C&pg=PA351 }}</ref>


==<span lang="ru" dir="ltr">Referensi</span>==
==<span lang="ru" dir="ltr">Referensi</span>==

Revisi terkini sejak 16 Desember 2023 06.45

Penurunan gradien stokastik (bahasa Inggris: Stochastic gradient descent biasa disingkat SGD) adalah sebuah metode iteratif yang digunakan untuk mengoptimasi fungsi objektif dengan sifat smoothness yang sesuai (misal diferensiabel atau subdiferensiabel). SGD dapat dianggap sebagai aproksimasi stokastik dari optimasi penurunan gradien karena SGD menggantikan gradien aktual yang dihitung dari keseluruhan himpunan data dengan gradien perkiraan yang dihitung dari subset data yang dipilih secara acak. Terutama dalam masalah optimasi berdimensi tinggi, SGD dapat mengurangi kompleksitas komputasional yang sangat tinggi dan mencapai iterasi yang lebih cepat sebagai gantinya untuk tingkat konvergensi yang lebih rendah.[1]

Referensi[sunting | sunting sumber]

  1. ^ Bottou, Léon; Bousquet, Olivier (2012). "The Tradeoffs of Large Scale Learning". Dalam Sra, Suvrit; Nowozin, Sebastian; Wright, Stephen J. Optimization for Machine Learning. Cambridge: MIT Press. hlm. 351–368. ISBN 978-0-262-01646-9. 

Bacaan lanjutan[sunting | sunting sumber]

Pranala luar[sunting | sunting sumber]