Lompat ke isi

Pengguna:KhalilullahAlFaath/Jaringan saraf konvolusional: Perbedaan antara revisi

Dari Wikipedia bahasa Indonesia, ensiklopedia bebas
Konten dihapus Konten ditambahkan
Penambahan Konten
Tag: VisualEditor Suntingan perangkat seluler Suntingan peramban seluler
Tambah konten arsitektur
Tag: VisualEditor Suntingan perangkat seluler Suntingan peramban seluler
Baris 31: Baris 31:


{{TOC limit|3}}
{{TOC limit|3}}

== Architecture ==
[[File:Comparison image neural networks.svg|thumb|480px|Perbandingan lapisan konvolusi (convolution), pengumpul (pooling), rapat (dense) dari [[LeNet]] dan [[AlexNet]]<br>(Ukuran citra masukan AlexNet seharusnya 227×227×3, bukan 224×224×3, agar perhitungannya benar. Makalah aslinya menyebutkan angka yang berbeda, tetapi Andrej Karpathy, kepala visi komputer Tesla, mengatakan bahwa seharusnya 227×227×3 (dia mengatakan bahwa Alex tidak menjelaskan mengapa dia menggunakan 224×224×3). Konvolusi berikutnya seharusnya 11×11 dengan langkah (stride) 4: 55×55×96 (bukan 54×54×96). Sehingga jika dihitung, misalnya, sebagai: [(lebar input 227 - lebar kernel 11) / stride 4] + 1 = [(227 - 11) / 4] + 1 = 55. Karena luaran kernel memiliki panjang yang sama dengan lebar, maka luasnya adalah 55×55).]]
{{Main|Lapisan (pemelajaran dalam)}}
CNN terdiri atas satu lapisan masukan (''input layer''), [[jaringan saraf tiruan#organisasi|lapisan-lapisan tersembunyi]], dan satu lapisan luaran (''output layer''). Lapisan-lapisan tersembunyi CNN di dalamnya termasuk satu atau lebih lapisan yang melakukan konvolusi. Lapisan ini biasanya menghitung [[Produk dot|perkalian titik]] kernel konvolusi dengan matriks masukan lapisan. Lapisan ini melakukan perkalian titik ini umumnya dengan [[produk titik frobenius|produk titik Frobenius]] dan menggunakan [[rectifier (jaringan saraf)|ReLU]] sebagai fungsi aktivasinya. Proses konvolusi dengan pergeseran kernel konvolusi pada matriks masukan pada layer tersebut menghasilkan peta fitur (''feature maps'') dan digunakan sebagai masukan untuk lapisan selanjutnya. Lapisan konvolusi ini dilanjutkan oleh lapisan-lapisan lainnya, seperti lapisan pengumpul (''pooling layer''), lapisan terhubung sepenuhnya ''(fully-connected layer''), dan lapisan normalisasi (''normalization layer''). Di sini perlu diperhatikan kemiripan antara CNN dengan [[matched filter]].<ref>Convolutional Neural Networks Demystified: A Matched Filtering Perspective Based Tutorial https://arxiv.org/abs/2108.11663v3</ref>

Revisi per 28 Februari 2024 06.11

Jaringan saraf konvolusional (bahasa Inggris: Convolutional Neural Network) yang biasa disingkat CNN adalah jaringan saraf umpan maju teregularisasi yang dapat mengekstraksi fitur sendiri dengan menggunakan optimasi filter (atau kernel). Pada versi awalnya, jaringan saraf selama proses propagasi balik seringkali mengalami masalah hilangnya atau meledaknya gradien. Untuk mencegah hal tersebut terjadi, digunakanlah bobot teregulasi dengan koneksi yang lebih sedikit.[1][2] Misalkan, untuk setiap neuron pada lapisan yang terhubung sepenuhnya (fully-connected layers), 10.000 bobot diperlukan untuk memproses sebuah citra berukuran 100 x 100 piksel. Namun, dengan menerapkan kernel konvolusi (atau korelasi silang) bertingkat,[3][4] hanya dibutuhkan 25 neuron untuk memproses petak berukuran 5x5.[5][6] Fitur tingkat tinggi diekstrak dari jendela konteks yang lebih luas dibandingkan fitur tingkat rendah.

CNN diaplikasikan pada:

CNN juga dikenal sebagai Shift Invariant atau Space Invariant Artificial Neural Networks (SIANN), berdasarkan arsitektur bobot bersama (shared-weights) dari kernel konvolusi (filter) yang bergeser sepanjang fitur masukan dan menghasilkan respons yang equivariasi-translasi, yang dikenal sebagai peta fitur (feature maps). Sebaliknya, kebanyakan CNN tidak invarian translasi, karena adanya operasi downsampling yang diaplikasikan pada masukan.

Jaringan saraf umpan maju atau feed-forward neural networks umumnya merupakan jaringan yang terhubung sepenuhnya. Maksudnya, setiap neuron di lapisan tertentu terhubung dengan semua neuron yang ada di lapisan setelahnya. “Keterhubungan penuh” ini menyebabkan jaringan menjadi rentan terhadap overfitting. Cara-cara regularisasi atau pencegahan overfitting yang umum digunakan, adalah pengurangan parameter ketika pelatihan, seperti weight decay (peluruhan bobot) atau pemangkasan konektivitas, seperti penggunaan skip connection, dropout, dll. Selain itu, penggunaan dataset yang kokoh (robust) dapat meningkatkan probabilitas kemampuan CNN untuk mempelajari prinsip-prinsip yang diperumum yang dapat mewakilkan karakter dataset, bukan bias-bias dari dataset yang tidak mewakilkan keseluruhan populasi.[12]

Jaringan konvolusional terinspirasi oleh proses biologis[13][14][15][16], terkait pola koneksi antar-neuron yang menyerupai organisasi korteks visual hewan. Setiap neuron kortikal tersebut merespons rangsangan hanya pada bidang visual terbatas yang biasa disebut sebagai bidang reseptif. Bidang reseptif pada neuron yang berbeda saling sebagiannya tumpang tindih sehingga dapat menutupi seluruh bidang visual.

CNN menggunakan pra-pemrosesan (pre-processing) yang relatif lebih sedikit, dibandingkan dengan algoritma klasifikasi citra lain. Artinya, jaringan pada CNN dapat mengoptimasi filter atau kernel dengan pemelajaran otomatis, yang mana filter pada algoritma tradisional harus direkayasa manual. Kelebihan besar CNN dalam pemodelannya oleh pengguna adalah CNN tidak memerlukan pengetahuan awal dan ekstraksi fitur manual.

Architecture

Perbandingan lapisan konvolusi (convolution), pengumpul (pooling), rapat (dense) dari LeNet dan AlexNet
(Ukuran citra masukan AlexNet seharusnya 227×227×3, bukan 224×224×3, agar perhitungannya benar. Makalah aslinya menyebutkan angka yang berbeda, tetapi Andrej Karpathy, kepala visi komputer Tesla, mengatakan bahwa seharusnya 227×227×3 (dia mengatakan bahwa Alex tidak menjelaskan mengapa dia menggunakan 224×224×3). Konvolusi berikutnya seharusnya 11×11 dengan langkah (stride) 4: 55×55×96 (bukan 54×54×96). Sehingga jika dihitung, misalnya, sebagai: [(lebar input 227 - lebar kernel 11) / stride 4] + 1 = [(227 - 11) / 4] + 1 = 55. Karena luaran kernel memiliki panjang yang sama dengan lebar, maka luasnya adalah 55×55).

CNN terdiri atas satu lapisan masukan (input layer), lapisan-lapisan tersembunyi, dan satu lapisan luaran (output layer). Lapisan-lapisan tersembunyi CNN di dalamnya termasuk satu atau lebih lapisan yang melakukan konvolusi. Lapisan ini biasanya menghitung perkalian titik kernel konvolusi dengan matriks masukan lapisan. Lapisan ini melakukan perkalian titik ini umumnya dengan produk titik Frobenius dan menggunakan ReLU sebagai fungsi aktivasinya. Proses konvolusi dengan pergeseran kernel konvolusi pada matriks masukan pada layer tersebut menghasilkan peta fitur (feature maps) dan digunakan sebagai masukan untuk lapisan selanjutnya. Lapisan konvolusi ini dilanjutkan oleh lapisan-lapisan lainnya, seperti lapisan pengumpul (pooling layer), lapisan terhubung sepenuhnya (fully-connected layer), dan lapisan normalisasi (normalization layer). Di sini perlu diperhatikan kemiripan antara CNN dengan matched filter.[17]

  1. ^ Venkatesan, Ragav; Li, Baoxin (2017-10-23). Convolutional Neural Networks in Visual Computing: A Concise Guide (dalam bahasa Inggris). CRC Press. ISBN 978-1-351-65032-8. Diarsipkan dari versi asli tanggal 2023-10-16. Diakses tanggal 2020-12-13. 
  2. ^ Balas, Valentina E.; Kumar, Raghvendra; Srivastava, Rajshree (2019-11-19). Recent Trends and Advances in Artificial Intelligence and Internet of Things (dalam bahasa Inggris). Springer Nature. ISBN 978-3-030-32644-9. Diarsipkan dari versi asli tanggal 2023-10-16. Diakses tanggal 2020-12-13. 
  3. ^ Zhang, Yingjie; Soon, Hong Geok; Ye, Dongsen; Fuh, Jerry Ying Hsi; Zhu, Kunpeng (September 2020). "Powder-Bed Fusion Process Monitoring by Machine Vision With Hybrid Convolutional Neural Networks". IEEE Transactions on Industrial Informatics. 16 (9): 5769–5779. doi:10.1109/TII.2019.2956078. ISSN 1941-0050. Diarsipkan dari versi asli tanggal 2023-07-31. Diakses tanggal 2023-08-12. 
  4. ^ Chervyakov, N.I.; Lyakhov, P.A.; Deryabin, M.A.; Nagornov, N.N.; Valueva, M.V.; Valuev, G.V. (September 2020). "Residue Number System-Based Solution for Reducing the Hardware Cost of a Convolutional Neural Network". Neurocomputing (dalam bahasa Inggris). 407: 439–453. doi:10.1016/j.neucom.2020.04.018. Diarsipkan dari versi asli tanggal 2023-06-29. Diakses tanggal 2023-08-12. Convolutional neural networks represent deep learning architectures that are currently used in a wide range of applications, including computer vision, speech recognition, malware dedection, time series analysis in finance, and many others. 
  5. ^ Habibi, Aghdam, Hamed (2017-05-30). Guide to convolutional neural networks : a practical application to traffic-sign detection and classification. Heravi, Elnaz Jahani. Cham, Switzerland. ISBN 9783319575490. OCLC 987790957. 
  6. ^ Atlas, Homma, and Marks. "An Artificial Neural Network for Spatio-Temporal Bipolar Patterns: Application to Phoneme Classification" (PDF). Neural Information Processing Systems (NIPS 1987). 1. Diarsipkan dari versi asli (PDF) tanggal 2021-04-14. 
  7. ^ Valueva, M.V.; Nagornov, N.N.; Lyakhov, P.A.; Valuev, G.V.; Chervyakov, N.I. (2020). "Application of the residue number system to reduce hardware costs of the convolutional neural network implementation". Mathematics and Computers in Simulation. Elsevier BV. 177: 232–243. doi:10.1016/j.matcom.2020.04.031. ISSN 0378-4754. Convolutional neural networks are a promising tool for solving the problem of pattern recognition. 
  8. ^ van den Oord, Aaron; Dieleman, Sander; Schrauwen, Benjamin (2013-01-01). Burges, C. J. C.; Bottou, L.; Welling, M.; Ghahramani, Z.; Weinberger, K. Q., ed. Deep content-based music recommendation (PDF). Curran Associates, Inc. hlm. 2643–2651. Diarsipkan dari versi asli (PDF) tanggal 2022-03-07. Diakses tanggal 2022-03-31. 
  9. ^ Collobert, Ronan; Weston, Jason (2008-01-01). "A unified architecture for natural language processing". Proceedings of the 25th international conference on Machine learning - ICML '08. New York, NY, USA: ACM. hlm. 160–167. doi:10.1145/1390156.1390177. ISBN 978-1-60558-205-4. 
  10. ^ Avilov, Oleksii; Rimbert, Sebastien; Popov, Anton; Bougrain, Laurent (July 2020). "Deep Learning Techniques to Improve Intraoperative Awareness Detection from Electroencephalographic Signals" (PDF). 2020 42nd Annual International Conference of the IEEE Engineering in Medicine & Biology Society (EMBC) (PDF). 2020. Montreal, QC, Canada: IEEE. hlm. 142–145. doi:10.1109/EMBC44109.2020.9176228. ISBN 978-1-7281-1990-8. PMID 33017950 Periksa nilai |pmid= (bantuan). Diarsipkan dari versi asli tanggal 2022-05-19. Diakses tanggal 2023-07-21. 
  11. ^ Tsantekidis, Avraam; Passalis, Nikolaos; Tefas, Anastasios; Kanniainen, Juho; Gabbouj, Moncef; Iosifidis, Alexandros (July 2017). "Forecasting Stock Prices from the Limit Order Book Using Convolutional Neural Networks". 2017 IEEE 19th Conference on Business Informatics (CBI). Thessaloniki, Greece: IEEE. hlm. 7–12. doi:10.1109/CBI.2017.23. ISBN 978-1-5386-3035-8. 
  12. ^ Kurtzman, Thomas (August 20, 2019). "Hidden bias in the DUD-E dataset leads to misleading performance of deep learning in structure-based virtual screening". PLOS ONE. 14 (8): e0220113. Bibcode:2019PLoSO..1420113C. doi:10.1371/journal.pone.0220113alt=Dapat diakses gratis. PMC 6701836alt=Dapat diakses gratis. PMID 31430292. 
  13. ^ Kesalahan pengutipan: Tag <ref> tidak sah; tidak ditemukan teks untuk ref bernama fukuneoscholar
  14. ^ Kesalahan pengutipan: Tag <ref> tidak sah; tidak ditemukan teks untuk ref bernama hubelwiesel1968
  15. ^ Kesalahan pengutipan: Tag <ref> tidak sah; tidak ditemukan teks untuk ref bernama intro
  16. ^ Matusugu, Masakazu; Katsuhiko Mori; Yusuke Mitari; Yuji Kaneda (2003). "Subject independent facial expression recognition with robust face detection using a convolutional neural network" (PDF). Neural Networks. 16 (5): 555–559. doi:10.1016/S0893-6080(03)00115-1. PMID 12850007. Diarsipkan dari versi asli (PDF) tanggal 13 December 2013. Diakses tanggal 17 November 2013. 
  17. ^ Convolutional Neural Networks Demystified: A Matched Filtering Perspective Based Tutorial https://arxiv.org/abs/2108.11663v3