Cara Kerja Neural Network dalam Proses Machine Learning – Dalam era digital yang terus berkembang pesat, kecerdasan buatan (AI) telah menjadi tulang punggung berbagai inovasi teknologi yang kita gunakan sehari-hari. Di balik kemajuan AI yang mengesankan, terdapat teknologi fundamental yang menjadi pondasinya—neural network atau jaringan saraf tiruan. Artikel ini akan mengupas tuntas tentang jaringan saraf tiruan dan prinsip kerjanya.
Apa Itu Neural Network?
Neural Network (Jaringan Saraf Tiruan) adalah salah satu teknologi inti yang mendorong revolusi kecerdasan buatan (AI) modern. Dengan kemampuannya untuk meniru cara otak manusia memproses informasi, neural network telah menjadi dasar bagi banyak aplikasi AI, seperti pengenalan gambar, pemrosesan bahasa alami, dan sistem rekomendasi.
Neural network adalah model komputasi yang terinspirasi dari struktur dan fungsi jaringan saraf biologis dalam otak manusia. Sistem ini terdiri dari unit-unit pemrosesan sederhana (neuron) yang saling terhubung dan bekerja secara paralel untuk memproses informasi dan mengenali pola kompleks.
Menurut penelitian yang dipublikasikan dalam jurnal Nature Machine Intelligence, “Neural network menyediakan kerangka komputasi yang kuat untuk pemodelan hubungan non-linear antara variabel input dan output, memungkinkan sistem untuk ‘belajar’ dari data tanpa pemrograman eksplisit” (Serre, 2019).
Neural network adalah model komputasi yang terinspirasi oleh struktur dan fungsi otak manusia. Model ini terdiri dari lapisan-lapisan neuron tiruan (artificial neurons ) yang saling terhubung. Setiap neuron menerima input, memprosesnya menggunakan fungsi matematika tertentu, dan menghasilkan output. Lapisan-lapisan ini bekerja secara bersamaan untuk mempelajari pola kompleks dalam data.
Bagaimana Neural Network Bekerja?
Neural network terdiri dari tiga komponen utama:
- Lapisan Input: Menerima data mentah dan meneruskannya ke dalam jaringan.
- Lapisan Tersembunyi: Memproses informasi menggunakan bobot yang dapat disesuaikan.
- Lapisan Output: Menghasilkan prediksi atau klasifikasi berdasarkan pemrosesan data.
Setiap neuron dalam jaringan menerima input, memprosesnya menggunakan fungsi aktivasi, dan meneruskan hasilnya ke neuron berikutnya. Kekuatan neural network terletak pada kemampuannya untuk menyesuaikan bobot koneksi antar neuron melalui proses pembelajaran.

Penjelasan gambar cara kerja neural network :
- Struktur Dasar (Arsitektur) Neural Network:
- Terdiri dari tiga lapisan :
- Input Layer: Lapisan ini menerima data mentah (X₁, X₂, X₃) yang akan diproses oleh jaringan.
- Hidden Layer: Lapisan tersembunyi yang melakukan pemrosesan internal (H₁, H₂, H₃, H₄).
- Output Layer: Lapisan yang menghasilkan prediksi atau hasil (Y₁, Y₂).
- Koneksi dengan bobot (weights) antar neuron
- Arah forward propagation:
- Input diterima oleh lapisan input
- Setiap neuron mengalikan input dengan bobot (weights)
- Hasil penjumlahan ditambah bias
- Nilai dilewatkan melalui fungsi aktivasi (ReLU, Sigmoid, Tanh)
- Output neuron menjadi input untuk lapisan berikutnya
- Arah backpropagation: Proses memperbarui bobot berdasarkan error:
- Menghitung gradien loss function
- Menyebarkan balik error melalui jaringan
- Memperbarui bobot menggunakan algoritma optimasi seperti gradient descent
- Terdiri dari tiga lapisan :
- Detail Neuron di kanan atas, memperlihatkan:
- Input (x₁, x₂, x₃) dengan bobot masing-masing
- Fungsi penjumlahan (Σ)
- Bias (b)
- Fungsi aktivasi f(x)
- Rumus output = f(Σᵢwᵢxᵢ + b)
- Proses Backpropagation dan Training di kanan bawah, menunjukkan siklus:
- Forward pass
- Perhitungan error (loss)
- Backpropagation
- Pembaruan bobot dengan gradient descent
- Fungsi Aktivasi Umum di kiri bawah, mencantumkan:
- ReLU: f(x) = max(0, x)
- Sigmoid: f(x) = 1/(1 + e^-x)
- Tanh: f(x) = (e^x – e^-x)/(e^x + e^-x)
- Koneksi antar Neuron:
- Setiap neuron pada lapisan input terhubung ke semua neuron pada lapisan hidden.
- Setiap neuron pada lapisan hidden terhubung ke semua neuron pada lapisan output.
- Setiap koneksi memiliki “bobot” (weights) seperti w₁₁, w₁₂ yang menentukan kekuatan pengaruh.
- Proses Kerja Neural Network:
- Langkah 1: Data masuk melalui input layer.
- Langkah 2: Setiap neuron pada hidden layer menghitung weighted sum dari seluruh input.
- Langkah 3: Hasil weighted sum kemudian diproses melalui activation function (seperti ReLU, Sigmoid, atau Tanh).
- Langkah 4: Output layer menghasilkan prediksi.
- Langkah 5: Error dihitung dengan membandingkan prediksi dengan hasil yang diharapkan.
- Langkah 6: Error dipropagasikan kembali ke jaringan (backpropagation).
- Langkah 7: Bobot diperbarui untuk mengurangi error pada prediksi berikutnya.
Neural network belajar dengan mengulang proses ini berkali-kali untuk menyesuaikan bobot dan menghasilkan prediksi yang semakin akurat. Proses penyesuaian bobot inilah yang disebut “pembelajaran” pada machine learning.
Fungsi Aktivasi: Menambahkan Non-linearitas
Fungsi aktivasi memiliki peran sangat penting dalam neural network untuk beberapa alasan:
- Menambahkan Non-linearitas: Tanpa fungsi aktivasi non-linear, neural network hanya akan menjadi serangkaian transformasi linear yang dapat disederhanakan menjadi satu lapisan. Non-linearitas memungkinkan jaringan untuk mempelajari pola kompleks dalam data.
- Membatasi Rentang Output: Beberapa fungsi aktivasi seperti sigmoid dan tanh membatasi output dalam rentang tertentu (0-1 atau -1 sampai 1), yang berguna untuk masalah klasifikasi atau ketika output perlu dinormalisasi.
- Membatasi Gradient: Fungsi aktivasi juga membantu mengontrol aliran gradien selama backpropagation.
Masing-masing fungsi aktivasi yang ditampilkan memiliki karakteristik spesifik:
- ReLU (Rectified Linear Unit): f(x) = max(0, x) Sangat populer karena komputasinya sederhana dan mengatasi masalah “vanishing gradient”. Namun, bisa mengalami masalah “dying ReLU” di mana neuron dapat “mati” (selalu menghasilkan 0) jika terlalu banyak menerima input negatif.
- Sigmoid: f(x) = 1/(1 + e^-x) Menghasilkan output antara 0 dan 1, cocok untuk masalah probabilitas atau klasifikasi biner. Namun, rentan terhadap masalah vanishing gradient pada nilai ekstrem.
- Tanh (Hyperbolic Tangent): f(x) = (e^x – e^-x)/(e^x + e^-x) Serupa dengan sigmoid tetapi rentangnya -1 sampai 1, lebih zero-centered yang membantu konvergensi selama pelatihan.
Backpropagation dan Training: Mekanisme Pembelajaran
Kotak “Backpropagation dan Training” menggambarkan siklus pelatihan neural network, yang mencakup:
- Forward Pass: Data input diproses melalui jaringan untuk menghasilkan prediksi. Setiap neuron menerapkan fungsi aktivasi pada penjumlahan berbobot dari inputnya.
- Calculate Loss: Prediksi jaringan dibandingkan dengan target yang diinginkan, dan error (perbedaan) dihitung menggunakan fungsi loss. Ini mengukur seberapa jauh model dari hasil yang benar.
- Backpropagate: Error disebar kembali melalui jaringan dari output ke input. Ini menggunakan aturan rantai kalkulus untuk menghitung kontribusi setiap bobot terhadap error akhir.
- Gradient Descent: Bobot diperbarui berdasarkan gradien error, dengan rumus w = w – α∇L, di mana α adalah learning rate dan ∇L adalah gradien loss. Ini mengarahkan jaringan ke arah minimisasi error.
Meskipun siklus pelatihan dan fungsi aktivasi bekerja bersama dalam neural network lengkap, keduanya memiliki peran berbeda:
- Fungsi aktivasi adalah komponen struktural dari jaringan, menentukan bagaimana informasi diproses dan ditransformasikan.
- Backpropagation dan gradient descent adalah algoritma pelatihan yang menyesuaikan bobot jaringan agar dapat belajar dari data.
Dalam analogi sederhana, jika neural network adalah sebuah mobil, maka neuron-neuron dengan fungsi aktivasinya adalah komponen fisik mobil (mesin, roda, dll), sementara backpropagation dan pelatihan adalah proses belajar mengemudi dan menyesuaikan kemudi, gas, dan rem untuk mencapai tujuan.
Cara keduanya berinteraksi: selama backpropagation, turunan fungsi aktivasi digunakan untuk menghitung gradien error, yang menunjukkan bagaimana perubahan pada setiap bobot akan mempengaruhi error keseluruhan. Fungsi aktivasi yang berbeda memiliki sifat turunan yang berbeda, yang dapat mempengaruhi kecepatan dan stabilitas proses pembelajaran.
Jadi, meskipun konseptual dan visual terpisah dalam diagram, keduanya bekerja bersama dalam sistem terintegrasi untuk membuat neural network dapat belajar dari data.
Kesimpulan
Neural network bekerja dalam machine learning melalui proses berikut:
- Arsitektur Jaringan: Terdiri dari input layer, hidden layer, dan output layer dengan neuron yang saling terhubung.
- Forward Propagation:
- Input data masuk ke jaringan
- Setiap neuron menghitung weighted sum dari input dan bobot
- Activation function (seperti ReLU, Sigmoid) mengubah hasil menjadi output neuron
- Proses berlanjut sampai ke output layer
- Perhitungan Error: Hasil output dibandingkan dengan nilai sebenarnya untuk menghitung selisih/error.
- Backpropagation:
- Error dipropagasikan mundur melalui jaringan
- Gradient descent digunakan untuk menentukan bagaimana bobot harus diubah
- Kontribusi setiap neuron terhadap error dihitung
- Pembaruan Bobot: Bobot diperbarui menggunakan metode optimasi seperti SGD, Adam, atau RMSprop.
- Iterasi: Proses 2-5 diulang dengan batch data baru sampai model konvergen atau mencapai kriteria berhenti tertentu.
- Regularisasi: Teknik seperti dropout atau L2 regularization digunakan untuk mencegah overfitting.
Proses ini memungkinkan neural network “belajar” dari data dengan terus menyesuaikan bobot internal untuk meminimalkan error prediksi.
Referensi :
Serre, T. (2019). Deep Learning: The Good, the Bad, and the Ugly. Annual Review of Vision Science, 5(1), 399–426. https://doi.org/10.1146/annurev-vision-091718-014951