- Đầu tiên, một bức ảnh sẽ được đưa vào model dự đoán của chúng ta. Model ở đây thực chất là tập hợp các Weight và bias. Khi model này nhận input là bức ảnh, nó sẽ tính toán dựa theo Score function và đưa ra được kết quả dự đoán. Kết quả dự đoán này sẽ được so sánh với kết quả thực để tính ra được độ lỗi theo Loss Function. Toàn bộ quá trình này là quá trình forward.
- Tiếp đến, quá trình backpropagation bắt đầu. Khởi động quá trình tính đạo hàm riêng “đau não” cho toàn bộ W và b trong model. Sau khi tính được đạo hàm riêng, gradient descent sẽ được áp vàp để cập nhật các W và b. Và vòng lập thứ nhất kết thúc.
- Vòng lặp thứ hai bắt đầu. Bức ảnh lại được đưa vào, model lại tiếp tục tính toán theo Score function. Nhưng vì ở vòng lặp thứ nhất, các W và b đã được cập nhập theo gradient descent, do đó ở lần lặp này, Loss function được tính ra sẽ thấp hơn Loss function ở lần lặp trước.
Điều này đánh dấu cho một sự kiện quan trọng của học máy: qua quá trình lặp, kết quả dự đoán đã chính xác hơn.
- Tiếp đến sẽ lại quá trình backpropagation và cập nhật model.
Quá trình này lặp cho đến khi nào loss đủ nhỏ mà người dùng ưng ý thì sẽ dừng hoặc sẽ dừng sau 1 số hữu hạn vòng lặp được lập trình
- Các bước trên tất cả là quá trình lặp Forward và Backpropagation được gọi là quá trình máy học.

(Bài viết có tham khảo nguồn từ: cuonglv1109.blogspot.com)




