Vu Trung Tin 19110476 tuan09 baitapnsert into boardnew(title, content, image_link, author, created) values (N\'Thực phẩm sạch tăng mạnh sau dịch Covid-19\', N\'Trong giai đoạn dịch Covid-19 bùng phát, ý PDF

Title Vu Trung Tin 19110476 tuan09 baitapnsert into boardnew(title, content, image_link, author, created) values (N\'Thực phẩm sạch tăng mạnh sau dịch Covid-19\', N\'Trong giai đoạn dịch Covid-19 bùng phát, ý
Author vainglori ous
Course English Studies
Institution Trường Đại học Sư phạm Kỹ thuật Thành phố Hồ Chí Minh
Pages 2
File Size 74.6 KB
File Type PDF
Total Downloads 466
Total Views 932

Summary

1ình bày cách huấn luyện các Polynomial regression models. Ta sử dụng thuật toán đã có sẵn của Linear regression, cụ thể thông qua 2 bước sau:_Bước 1: Thêm vào các features có bậc lớn hơn 1, nhưng ta sẽ đặt cho nó cái tên khác nhưng vẫn có bậc là 1._Bước 2: Chạy lại thuật toán Linear regression trên...


Description

1.Trình bày cách huấn luyện các Polynomial regression models. Ta sử dụng thuật toán đã có sẵn của Linear regression, cụ thể thông qua 2 bước sau: _Bước 1: Thêm vào các features có bậc lớn hơn 1, nhưng ta sẽ đặt cho nó cái tên khác nhưng vẫn có bậc là 1. _Bước 2: Chạy lại thuật toán Linear regression trên bộ dữ liệu vừa thêm các features mới vào. 2.Nêu đặc điểm learning curves của underfitting, overfitting và good-fitting models. _Underfitting: Đồ thị biểu diễn cho tập train và tập validation có MSE lớn và khoảng cách giữa hai đồ thị nhìn theo trục MSE cũng nhỏ. _Overfitting: Đồ thị biểu diễn cho tập train và tập validation có MSE lớn và khoảng cách giữa hai đồ thị nhìn theo trục MSE cũng lớn. _Good-fitting: Đồ thị biểu diễn cho tập train và tập validation có MSE nhỏ và khoảng cách giữa hai đồ thị nhìn theo trục MSE không quá lớn. 3.Trình bày ý tưởng của regularization. Tại sao regularization có thể giúp ngăn overfitting? Regularization là sử dụng một model phức tạp để ngăn tình trạng underfitting xảy ra, sau đó ta ràng buộc model phức tạp này làm cho tần số dao động của nó ít lại so với dữ liệu gốc để cố gắng đạt được good-fitting(đây là lý do tại sao dùng regularization giúp ngăn overfitting). 4.Nếu cần train 1 data set có một triệu features bạn sẽ chọn thuật toán training nào: Normal equation hay Gradient descent? Tại sao? Chọn thuật toán Gradient Desent cụ thể là Stochastic Gradient Desent vì nó chỉ thực hiện việc tính toán trên một sample để xác định dấu của đạo hàm và thuật toán này cũng nhanh hơn. 5.Nếu data set của bạn có các features với khoảng giá trị rất khác nhau thì những thuật toán training nào (trong 2 thuật toán: Normal equation hay Gradient descent) sẽ gặp vấn đề? Vấn đề đó là gì? Làm sao để xử lý?*

_Thuật toán gradient decent sẽ gặp bị overfitting. Model sẽ cố gắng đi qua tất cả các điểm dữ liệu, khiến kết quả train không được tốt. _Ta xử lý bằng kỹ thuật features scaling hoặc sử dụng thuật toán mini batch gradient để tiến hành training model.

6.Nếu chạy các thuật toán Gradient descent đủ lâu, chúng có đưa đến các hypothesis giống nhau không? Tại sao? Không vì mỗi lần thực hiện đạo hàm thuật toán sẽ cho ra một hypothesis cho đến khi gặp hypothesis tốt nhất(tại local minimal), trong quá trình thuật toán sẽ thay đổi làm sao để cố gắng tìm được hypothesis tại local minimal thì các hypothesis đã tìm được sẽ không lặp lại 7.Tại sao ta nên dùng Ridge regression, hoặc các regularization models khác, hơn là dùng Linear regression hoặc Polinomial regression? Vì nó giúp ta ngăn chặn vấn đề overfitting tốt hơn so với dùng linear regression hoặc polinomial regresion, vì ta tìm được các hệ số theta tương đối nhỏ thậm chí có thể là gần bằng 0 làm cho model trở về trạng thái good fitting hoặc thậm chí tốt hơn....


Similar Free PDFs