📝 【Machine Learning】練習測驗:使用梯度下降訓練模型
請先填寫您的資料
進度:1 / 10
總分:100 分
題目 1:題目 9 / 10
單選題 - 10分梯度下降法是一種演算法,用來尋找參數 w 和 b 的值,使成本函數 J 最小化。
當 $\frac{\partial J(w,b)}{\partial w}$ 是負數(小於零)時, 經過一次更新步驟後 $w$ 會發生什麼情況?
無法判斷 $w$ 增加或減少
$w$ 減少
$w$ 增加
$w$ 保持不變
題目 2:題目 1 / 10
單選題 - 10分在線性迴歸中,梯度下降演算法的主要目標是什麼?
計算模型函數 $f_{w,b}(x)$ 的導數
最大化成本函數 $J(w,b)$,以找到與數據差異最大的模型。
最小化成本函數 $J(w,b)$,以找到最能擬合數據的模型參數 $w$ 和 $b$。
將所有參數 $w$ 和 $b$ 初始化為零。
題目 3:題目 2 / 10
單選題 - 10分在梯度下降的更新規則 $w = w - \alpha \frac{\partial J(w,b)}{\partial w}$中,學習率 $\alpha$ 如果設定得過大,最可能導致什麼後果?
成本函數 $J(w,b)$ 可能無法收斂,甚至會變得越來越大。
參數 $w$ 的值會永遠保持為零。
演算法收斂速度會變得非常緩慢。
模型會立刻找到成本函數的全域最小值。
題目 4:題目 3 / 10
單選題 - 10分在線性迴歸的梯度下降演算法中,為什麼需要同時更新參數 $w$ 和 $b$?
因為更新 $w$ 比更新 $b$ 更重要。
這只是一種程式碼風格,分開更新也能得到相同結果。
為了確保在計算 $b$ 的梯度時,使用的是該次迭代開始前的舊 $w$ 值。
為了節省計算資源和記憶體。
題目 5:題目 4 / 10
單選題 - 10分對於線性迴歸模型,其成本函數 $J(w,b)$ 對參數 $w$ 的偏導數 $\frac{\partial J(w,b)}{\partial w}$ 的正確表達式是什麼?
$\frac{1}{m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})x^{(i)}$
$w - \alpha \frac{1}{m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})x^{(i)}$
$\frac{1}{m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})$
$\frac{1}{2m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})^2$
題目 6:題目 5 / 10
單選題 - 10分在梯度下降的過程中,如果某次迭代計算出的偏導數 $\frac{\partial J(w,b)}{\partial w}$ 的值是一個很大的正數,這代表什麼?
目前的參數 $w$ 處於成本函數的最低點。
為了降低成本,應該要減少 $w$ 的值。
為了降低成本,應該要增加 $w$ 的值。
模型已經收斂,可以停止訓練。
題目 7:題目 6 / 10
單選題 - 10分線性迴歸模型使用的成本函數 $J(w,b) = \frac{1}{2m} \sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})^2$ 通常稱為什麼?
梯度向量 (Gradient Vector)
模型假設 (Hypothesis Function)
學習率 (Learning Rate)
平方誤差 (Squared Error, MSE)
題目 8:題目 7 / 10
單選題 - 10分對於線性迴歸模型,其成本函數 $J(w,b)$ 對參數 $b$ 的偏導數 $\frac{\partial J(w,b)}{\partial b}$ 的正確表達式是什麼?
$\frac{1}{m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})^2$
$\frac{1}{m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})$
$\frac{1}{m}\sum\limits_{i = 1}^{m} x^{(i)}$
$\frac{1}{m}\sum\limits_{i = 1}^{m} (f_{w,b}(x^{(i)}) - y^{(i)})x^{(i)}$
題目 9:題目 8 / 10
單選題 - 10分在梯度下降演算法的迴圈中,重複執行的核心步驟是什麼?
計算成本函數對參數的偏導數,並據此更新參數。
重新初始化參數 $w$ 和 $b$。
不斷增加學習率 $\alpha$ 的值。
只更新參數 $w$,保持 $b$ 不變。
題目 10:題目 10 / 10
單選題 - 10分在執行梯度下降的初始化這個步驟中,一個常見的起始點是如何設定 $w$ 和 $b$?
$w$ 和 $b$ 隨機設定。
$w=1$,$b=1$。
$w=0$,$b=0$。
$w$ 和 $b$ 設定為資料集的中位數。
🎉 測驗完成!
--
計算中...