Question: Explain the difference between batch gradient descent and stochastic gradient descent.Answer: Batch gradient descent updates the model parameters using the entire dataset, while stochastic gradient descent updates the parameters using one randomly selected data point at a time. Mini-batch gradient descent is a compromise, using a small subset of the data for each update. |
احفظ للمراجعة
احفظ هذا العنصر في الإشارات المرجعية، او حدده كصعب، او ضعه في مجموعة مراجعة.
سجل الدخول لحفظ الإشارات المرجعية والاسئلة الصعبة ومجموعات المراجعة.
هل هذا مفيد؟ نعم لا
الاكثر فائدة حسب تقييم المستخدمين:
- Explain the concept of feature engineering.
- What is the purpose of regularization in machine learning?
- Explain the term \'hyperparameter\' in the context of machine learning.
- What is the purpose of the activation function in a neural network?
- Explain the term \'precision\' in the context of classification.