Встречается на собеседованиях • сегодня
Как работает градиентный бустинг
Градиентный бустинг (Gradient Boosting) — это ансамблевый метод, который последовательно строит деревья решений, каждое из которых исправляет ошибки предыдущих. Основные принципы:
- Начинаем с константного предсказания (среднее значение для регрессии, лог-odds для классификации)
- На каждой итерации:
- Вычисляем градиент функции потерь относительно текущих предсказаний
- Обучаем дерево на этих градиентах (псевдо-остатках)
- Оптимизируем веса листьев дерева
- Добавляем дерево с коэффициентом обучения к ансамблю
Пример с XGBoost:
python
import xgboost as xgb
from sklearn.datasets import make_classification
X, y = make_classification(n_samples=1000, n_features=10)
model = xgb.XGBClassifier(n_estimators=100, learning_rate=0.1)
model.fit(X, y)Ключевые параметры:
learning_rate: шаг градиентного спускаn_estimators: количество деревьевmax_depth: глубина деревьев
Преимущества: высокая точность, обработка пропусков, регуляризация. Недостатки: склонность к переобучению, требует тщательной настройки.
как отвечать на вопрос
пример собеседования
фреймворки на собеседовании
типичные вопросы junior
интервью вопросы и ответы
