Чи є кращий алгоритм, ніж XGBoost?
реалізовано на C++ із додатковим прискоренням GPU та швидшим за XGBoost, особливо для великих наборів даних. Він також має кілька методів оптимізації, як-от розбиття на основі гістограми та зростання дерева по листах, які роблять його швидшим і ефективнішим, ніж традиційні
алгоритми. 1 січня 2023 р
Унікальний алгоритм поділу листів LightGBM створює простіші моделі, які під час навчання використовують значно менше пам’яті порівняно з XGBoost. XGBoost реалізує навчання дерева на основі диска та передбачення в пам’яті для кращого керування пам’яттю. Але LightGBM має перевагу щодо меншого використання пам’яті в цілому.
10 найкращих альтернатив XGBoost, нещодавно розглянуті спільнотою G2
- Weka. (13)4,3 з 5.
- Google Cloud TPU. (18)4,4 з 5.
- scikit-Learn. (59)4,8 з 5.
- Вершина ШІ. (451)4,4 з 5.
- Хмара SAP HANA. (508)4,3 з 5.
- Платформа локалізації фраз. (1119)4,6 з 5.
- САС Вія. (264)4,2 з 5.
- MLlib. (14)4,1 з 5.
Висновок. XGBoost настільки хороший, що якщо ви бачите багато рішень Kaggle, XGBoost є фактичним переможцем, оскільки він дуже потужний. Він зарекомендував себе настільки, що багато людей за замовчуванням використовують його як базову та як остаточну модель як на хакатонах, так і на підприємствах.
На відміну від рівня (горизонтального) зростання в XGBoost, LightGBM здійснює вертикальне (вертикальне) зростання, що призводить до більшого зменшення втрат і, у свою чергу, до більш високої точності, водночас швидше.
Вибір найкращого алгоритму повинен враховувати конкретні вимоги завдання, де CatBoost може бути кращим, коли точність має першорядне значення, а час не є обмеженням, тоді як LightGBM або XGBoost могли б бути більш придатними для реального часу або великомасштабних додатків, де швидкість навчання є критичною.