Чи є кращий алгоритм, ніж XGBoost?

LightGBM

LightGBM

LightGBM, скорочення від Light Gradient-Boosting Machine, є безкоштовна розподілена структура для машинного навчання з відкритим вихідним кодом, що посилює градієнт, спочатку розроблений Microsoft.

https://en.wikipedia.org › wiki › LightGBM

реалізовано на C++ із додатковим прискоренням GPU та швидшим за XGBoost, особливо для великих наборів даних. Він також має кілька методів оптимізації, як-от розбиття на основі гістограми та зростання дерева по листах, які роблять його швидшим і ефективнішим, ніж традиційні посилення градієнта

посилення градієнта

Градієнтне підвищення є техніка машинного навчання, заснована на посиленні у функціональному просторі, де метою є псевдозалишки, а не типові залишки, що використовуються в традиційному посиленні.

https://en.wikipedia.org › wiki › Gradient_boosting

алгоритми. 1 січня 2023 р

Унікальний алгоритм поділу листів LightGBM створює простіші моделі, які під час навчання використовують значно менше пам’яті порівняно з XGBoost. XGBoost реалізує навчання дерева на основі диска та передбачення в пам’яті для кращого керування пам’яттю. Але LightGBM має перевагу щодо меншого використання пам’яті в цілому.

10 найкращих альтернатив XGBoost, нещодавно розглянуті спільнотою G2

  • Weka. (13)4,3 з 5.
  • Google Cloud TPU. (18)4,4 з 5.
  • scikit-Learn. (59)4,8 з 5.
  • Вершина ШІ. (451)4,4 з 5.
  • Хмара SAP HANA. (508)4,3 з 5.
  • Платформа локалізації фраз. (1119)4,6 з 5.
  • САС Вія. (264)4,2 з 5.
  • MLlib. (14)4,1 з 5.

Висновок. XGBoost настільки хороший, що якщо ви бачите багато рішень Kaggle, XGBoost є фактичним переможцем, оскільки він дуже потужний. Він зарекомендував себе настільки, що багато людей за замовчуванням використовують його як базову та як остаточну модель як на хакатонах, так і на підприємствах.

На відміну від рівня (горизонтального) зростання в XGBoost, LightGBM здійснює вертикальне (вертикальне) зростання, що призводить до більшого зменшення втрат і, у свою чергу, до більш високої точності, водночас швидше.

Вибір найкращого алгоритму повинен враховувати конкретні вимоги завдання, де CatBoost може бути кращим, коли точність має першорядне значення, а час не є обмеженням, тоді як LightGBM або XGBoost могли б бути більш придатними для реального часу або великомасштабних додатків, де швидкість навчання є критичною.