首页 试题详情
判断题

XGBoost使用了一阶和二阶偏导,二阶导数有利于梯度下降的更快更准。使用泰勒展开取得二阶倒数形式, 可以在不选定损失函数具体形式的情况下用于算法优化分析。

A正确

B错误

正确答案:A (备注:此答案有误)

相似试题

  • 判断题

    XGBoost使用一阶二阶偏导导数有利于梯度下降的更快更准。使用泰勒展开取得倒数形式, 可以在不选定损失函数具体形式的情况下用于算法优化分析。

    答案解析

  • 多选题

    传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行泰勒展开,同时用到()

    答案解析

  • 判断题

    AdaGrad使用的是一阶差分(firstorderdifferentiation)

    答案解析

热门题库