首页 试题详情
判断题

sigmoid函数在深度神经网络中梯度反向时容易导致梯度消失。

A正确

B错误

正确答案:A (备注:此答案有误)

相似试题

  • 判断题

    sigmoid函数深度神经网络梯度反向时容易导致梯度消失。

    答案解析

  • 判断题

    传统神经网络常用的激活函数sigmoid与tanh

    答案解析

  • 判断题

    Sigmoid神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度正向时输出值与原始值一样。这意味着神经网络ReLU单元永远不会饱和。

    答案解析

  • 判断题

    Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题

    答案解析

  • 判断题

    Sigmoid是早期神经网络模型常见的非线性变换函数

    答案解析

热门题库