在神经网络中,激活函数ReLU(Rectified Linear Unit)的主要优点是:A. 可以避免梯度消失问题B. 可以避免梯度爆炸问题C. 可以使网络输出在[-1,1]之间D. 可以使网络更加复杂