Enunciados de questões e informações de concursos
Na arquitetura de redes neurais, diferentes funções de ativação são utilizadas nas camadas de neurônios para aplicar transformações não lineares aos dados. Uma dessas funções é a ReLU, conhecida por sua eficácia em diversos modelos de aprendizado profundo.
Ao implementar a função ReLU, um pesquisador deve seguir a fórmula: