Gradientbaserad optimering (Gradient-based optimization) är en metod för att hitta optimala värden för en funktion genom att iterativt justera dess parametrar baserat på gradienten av funktionen. Metoden används ofta inom maskininlärning för att justera vikterna i ett neuralt nätverk under träning.
Exempel på gradientbaserade optimeringsalgoritmer inkluderar Stochastic Gradient Descent (SGD), Adam och Adagrad.