Hyperparameteroptimering är en teknik inom maskininlärning som används för att välja de optimala värdena för de parametrar som inte kan läras av själva modellen, så kallade hyperparametrar.
Exempel på hyperparametrar är antalet lager i en neural nätverksmodell, inlärningshastighet och batchstorlek. Hyperparameteroptimering innebär att man experimenterar med olika kombinationer av hyperparametrar för att hitta de som ger den högsta prestandan på valideringsdata.
Ett vanligt verktyg för hyperparameteroptimering är grid search, där man testar alla möjliga kombinationer av hyperparametrar. Ett annat verktyg är Randomized Search där man väljer slumpmässiga värden inom en viss intervallet för hyperparametrarna.