Ordlista

Lasso-regression

Lasso-regression är en annan form av regularisering som också lägger till en straffterm till förlustfunktionen, men som istället använder en absolutvärdet på vikterna istället för deras kvadrat. Detta har den effekten att den kan ge en modell med en mindre uppsättning av de mest relevanta faktorerna och eliminera mindre relevanta faktorer helt. Ett exempel på …

Lasso-regression Läs mer »

Regularisering

Regularisering är en teknik som används inom maskininlärning för att minska risken för överanpassning (overfitting) av modellen på träningsdatan. Det innebär att man lägger till en straffterm till förlustfunktionen som tar hänsyn till storleken på modellens vikter (weights). Syftet är att minska storleken på vikterna i modellen och därmed öka dess allmänna förmåga att generalisera …

Regularisering Läs mer »

Support Vector Machines (SVM)

Support Vector Machines (SVM) är en annan vanlig algoritm som används för klassificering och regression. SVM försöker hitta en optimal separationslinje (en hyperplan) som kan separera datapunkterna i olika klasser så bra som möjligt. SVM-modellen väljer den hyperplan som maximalt separerar datapunkterna från de två klasserna, vilket gör det lämpligt för problem med hög dimensionell …

Support Vector Machines (SVM) Läs mer »

K-nearest neighbors (KNN)

K-nearest neighbors (KNN) är en enkel algoritm för att lösa klassificerings- och regressionsproblem. I KNN-algoritmen klassificeras ett nytt datapunkt genom att hitta de k närmaste datapunkterna i träningsdatamängden och bestämma klassificeringen av det nya datapunkten baserat på majoriteten av de närmaste punkterna. Antalet k bestäms oftast av användaren och måste väljas noggrant för att undvika …

K-nearest neighbors (KNN) Läs mer »

Autoencoder

Autoencoder är en typ av neural nätverksmodell som används för att utföra dimensionell reduktion eller för att generera ny data. Autoencodern består av två delar: en encoder som omvandlar indata till en komprimerad representation och en decoder som omvandlar den komprimerade representationen tillbaka till en rekonstruerad version av den ursprungliga datan. Autoencodern tränas genom att …

Autoencoder Läs mer »

Optical Character Recognition (OCR)

Optical Character Recognition (OCR) är en teknik inom AI som syftar till att känna igen text på bilder och omvandla dem till redigerbar text. OCR är en viktig teknik för att digitalisera dokument och göra det möjligt att söka efter specifika ord eller fraser i stora textmängder. OCR-system kan träna på stora dataset med bilder …

Optical Character Recognition (OCR) Läs mer »

Dataförstärkning (Data augmentation)

Dataförstärkning (Data augmentation) är en teknik som används inom maskininlärning för att öka mängden tillgänglig träningsdata genom att skapa nya exemplar från befintliga exempel. Genom att använda olika typer av transformationer på befintliga data, som t.ex. spegling eller rotation, kan man skapa fler exempel som är liknande de ursprungliga exemplen. På så sätt kan man …

Dataförstärkning (Data augmentation) Läs mer »

Generative Adversarial Networks (GANs)

Generative Adversarial Networks (GANs) är en typ av generativ modellering där två neuronnätverk tränas samtidigt. Ett av neuronnätverken genererar syntetiska exempel medan det andra neuronnätverket försöker skilja de syntetiska exemplen från de riktiga exemplen. Träningsprocessen fortsätter tills det genererande neuronnätverket producerar exempel som är svåra att skilja från de riktiga exemplen. Ett exempel på GAN-användning …

Generative Adversarial Networks (GANs) Läs mer »

Transfer Learning

Transfer Learning är en teknik inom maskininlärning som innebär att en modell som har tränats på en uppgift används för att lösa en annan uppgift. Detta innebär att modellen inte behöver tränas från grunden för varje ny uppgift, vilket sparar tid och resurser. Istället kan en befintlig modell användas som grund och sedan finjusteras för …

Transfer Learning Läs mer »

Gradientbaserad optimering (Gradient-based optimization)

Gradientbaserad optimering (Gradient-based optimization) är en metod för att hitta optimala värden för en funktion genom att iterativt justera dess parametrar baserat på gradienten av funktionen. Metoden används ofta inom maskininlärning för att justera vikterna i ett neuralt nätverk under träning. Exempel på gradientbaserade optimeringsalgoritmer inkluderar Stochastic Gradient Descent (SGD), Adam och Adagrad.

Rulla till toppen