Rad donosi teorijsku podlogu potrebnu za razumijevanje procesa implementacije modela strojnog učenja za raspoznavanje znakovnog jezika pomoću uslikane ruke. Daje se pregled cijelog postupka od predobrade slika i izlučivanja značajki do treniranja klasifikatora, vrednovanja i odabira optimalnih hiperparametara. Rješenje je implementirano pomoću Scikit-learn, Scikit-image i OpenCV Python biblioteka. Najbolji rezultati postignuti su šumom odluke i značajkama dobivenim algoritmom lokalnih binarnih uzoraka, ali i stroj s potpornim vektorima i k-najbližih susjeda postižu slične rezultate s takvim značajkama. Analizirane su i druge metode izdvajanja značajki kao Canny detekcija rubova i osnovna analiza komponenti sa spomenutim klasifikatorima, iako su dale lošije rezultate. This work presents the theoretical background necessary for understanding the implementation of a sign language classifier. An overview of the entire process is given; from image preprocessing and feature extraction to classifier training and cross-validation for fine tuning the machine learning model. The experimental portion was implemented using Python libraries such as Scikit-learn, Scikit-image and OpenCV. The best results were achieved using a random forest classifier with features extracted using the local binary patterns algorithm, although support vector machine and K-nearest neighbor classifiers achieved similar results with such features. Other feature extraction algorithms such as Canny edge detection and principal component analysis were implemented with those classifiers as well, although with poorer results.