Verilerden olasılık yoğunluk fonksiyonu parametrelerini kestirme işlemine yoğunluk kestirimi denir. Gauss karışım modeli (GKM) en çok tercih edilen yoğunluk ailelerinden biridir. Gauss karışımlarından örneklenmiş ilginç noktalar ile Gauss dağılımına sahip olmayan ilginç olmayan noktalardan oluşan veri öbeklerinden Gauss karısım kestiriminin nasıl yapıldığını inceliyoruz. Expectation-Maximization algoritması gibi geleneksel GKM kestirim teknikleri, ilginç olmayan noktalara olan hassaslığından dolayı, türdeş olmayan verilerdeki ilginç noktaları etkin olarak modelleyememektedir. Bir diğer olası sorun ise, iyi bir kestirim yapılabilmesi için ̈oncesinde gerçek bileşen sayısının genellikle bilinmesinin gerektiğidir. Biz, ilginç olmayan noktaların varlığına karşı sağlam, ilginç noktaların sayısını, karışımdaki Gauss sayısını ve gerçek karışım parametrelerini yinelemeli kestiren bir GKM kestirim algoritması tasarlıyoruz. Yöntemimiz, her yinelemede bir Gauss bileşenini sağlam bir formulasyonla kestirir. Bu bileşene ait ilginç nokta sayısı, çoklu-çözünürlük arama yöntemi kullanılarak adaylar arasından kestirilir. Eğer bu noktaların Gauss dağılımından gelme hipotezi kabul edilirse, kestirilen Gauss, karışım bileşeni olarak tutulur, ilgili noktalar veri öbeğinden ̧cıkarılır ve yinelemeler kalan noktalarla devam eder. Aksi durumda, kestirim süreci durdurulur ve kalan noktalar ilginç olmayan şeklinde etiketlenir. Bu ̧sekilde, durdurma kriteri herhangi ek bir bilgi olmadan gerçek bileşen sayısını belirler. Sentetik ve gerçek-ddünya veri öbekleri üzerinden yapılan karşılaştırmalı deneyler gösteriyor ki, algoritmamız gerçek bileşen sayısını belirleyebiliyor ve diğer iki algoritmaya göre daha iyi yoğunluk kestirimi yapabiliyor. Density estimation is the process of estimating the parameters of a probability density function from data. The Gaussian mixture model (GMM) is one of the most preferred density families. We study the estimation of a Gaussian mixture from a heterogeneous data set that is defined as the set of points that contains interesting points that are sampled from a mixture of Gaussians as well as non-Gaussian distributed uninteresting ones. The traditional GMM estimation techniques such as the Expectation-Maximization algorithm cannot effectively model the interesting points in a heterogeneous data set due to their sensitivity to the uninteresting points as outliers. Another potential problem is that the true number of components should often be known a priori for a good estimation. We propose a GMM estimation algorithm that iteratively estimates the number of interesting points, the number of Gaussians in the mixture, and the actual mixture parameters while being robust to the presence of uninteresting points in heterogeneous data. The procedure is designed so that one Gaussian component is estimated using a robust formulation at each iteration. The number of interesting points that belong to this component is also estimated using a multi-resolution search procedure among a set of candidates. If a hypothesis on the Gaussianity of these points is accepted, the estimated Gaussian is kept as a component in the mixture, the associated points are removed from the data set, and the iterations continue with the remaining points. Otherwise, the estimation process is terminated and the remaining points are labeled as uninteresting. Thus, the stopping criterion helps to identify the true number of components without any additional information. Comparative experiments on synthetic and real-world data sets show that our algorithm can identify the true number of components and can produce a better density estimate in terms of log-likelihood compared to two other algorithms. 87