Quelle est la différence entre K-Means et Fuzzy-C Means Clustering?


Réponse 1:
  1. Supposons un nombre fixe de clusters kInitialisation: initialiser aléatoirement les k-moyennes
  2. μk\mu_k
  3. associé aux grappes et calculer la probabilité que chaque point de données
  4. xix_i
  5. est membre d'un cluster k donné,
  6. P(pointxihaslabelkxi,k)P(point x_i has label k | x_i, k)
  7. .Itération: recalculer le centroïde du cluster en tant que centroïde pondéré compte tenu des probabilités d'appartenance à tous les points de données
  8. xix_i
  9. :
  10. μk(n+1)=xikxi×P(μkxi )bxik P(μkxi )b\displaystyle \mu_k(n+1) = \frac{\sum\limits_{x_i \in k} x_i \times P\left (\mu_k | x_i  \right )^{b}}{\sum\limits_{x_i \in k}  P\left (\mu_k | x_i  \right )^{b}}
  11. Arrêt: Itérer jusqu'à la convergence ou jusqu'à ce qu'un nombre d'itérations spécifié par l'utilisateur soit atteint (l'itération peut être piégée à certains maxima ou minima locaux)

Clustering C-Means flou pour les données de l'iris


Réponse 2:

Il y a plusieurs réponses astucieuses et je n'ajouterai pas mes informations de clustering non linéaires torturées.

Ce que je n'ai pas vu, c'est qu'en général, on teste différentes méthodes pour voir celle qui approche le mieux une solution.

Cependant, des choses étranges se produisent dans des espaces de grande dimension, où les sphères de points dont le rayon est centré contiennent des points qui ne devraient pas intuitivement.

Selon ce dont vous avez besoin, les idées les plus traditionnelles impliquent des choses comme (par exemple la transformation linéaire de Fischer) d'abord pour mieux délimiter la différence catégorielle mais parfois simplement pour réduire la dimension.

Je pense que les données définissent la véritable relation entre la méthode et la sortie - et mon point est que les transformations de données sont solidement établies en tant que méthodes précurseurs qui pourraient complètement changer la réponse que vous recherchez.