chapitre6 - 68 Chapitre 6 Nuees dynamiques Dans ce...

Info iconThis preview shows pages 1–4. Sign up to view the full content.

View Full Document Right Arrow Icon

Info iconThis preview has intentionally blurred sections. Sign up to view the full version.

View Full DocumentRight Arrow Icon

Info iconThis preview has intentionally blurred sections. Sign up to view the full version.

View Full DocumentRight Arrow Icon
This is the end of the preview. Sign up to access the rest of the document.

Unformatted text preview: 68 Chapitre 6 Nuees dynamiques Dans ce chapitre, nous allons etudier trois variantes dun algorithme nomme nuees dyna- miques et permettant deffectuer une classification non-supervisee dun ensemble de Q stimuli { p 1 , p 2 ,..., p Q } . Lobjectif est double : produire une partition en K classes de cet ensemble, dune part, et trouver K prototypes W = { 1 w , 2 w ,..., K w } T permettant de representer au mieux les centres de ces classes. Bien quhistoriquement cet algorithme nappartienne pas au domaine des reseaux de neurones, plusieurs architectures neuronales, dont celles decrites dans les deux cha- pitres suivants (Kohonen et GNG), sen inspirent en effectuant des traitements semblables. Nous abordons donc cet algorithme en guise dintroduction aux reseaux non supervises, bases sur lap- prentissage competitif (voir chapitre 4). On peut visualiser les prototypes i w , i = 1 ,...,K , comme les poids de K neurones competitifs alignes sur une seule couche, tel quillustre `a la figure 6.1. Le niveau dactivation dun neurone competitif est determine par la distance entre son vecteur de poids et le stimulus dentree, contrairement au neurone de type perceptron o`u lon mesurait plutot une correlation entre ces deux vecteurs. Ensuite, la fonction dactivation competitive ( compet ) retourne un 1 pour le neu- rone ayant la plus grande sortie (le gagnant), et un 0 pour tous les autres : a i = 1 si n i = max k ( n k ) , k = 1 ,...,K autrement (6.1) En cas degalite pour la premi`ere place, on fait gagner arbitrairement le neurone dont lindice est le plus petit. Cest la norme || x- y || qui definit la distance entre deux vecteurs x et y et donc leur manque de ressemblance. En calculant la negation de cette norme, on obtiendra une mesure de similarite qui nous permettra de regrouper les stimuli dapprentissage en categories (classes). Habituellement, on utilisera une norme basee sur le produit scalaire classique mais pouvant incorporer une matrice positive definie A telle que : || x- y || A = q ( x- y ) T A ( x- y ) , (6.2) Lorsque A est la matrice identite, on parle alors de distance euclidienne entre x et y . Dans le cas 69 70 CHAPITRE 6. NU EES DYNAMIQUES C a Entre Couche de K neurones a = compet ( n ) W p n R x 1 K x R K x 1 K x 1 R K n i = - || i w - p || FIG. 6.1 Couche competitive de S = K neurones. o`u A correspond `a linverse de la matrice de covariance des stimuli dentra nement, on parle alors de la distance de Mahalanobis. 6.1 K-means Lalgorithme dit du k-means permet de partitionner lensemble des stimuli en K classes { C 1 ,C 2 ,...,C K } . Il sagit ici dune partition rigide, cest-`a-dire dune collection de K sous- ensembles o`u chaque stimulus dentree appartient `a une et une seule classe de la partition U : U = u 1 , 1 u 1 , 2 u 1...
View Full Document

Page1 / 10

chapitre6 - 68 Chapitre 6 Nuees dynamiques Dans ce...

This preview shows document pages 1 - 4. Sign up to view the full document.

View Full Document Right Arrow Icon
Ask a homework question - tutors are online