optimisation-par-essaims-de-particule-doc.docx

March 22, 2018 | Author: Chakib Ka | Category: Mathematical Optimization, Pi, Speed, Birds, Mathematical Analysis


Comments



Description

I.INTRODUCTION Depuis que l’ordinateur existe, l’homme n’a cessé de le perfectionner pour qu’il soit le plus rapide et le plus performant, mais rien de cela ne serait possible sans la partie logiciel qui vient s’implanté sur ce support. Le logiciel de par son histoire a lui aussi fait un bon gigantesque récemment et encore plus ces dernières années. A l’aire ou les logiciels les plus rapide du marché ne peuvent plus résoudre certains problèmes (de part leur complexité), l’homme s’inspire de plus en plus de la nature qui l’entoure pour mettre en place des algorithmes simulant le comportement des animaux, leurs actions ou réactions vis-à-vis d’un problème et même les méthodes qu’ils utilisent pour y faire face ! Même si ces méthodes sont sujette à de nombreuses controverses de part leur non-exactitude, ils permettent de trouver facilement et rapidement la solution la plus approchée du l’optimale si ce dernier existe, et reste un moyen très efficace pour traitement de problèmes complexes pouvant prendre des années de calculs sans résultats. Dans ce sujet, nous allons faire la connaissance avec une de ces méthodes, celle-ci est dite « optimisation par essaims de particule » dont l’idée directrice est la simulation du comportement collectif des oiseaux à l’intérieur d’une nuée. « Lorsque le soc de la charrue pénètre le sol pour la première fois en automne le champ est vide de tout goéland et quelques minutes après une nuée accompagne le tracteur. Au début du labour un oiseau découvre la source de nourriture et très rapidement un autre arrive et ainsi de suite. Que s’est-il passer ? C’est ce que nous allons comprendre dans ce sujet … » III. Eberhart cherchaient à simuler la capacité des oiseaux à voler de façon synchrone et leur aptitude à changer brusquement de direction tout en restant en une formation optimale. pour une nuée d’oiseaux.1.  Au départ J. le voisinage suit trois types de topologies :  Topologie en étoile (Figure1 (a)) : le réseau social est complet.DEFINITIONS III. Seule cette particule centrale ajuste sa position vers la meilleure. si cela provoque une amélioration l’information est propagée aux autres.Optimisation Par Essaims de Particule : L'optimisation1 par Essaim de particule (OEP) ou bien (PSO Particle swarm optimization) est une technique utilisée pour explorer l'espace de recherche d'un problème quelconque pour trouver l'ensemble des paramètres qui maximise/minimise un objectif particulier.II. Le modèle qu’ils ont proposé à ensuite été étendu en un algorithme simple et efficace d’optimisation. a été inventée par Russel Eberhart (ingénieur en électricité) et James Kennedy (socio-psychologue) en 1995. donc une communication complète et une attirance vers la meilleure particule.  Topologie en anneau (Figure1 (b)) : chaque particule communique avec n voisines immédiates. Topologie en rayon (Figure1 (c)) : une particule "centrale" est connectée à toutes les autres. Kennedy et R. III. Chaque particule tend à se déplacer vers la meilleure dans son voisinage local. Cet objectif est atteint en suivant un algorithme dédié que l’on verra par la suite. En général.UN PEU D’HISTOIRE L'optimisation par Essaim de particule (OEP) ou bien (PSO Particle swarm optimization).  .Notion de voisinage : Le voisinage constitue la structure du réseau social.2. Les particules à l’intérieur d’un voisinage communiquent entre-elles. c 1. où le but est de maximiser l'efficacité. Soit ⃗ x i ( t ) la position de la particule Pi au temps t. C’est le vecteur vitesse qui dirige le processus de recherche et reflète la "sociabilité" des particules. l'économie. et l’informatique…etc. Les variables et paramètres de l’algorithme : N nombre de particules ⃗ x i ( t ) Position de la particule Pi v i vitesse de la particule ⃗ Pi pbesti Meilleure fitness obtenue pour la particule Pi ⃗ x pbest Position de la particule ⃗ x gbest Position de la particule ayant la meilleure fitness de toutes i i Pi pour la meilleure fitness ρ1 . Ce mécanisme est utilisé dans plusieurs domaines tels que: la physique. et 0 ≤ c2 ≤ 2) sont des coefficients constants fixés par l'utilisateur. sa position est modifiée en ajoutant une vitesse v i (t ) ⃗ à sa position courante : ⃗ x i ( t )=⃗ x i ( t−1 ) + ⃗ v i (t) La vitesse de chaque particule est mise à jour suivant l'équation suivante: v i(t+1)=ω v i(t )+ c 1 r 1[x p i(t)−x i(t)]+ c 2 r 2[g(t)−x i(t )] vi(t) est la vitesse de particule i à l'instant t et x i(t) est la position de particule i à l'instant t. La nouvelle position d’une particule est déterminée en fonction de sa propre valeur et celle de ses voisines.2. r 1 et r2 sont des nombres aléatoires tirés à chaque itération. et c2 (0 ≤ w ≤ 1. 0 ≤ c1 ≤ 2. Traitement : Répéter Pour i de 1 à N faire F( ⃗ x i )> pbest i Si ) Alors ¿ . g(t) est la meilleure solution trouvée jusqu'à l'instant t et xpi(t) est la meilleure solution trouvée par le particule i. 1 : L'optimisation est le mécanisme par lequel on trouve la valeur maximale ou minimale d'une fonction.Figure 1 : différents types de topologie pour un essaim de particules. ρ 2 valeurs aléatoires positives Initialisations : Initialiser aléatoirement la population. chimie. IV. la productivité et d'autre mesures.L’ALGORITHME PSO Chaque particule représente une solution potentielle dans l’espace de recherche. les paramètres w. Le critère de convergence peut être un nombre fixe d’itérations. 5.. L’inertie. La taille du voisinage. 2. La vitesse maximale. La dimension du problème. avec et c2 c 1+c 2< ¿ sont 4.1] et c1 constantes et représentent une accélération positive. ρ1 et ρ2 Les variables aléatoires peuvent être définies de la façon suivante : { r1 et r2 ρ1=r 1 c 1 ρ2=r 2 c 2 suivent une loi uniforme sur [0. 4. 3. Le nombre de particules. On remarque qu’il y a Six paramètres qui rentrent en ligne de compte : 1. Les valeurs des coefficients ρ . La vitesse peut être limitée par une vitesse maximale vitesse minimale V min V max et une pour éviter que les particules se déplacent trop . suivant la fitness ou bien la variation lorsqu’elle tend vers 0. 6.pbesti ← F (⃗ x i) ⃗ x pbest ← i ⃗ xi Fin Si F( ⃗ x i )> gbest i Si ) Alors ¿ gbest i ← F (⃗ x i) ⃗ x gbest ← i ⃗ xi Fin Si Fin Pour Pour i de 1 à N faire ⃗ x pbest −¿ ⃗ x gbest −¿ vi ← ⃗ ⃗ v i+ ρ1 ¿ ⃗ x i ¿+ ρ2 ¿ i i ⃗ xi¿ ⃗ xi ← ⃗ xi + ⃗ vi Fin Pour Jusqu’à ce que (le processus converge) La variation de la vitesse est proportionnelle à l’éloignement d’une solution par rapport à la solution globale. et on a pris la valeur de 2 pour maximale) qui suivent une loi uniforme sur c1 et c2 (accélération positive . L’implémentation de ce projet à été réaliser à l’aide du logiciel DELPHI7 qui utilise comme langage de programmation le pascal orienté objet.1]. nous allons générer une population de particules réparties aléatoirement sur le graphe. La fonction en question s’écrit de la forme : exp−x −sin ⁡( 10 x ) La courbe décrite par cette fonction est représentée dans la figure qui suit (Figure 2) Figure 2 : Représentation de la courbe : exp−x (1+ sin ⁡( 10 x)) . Un facteur d’inertie Φ peut être appliqué à la vitesse Pour contrôler l’influence de celle-ci.APPLICATION DE L’ALGORITHME PSO Nous allons dans ce titre appliquer la notion des essaims de particules dans un problème de maximisation.rapidement ou trop lentement d’une région à une autre dans l’espace de recherche. V.. Pour commencer. Comme paramètres. on va essayer de trouver le maximum global d’une fonction en appliquant la théorie des PSO. r1 et r2 [0. La courbe représente la fonction sous 20 points. et nous choisissant de prendre une population de 5 particules pour cette expérience. celui-ci noté Φ et qui représente le facteur d’inertie comme dit précédemment a été fixé à 0. La figure 3 montre la génération de la population et sa position sur le graphe. Figure 3 : Représentation de la population de particules.8 après plusieurs essais expérimentales. On remarque dès le début que la population se rapproche instinctivement vers la solution optimale globale comme montré dans la figure 4.Le paramètre qui influx sur la vitesse est très important. et dès qu’une des particules l’a atteint les autres ne tardent pas a la suivre pour enfin la rejoindre dans l’optimum globale à la position 3 avec la valeur 1. .03781… vers l’itération 180 comme montré dans la figure 5. Plus on avance dans le nombre d’itérations plus les particules se rapprochent de l’optimale. Figure 4 : Représentation de la population de particules à l’itération 5. . Recherche de minimas dans les émissions de champs magnétique. VI. mais cet algorithme qui est lui-même tiré de la notion qu’utilise les nuée d’oiseaux pour se déplacer s’étend encore bien loin.Figure 5 : Résultat de la l’algorithme PSO. Le principe de la nuée d'oiseaux est un nouveau concept de direction d'entreprise . présente une fonction coût et qui doit être optimisée. Citons quelques uns :    La restauration d’image qui est converti en un problème d’optimisation et qui. La solution qui donne la valeur optimale constitue l’image désirée. celui-ci place l'individu et les valeurs au centre de l'intérêt et intègre une attitude de direction. nous avons vu l’utilisation des PSO dans la recherche d’un optimum pour une fonction donné. dans ce cas.AUTRE DOMAINES D’APPLICATIONS Dans ce projet. ses dérivées successives ne sont pas nécessaires. sa simplicité d’implémentation lui donne un avantage conséquent. on a remarqué que la qualité des solutions ne peut être garantie même en augmentant le nombre d’itérations. L'optimisation par essaims de particules présente un fort potentiel d'application pratique. Aucune hypothèse sur la continuité de cette fonction n'est requise. c'est très difficile de trouver des bons paramètres adaptés à la structure du problème. ce qui rend très vaste le domaine d'application. Une des particularités importantes des méta-heuristiques.COCLUSION Les méta-heuristiques constituent une stratégie de résolution de plus en plus privilégiée. néanmoins par l’expérimentation. . Les résultats obtenues par PSO sont très satisfaisant et confirment bien la validité de l’algorithme. mais le choix de paramètres reste l'un des problèmes de l'optimisation par particules d'essaim. réside dans l'absence d'hypothèses particulière sur la régularité de la fonction objective. REFERENCES Jerome Onwunalu. « Particle Swarm Optimization: A Tutorial ». James Blondin. « Optimisation par essaim de particules Application au problème des n-Reines ». « Application of a particle swarm optimization algorithm for determining optimum well location and type ». Louis J. 2003. Antoine Dutot et Damien Olivier. 25 rue Philippe Lebon. 8 Avril 2009. Smart Fields Meeting. Université du Havre. Maurice Clerc. 4 Septembre 2009. Durlofsky. 76600 Le Havre. Laboratoire Informatique du Havre. « L’optimisation par essaim particulaire ». .
Copyright © 2024 DOKUMEN.SITE Inc.