EBookClubs

Read Books & Download eBooks Full Online

EBookClubs

Read Books & Download eBooks Full Online

Book M  thodes d optimisation non diff  rentiable pour la r  solution de garnds probl  mes

Download or read book M thodes d optimisation non diff rentiable pour la r solution de garnds probl mes written by Grégory Emiel and published by . This book was released on 2008 with total page 119 pages. Available in PDF, EPUB and Kindle. Book excerpt: Cette thèse s’intéresse à la résolution de problèmes d’optimisation non-différentiable de grandes tailles résultant le plus souvent d’une relaxation Lagrangienne d’un problème difficile. Cette technique est couramment utilisée pour appréhender des problèmes linéaires avec nombres entiers ou des problèmes convexes complexes. Le problème dual obtenu est non différentiable -éventuellement séparable- et peut être résolu par un algorithme de faisceau. Le chapitre 2 propose une revue de littérature des méthodes d’optimisation non différentiable. Dans certaines situations, le problème dual peu être lui-même très difficile à résoudre et nécessiter des stratégies adaptées. Par exemple, lorsque le nombre de contraintes dualisées est très élevé, une dualisation explicite peut s’avérer impossible ou la mise à jour des variables duales peut échouer. Au chapitre 3, nous étudions les propriétés de convergence lorsqu’une relaxation Lagrangienne dynamique est effectuée : seul un sous-ensemble de contraintes est dualisé à chaque itération, ce qui permet de réduire la dimension du problème dual. Une autre limite de relaxation Lagrangienne peut apparaître lorsque la fonction duale est séparable en un grand nombre de sous-fonctions, ou que celles-ci restent difficiles à évaluer. Une stratégie naturelle consiste alors à tirer partie de la lecture séparable en effectuant des itérations duales en n’ayant évalué qu’un sous-ensemble des sous-fonctions. Au chapitre 4, nous proposons d’utiliser une méthode de faisceau dans ce contexte incrémental. Enfin, le chapitre 5 présente des applications numériques sur des problèmes de gestion de production d’électricité.

Book Algorithmes d optimisation en grande dimension

Download or read book Algorithmes d optimisation en grande dimension written by Audrey Repetti and published by . This book was released on 2015 with total page 0 pages. Available in PDF, EPUB and Kindle. Book excerpt: Une approche efficace pour la résolution de problèmes inverses consiste à définir le signal (ou l'image) recherché(e) par minimisation d'un critère pénalisé. Ce dernier s'écrit souvent sous la forme d'une somme de fonctions composées avec des opérateurs linéaires. En pratique, ces fonctions peuvent n'être ni convexes ni différentiables. De plus, les problèmes auxquels on doit faire face sont souvent de grande dimension. L'objectif de cette thèse est de concevoir de nouvelles méthodes pour résoudre de tels problèmes de minimisation, tout en accordant une attention particulière aux coûts de calculs ainsi qu'aux résultats théoriques de convergence. Une première idée pour construire des algorithmes rapides d'optimisation est d'employer une stratégie de préconditionnement, la métrique sous-jacente étant adaptée à chaque itération. Nous appliquons cette technique à l'algorithme explicite-implicite et proposons une méthode, fondée sur le principe de majoration-minimisation, afin de choisir automatiquement les matrices de préconditionnement. L'analyse de la convergence de cet algorithme repose sur l'inégalité de Kurdyka-L ojasiewicz. Une seconde stratégie consiste à découper les données traitées en différents blocs de dimension réduite. Cette approche nous permet de contrôler à la fois le nombre d'opérations s'effectuant à chaque itération de l'algorithme, ainsi que les besoins en mémoire, lors de son implémentation. Nous proposons ainsi des méthodes alternées par bloc dans les contextes de l'optimisation non convexe et convexe. Dans le cadre non convexe, une version alternée par bloc de l'algorithme explicite-implicite préconditionné est proposée. Les blocs sont alors mis à jour suivant une règle déterministe acyclique. Lorsque des hypothèses supplémentaires de convexité peuvent être faites, nous obtenons divers algorithmes proximaux primaux-duaux alternés, permettant l'usage d'une règle aléatoire arbitraire de balayage des blocs. L'analyse théorique de ces algorithmes stochastiques d'optimisation convexe se base sur la théorie des opérateurs monotones. Un élément clé permettant de résoudre des problèmes d'optimisation de grande dimension réside dans la possibilité de mettre en oeuvre en parallèle certaines étapes de calculs. Cette parallélisation est possible pour les algorithmes proximaux primaux-duaux alternés par bloc que nous proposons: les variables primales, ainsi que celles duales, peuvent être mises à jour en parallèle, de manière tout à fait flexible. A partir de ces résultats, nous déduisons de nouvelles méthodes distribuées, où les calculs sont répartis sur différents agents communiquant entre eux suivant une topologie d'hypergraphe. Finalement, nos contributions méthodologiques sont validées sur différentes applications en traitement du signal et des images. Nous nous intéressons dans un premier temps à divers problèmes d'optimisation faisant intervenir des critères non convexes, en particulier en restauration d'images lorsque l'image originale est dégradée par un bruit gaussien dépendant du signal, en démélange spectral, en reconstruction de phase en tomographie, et en déconvolution aveugle pour la reconstruction de signaux sismiques parcimonieux. Puis, dans un second temps, nous abordons des problèmes convexes intervenant dans la reconstruction de maillages 3D et dans l'optimisation de requêtes pour la gestion de bases de données.

Book M  thodes d optimisation globale bas  es sur l analyse d intervalle pour la r  solution de probl  mes avec contraintes

Download or read book M thodes d optimisation globale bas es sur l analyse d intervalle pour la r solution de probl mes avec contraintes written by Frédéric Messine and published by . This book was released on 1997 with total page 126 pages. Available in PDF, EPUB and Kindle. Book excerpt: Le retour au premier plan de l'optimisation globale correspond à un besoin industriel. De nombreuses applications, que ce soit au niveau de la conception ou de l'exploitation se ramènent à la recherche d'optima n'entrant pas dans le cadre des hypothèses simplificatrices (convéxite et donc unicité, différentiabilité, existence de points stationnaires,...). C'est en partie le cas des exemples concrets étudiés : la conception de procédés chimiques et d'actionneurs électromécaniques. Les méthodes d'optimisation globale que nous avons étudiées, sont basées sur l'analyse d'intervalle, ce qui leur donne leur caractère déterministe. Elles permettent donc de trouver avec certitude l'optimum global ainsi que tous ses optimiseurs, quelle que soit la nature du problème : continu, mixte, avec ou sans contraintes, ... certes, de telles performances se payent en temps de calcul et en utilisation mémoire. Les algorithmes développés dans cette thèse ont pour but de réduire de facon considérable ces temps CPU et le flot de données stocké. Afin d'améliorer ces algorithmes de type branch and bound, de nouvelles méthodes d'encadrement de l'optimum global concernant les fonctions différentiables de plusieurs variables ont été proposées. Le procédé mis en oeuvre consiste à construire des hyperplans dont l'intersection fournit tout simplement une minoration de la fonction ; cette construction utilise les propriétés d'inclusion de l'analyse d'intervalle. L'intégration de ces méthodes au sein d'algorithmes de type branch and bound, permet d'améliorer de facon considérable leur convergence et de limiter l'effet de clusters. La découverte des optima globaux des deux problèmes semi-industriels traités ont démontré l'efficacité de tels algorithmes par rapport aux méthodes classiques (gain de 10% sur les optima). Dès lors, l'utilisation des nouvelles méthodes d'encadrement dans un tel cadre (problèmes mixtes avec contraintes) semble très prometteuse.

Book Optimisation Differentiable

Download or read book Optimisation Differentiable written by and published by Ed. Techniques Ingénieur. This book was released on with total page 18 pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book Optimisation

Download or read book Optimisation written by Yves Cherruault and published by Presses Universitaires de France - PUF. This book was released on 1999 with total page 110 pages. Available in PDF, EPUB and Kindle. Book excerpt: L'optimisation est un des thèmes majeurs que le professeur Yves Cherruault développe dans son laboratoire (le MEDIMAT) depuis la fin des années 1970. Il a, en particulier, mis au point une technique d'optimisation globale, baptisée ALIENOR, qui permet de ramener la minimisation d'une fonction multivariables à celle d'une fonction d'une seule variable. Cette méthode originale est basée sur l'utilisation d'une transformation réductrice permettant de construire des courbes qui " a-densifient " l'espace Rn. Ces courbes " a-denses " ont un rapport avec les courbes qui " remplissent l'espace " (courbes de Péano, ... ) et avec les fractales. Les derniers développements associés à ces méthodes de type ALIENOR sont décrits. Des classes très générales de transformations réductrices sont proposées et l'on montre comment les méthodes d'optimisation peuvent servir à la résolution d'équations fonctionnelles de tous types. Deux applications fondamentales de l'optimisation sont également traitées, à savoir : - l'identification de modèles mathématiques, - le contrôle optimal de systèmes. Dans le cas de systèmes contrôlés, l'auteur montre comment l'utilisation de la méthode décompositionnelle d'Adomian (dont les grands principes sont rappelés) permet de se ramener à un problème d'optimisation classique. Notons enfin que les méthodes d'optimisation classiques sont aussi clairement et simplement détaillées dans cet ouvrage. Cet ouvrage sera un précieux outil pour les chercheurs et ingénieurs utilisant les méthodes d'optimisation ainsi que pour les étudiants scientifiques désireux de s'initier à ces techniques.

Book CONDITIONNEMENT ET ALGORITHMES PROXIMAUX EN LOCALISATION ET OPTIMISATION NON CONVEXE

Download or read book CONDITIONNEMENT ET ALGORITHMES PROXIMAUX EN LOCALISATION ET OPTIMISATION NON CONVEXE written by OSCAR.. CORNEJO ZUNIGA and published by . This book was released on 2000 with total page 81 pages. Available in PDF, EPUB and Kindle. Book excerpt: CETTE THESE EST CONSACREE A L'ETUDE DU CONDITIONNEMENT DES PROBLEMES D'OPTIMISATION ET A L'ETUDE DE PLUSIEURS ALGORITHMES EN OPTIMISATION NON DIFFERENTIABLE. DANS LA PREMIERE PARTIE ON ETUDIE LE CONDITIONNEMENT DES FONCTIONS SEMI-CONTINUES INFERIEUREMENT. ON ETEND LA NOTION D'APPLICATION MULTIVOQUE SUR-LIPSCHITZ ET ON MONTRE, EN TRAVAILLANT AVEC UN SOUS DIFFERENTIEL ABSTRAIT DEFINI DE FACON AXIOMATIQUE, QUE LE CONDITIONNEMENT LOCAL D'UNE FONCTION, A PRIORI NON CONVEXE, EST ASSURE PAR LA PROPRIETE DE SUR-LIPSCHITZ DE L'INVERSE DE SON SOUS DIFFERENTIEL. DANS LE CAS CONVEXE ON OBTIENT PLUSIEURS CARACTERISATIONS PRIMALES ET DUALES DU CONDITIONNEMENT GLOBAL. ON RETROUVE AINSI CERTAINS RESULTATS DE B. LEMAIRE, DE R. ZHANG ET DE J. TRAIMAN. DANS LA SECONDE PARTIE, ON PROPOSE UNE APPROCHE PROXIMALE POUR RESOUDRE UNE FAMILLE DE PROBLEMES DE LOCALISATION DE TYPE MINIMAX. ON MONTRE QU'UNE REFORMULATION ADEQUATE DU PROBLEME PERMET DE CONSTRUIRE UN SCHEMA DE DUALITE AU SENS DE FENCHEL. ON EN DEDUIT ALORS DES CONDITIONS D'OPTIMALITE QUI PEUVENT ETRE RESOLUES PAR UN ALGORITHME PROXIMAL. CETTE APPROCHE PERMET DE RESOUDRE DES PROBLEMES FAISANT INTERVENIR DES NORMES OU JAUGES MIXTES. ELLE PERMET AUSSI DE PRENDRE EN COMPTE UNE GRANDE VARIETE DE CONTRAINTES CONVEXES ET CONDUIT A DES CALCULS QUI PEUVENT ETRE EFFECTUES EN PARALLELE. LA TROISIEME PARTIE EST CONSACREE A L'ETUDE D'UN ALGORITHME POUR TROUVER UN POINT CRITIQUE D'UNE FONCTION SEMI-CONTINUE INFERIEUVEMENT NON CONVEXE. EN UTILISANT LA MOREAU REGULARISATION AINSI QUE DES RESULTATS SUR LES FONCTIONS COMPOSITES ET SUR LA RESOLUTION DES SYSTEMES D'EQUATIONS NON DIFFERENTIABLES, ON OBTIENT UN ALGORITHME QUI CONVERGE VERS UN POINT CRITIQUE POUR DES FONCTIONS D'UN TYPE PARTICULIER, APPELEES FONCTIONS R-PROX-REGULIERES. ON MONTRE QUE, DANS CERTAINS CAS, LA CONVERGENCE EST SUPERLINEAIRE.

Book M  thodes num  riques pour la r  solution des probl  mes d optimisation avec contraintes

Download or read book M thodes num riques pour la r solution des probl mes d optimisation avec contraintes written by Alfred Auslender and published by . This book was released on 1969 with total page 4 pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book Optimisation

Download or read book Optimisation written by Alfred Auslender and published by . This book was released on 1976 with total page 190 pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book M  thodes num  riques pour la r  solution des probl  mes d optimisation avec contraintes

Download or read book M thodes num riques pour la r solution des probl mes d optimisation avec contraintes written by Alfred Auslender and published by . This book was released on 1969 with total page pages. Available in PDF, EPUB and Kindle. Book excerpt:

Book M  thodes    divergences pour la r  solution de probl  mes de satisfaction de contraintes et d optimisation combinatoire

Download or read book M thodes divergences pour la r solution de probl mes de satisfaction de contraintes et d optimisation combinatoire written by Wafa Karoui and published by . This book was released on 2010 with total page 0 pages. Available in PDF, EPUB and Kindle. Book excerpt: Le formalisme « Problème de Satisfaction de Contraintes » (ou CSP pour Constraint Satisfaction Problem) peut être considéré comme un langage de représentation formelle qui couvre l'ensemble des problèmes dont la modélisation fait intervenir des contraintes. L'intérêt de ce formalisme réside dans l'exploitation de la généricité d'algorithmes de résolution puissants mais également dans la performance d'algorithmes dédiés à des problèmes particuliers.Dans ce travail de thèse, nous étudions la résolution de CSP par des méthodes de recherche arborescente basées sur la notion de « divergence » (une divergence est relative à la contradiction d'une décision proposée par une heuristique de référence). Dans ce cadre, nous proposons de nouveaux mécanismes d'amélioration des méthodes de recherche générales qui exploitent les échecs rencontrés pendant la résolution, en adoptant des heuristiques de pondération des variables et des valeurs. Nous proposons également d'autres techniques spécifiques aux méthodes à base de divergences qui conditionnent l'exploration de l'arbre de recherche développé, notamment la restriction des divergences, les différents modes de comptage ainsi que le positionnement des divergences. Ces propositions sont validées par des expérimentations numériques menées sur des problèmes de satisfaction de contraintes réels et aléatoires. Des comparaisons sont effectuées entre variantes de méthodes à divergences intégrant différentes combinaisons des améliorations et d'autres méthodes connues pour leur performance.Dans une seconde partie, nous étendons nos propositions à un contexte d'optimisation en considérant la résolution de problèmes d'ordonnancement avec contraintes de délais (time lags). Nous traitons l'adaptation d'une méthode de « recherche par montée de divergences » (Climbing Discrepancy Search) pour la résolution de ces problèmes. Nous validons les performances de certaines variantes de cette méthode intégrant les mécanismes proposés dans ce travail sur des problèmes-test de la littérature.

Book Analyse du second ordre de probl  mes d optimisation non diff  rentiable

Download or read book Analyse du second ordre de probl mes d optimisation non diff rentiable written by Roberto Cominetti and published by . This book was released on 1989 with total page 0 pages. Available in PDF, EPUB and Kindle. Book excerpt: L'analyse du second ordre des problèmes d'optimisation non lisse suppose le développement d'un calcul différentiel généralisé approprié. Au niveau des applications de ce développement on traite des questions d'optimalité du second ordre, de la sensibilité et la stabilité des programmes perturbés en l'absence de différentiabilité des solutions et de la différentiabilité première et seconde des différentes multiapplications intervenant en optimisation.

Book Optimisation    deux niveaux

Download or read book Optimisation deux niveaux written by Smaïl Addoune and published by . This book was released on 1994 with total page 198 pages. Available in PDF, EPUB and Kindle. Book excerpt: Notre travail s'est principalement orienté sur une analyse théorique de problèmes d'optimisation à deux niveaux avec une étude d'approximations de problèmes de Stackelberg susceptible de servir de base à des méthodes non heuristiques liées au développement de techniques d'optimisation globale. Dans le chapitre on présente des généralités sur les problèmes d'optimisation à deux niveaux. On donne des exemples permettant de motiver les différentes formulations proposées dans la littérature. L'analyse de la complexité des problèmes d'optimisation à deux niveaux est effectué dans le cas linéaire. Pour cela, on énonce un résultat établi par j. F. Bard que l'on démontre sous des hypothèses plus faibles et de façon plus directe. Le chapitre se termine par la présentation de résultats d'existence. Dans le deuxième chapitre, on s'intéresse à l'étude de conditions nécessaires et suffisantes d'optimalité pour des problèmes d'optimisation à deux niveaux à formulation forte. Dans un premier temps, on commence par l'étude d'une classe de problèmes d'optimisation globale appelés problèmes anti-convexes. On montre ensuite que certains problèmes d'optimisation à deux niveaux peuvent être reformulés en problèmes de la classe ainsi considérée, ce qui nous permet d'en déduire des conditions nécessaires et suffisantes d'optimalité locale. Pour les conditions d'optimalité globale on ne considère que le cas linéaire et on montre que le problème d'optimisation à deux niveaux est équivalent à un problème de maximisation d'une fonction convexe sur un convexe compact. Dans le dernier chapitre, on s'intéresse à des problèmes d'optimisation à deux niveaux à formulation faible. Pour de tels problèmes, il est connu qu'en général les solutions n'existent pas même sous des hypothèses assez fortes, ce qui a conduit à l'introduction d'ensembles de solutions plus grands qui peuvent constituer de bons candidats pour la résolution du problème pose. On étudie ensuite deux procédures de régularisation combinées à une méthode introduite par Molodtsov. Nous présentons alors des résultats nouveaux sur l'approximation de sous-équilibres exacts. Nous donnons pour terminer des résultats de stabilité sous perturbations de données

Book La m  thode des r  sidus conjugu  s pour calculer les directions en optimisation continue

Download or read book La m thode des r sidus conjugu s pour calculer les directions en optimisation continue written by Marie-Ange Dahito and published by . This book was released on 2018 with total page 91 pages. Available in PDF, EPUB and Kindle. Book excerpt: La méthode du gradient conjugué (CG) est une méthode proposée par Hestenes et Stiefel afin de résoudre des systèmes linéaires symétriques et définis positifs. En optimisation non linéaire sans contraintes, on y recourt de manière quasi-systématique pour le calcul des directions. Lorsque la matrice du système n'est pas définie positive, la variante en recherche linéaire proposée par Dembo et Steihaug, et celle de Steihaug en régions de confiance, permettent tout de même d'utiliser CG. La méthode des résidus conjugués (CR) est également proposée par Hestenes et Stiefel pour les cas où la matrice est définie positive. Elle partage avec CG la décroissance monotone du modèle quadratique, ce qui en fait un bon candidat pour les méthodes de région de confiance. De plus, les résidus dans CR décroissent de manière monotone, ce qui est intéressant, en particulier pour les méthodes de type Newton inexact, souvent utilisées en recherche linéaire. Dans cet ouvrage, nous proposons des variantes de CR pour les cas où la matrice n'est pas définie positive et étudions la performance de ces modifications dans des contextes de recherche linéaire et de région de confiance. Pour ce faire, nous comparons la performance de nos algorithmes aux variantes de CG correspondantes. Nous nous intéressons également à CRLS qui est l'équivalent de CR pour les moindres carrés linéaires, et suggérons une modification de cette méthode pour traiter le cas de la courbure nulle. Nos résultats montrent que CR est essentiellement équivalente à CG, et parfois meilleur, notamment pour résoudre les problèmes non convexes. CR présente aussi un léger avantage dans la résolution de problèmes convexes en recherche linéaire. Cette méthode permet souvent d'effectuer moins de produits hessien-vecteur que CG. La résolution des problèmes aux moindres carrés non linéaires montre une équivalence en termes de performance entre LSMR et LSQR qui sont les variantes, construites à partir du processus de Lanczos, de CRLS et CGLS pour résoudre l'équation normale. LSMR montre néanmoins un léger avantage en termes d'évaluation du résidu.

Book Minimization Methods for Non Differentiable Functions

Download or read book Minimization Methods for Non Differentiable Functions written by N.Z. Shor and published by Springer Science & Business Media. This book was released on 2012-12-06 with total page 171 pages. Available in PDF, EPUB and Kindle. Book excerpt: In recent years much attention has been given to the development of auto matic systems of planning, design and control in various branches of the national economy. Quality of decisions is an issue which has come to the forefront, increasing the significance of optimization algorithms in math ematical software packages for al,ltomatic systems of various levels and pur poses. Methods for minimizing functions with discontinuous gradients are gaining in importance and the ~xperts in the computational methods of mathematical programming tend to agree that progress in the development of algorithms for minimizing nonsmooth functions is the key to the con struction of efficient techniques for solving large scale problems. This monograph summarizes to a certain extent fifteen years of the author's work on developing generalized gradient methods for nonsmooth minimization. This work started in the department of economic cybernetics of the Institute of Cybernetics of the Ukrainian Academy of Sciences under the supervision of V.S. Mikhalevich, a member of the Ukrainian Academy of Sciences, in connection with the need for solutions to important, practical problems of optimal planning and design. In Chap. I we describe basic classes of nonsmooth functions that are dif ferentiable almost everywhere, and analyze various ways of defining generalized gradient sets. In Chap. 2 we study in detail various versions of the su bgradient method, show their relation to the methods of Fejer-type approximations and briefly present the fundamentals of e-subgradient methods.

Book The R Book

    Book Details:
  • Author : Michael J. Crawley
  • Publisher : John Wiley & Sons
  • Release : 2007-06-13
  • ISBN : 9780470515068
  • Pages : 953 pages

Download or read book The R Book written by Michael J. Crawley and published by John Wiley & Sons. This book was released on 2007-06-13 with total page 953 pages. Available in PDF, EPUB and Kindle. Book excerpt: The high-level language of R is recognized as one of the mostpowerful and flexible statistical software environments, and israpidly becoming the standard setting for quantitative analysis,statistics and graphics. R provides free access to unrivalledcoverage and cutting-edge applications, enabling the user to applynumerous statistical methods ranging from simple regression to timeseries or multivariate analysis. Building on the success of the author’s bestsellingStatistics: An Introduction using R, The R Book ispacked with worked examples, providing an all inclusive guide to R,ideal for novice and more accomplished users alike. The bookassumes no background in statistics or computing and introduces theadvantages of the R environment, detailing its applications in awide range of disciplines. Provides the first comprehensive reference manual for the Rlanguage, including practical guidance and full coverage of thegraphics facilities. Introduces all the statistical models covered by R, beginningwith simple classical tests such as chi-square and t-test. Proceeds to examine more advance methods, from regression andanalysis of variance, through to generalized linear models,generalized mixed models, time series, spatial statistics,multivariate statistics and much more. The R Book is aimed at undergraduates, postgraduates andprofessionals in science, engineering and medicine. It is alsoideal for students and professionals in statistics, economics,geography and the social sciences.

Book Multiple Criteria Optimization

Download or read book Multiple Criteria Optimization written by Xavier Gandibleux and published by Springer Science & Business Media. This book was released on 2006-04-11 with total page 515 pages. Available in PDF, EPUB and Kindle. Book excerpt: The generalized area of multiple criteria decision making (MCDM) can be defined as the body of methods and procedures by which the concern for multiple conflicting criteria can be formally incorporated into the analytical process. MCDM consists mostly of two branches, multiple criteria optimization and multi-criteria decision analysis (MCDA). While MCDA is typically concerned with multiple criteria problems that have a small number of alternatives often in an environment of uncertainty (location of an airport, type of drug rehabilitation program), multiple criteria optimization is typically directed at problems formulated within a mathematical programming framework, but with a stack of objectives instead of just one (river basin management, engineering component design, product distribution). It is about the most modern treatment of multiple criteria optimization that this book is concerned. I look at this book as a nicely organized and well-rounded presentation of what I view as ”new wave” topics in multiple criteria optimization. Looking back to the origins of MCDM, most people agree that it was not until about the early 1970s that multiple criteria optimization c- gealed as a field. At this time, and for about the following fifteen years, the focus was on theories of multiple objective linear programming that subsume conventional (single criterion) linear programming, algorithms for characterizing the efficient set, theoretical vector-maximum dev- opments, and interactive procedures.

Book Multiscale Problems  Theory  Numerical Approximation And Applications

Download or read book Multiscale Problems Theory Numerical Approximation And Applications written by Alain Damlamian and published by World Scientific. This book was released on 2011-10-13 with total page 314 pages. Available in PDF, EPUB and Kindle. Book excerpt: The focus of this is on the latest developments related to the analysis of problems in which several scales are presented. After a theoretical presentation of the theory of homogenization in the periodic case, the other contributions address a wide range of applications in the fields of elasticity (asymptotic behavior of nonlinear elastic thin structures, modeling of junction of a periodic family of rods with a plate) and fluid mechanics (stationary Navier-Stokes equations in porous media). Other applications concern the modeling of new composites (electromagnetic and piezoelectric materials) and imperfect transmission problems. A detailed approach of numerical finite element methods is also investigated.