CRAN - Campus Sciences
BP 70239 - 54506 VANDOEUVRE Cedex
Tél : +33 (0)3 72 74 52 90 Fax : +33 (0)3 72 74 53 08
cran-secretariat@univ-lorraine.fr
 
 
Archives Congrès, colloques (Evèvenements)
   
24th Mediterranean Conference on Control and Automation, MED'16, June 21-24, 2016, Athens, Greece
3rd Conference on Control and Fault-Tolerant Systems, SysTol'16, September 7-9, 2016, Barcelona, Catalonia, Spain
Photodynamic Therapy and Photodiagnosis update, Nancy, France, 24-28 October, 2016
13th European Workshop on Advanced Control and Diagnosis, ACD 2016, Lille, France, November 17-18, 2016
18ème Colloque Compression et Représentation des Signaux Audiovisuels, CORESA 2016, Nancy, France, 19-20 mai 2016
12th European Workshop on Advanced Control and Diagnosis, ACD 2015, November 19-20, 2015, Pilsen, Czech Republic
10ème Colloque sur la Modélisation des Systèmes Réactifs, MSR 2015, Nancy, France, 18 - 20 novembre 2015
9th IFAC Symposium on Fault Detection, Supervision and Safety for Technical Processes, Safeprocess 2015, September 2-4 2015, Paris, France
23rd Mediterranean Conference on Control & Automation, MED 2015, Torremolinos, Spain, June 16-19, 2015
11ème Congrès International Pluridisciplinaire en Qualité, Sûreté de Fonctionnement et Développement Durable : QUALITA 2015, Nancy, France, 17-19 mars 2015
11th European Workshop on Advanced Control and Diagnosis, ACD 2014, Berlin, Germany, November 13-14, 2014
Modélisation, Optimisation et Simulation: de l'économie linéaire à l'économie circulaire (MOSIM'2014), Nancy, France, 5-7 novembre 2014
2014 IEEE Multi-Conference on Systems and Control, Nice, France, October 8-10, 2014
International Conference on Intelligent Unmanned Systems, ICIUS 2014, Montreal, Quebec, Canada, September 29th - October 1st, 2014
10ème Congrès International Pluridisciplinaire Qualité et Sûreté de Fonctionnement, Qualita'2013, Compiègne, France, 19-22 mars 2013
3rd edition of the International Workshop on Service Orientation in Holonic and Multi Agent Manufacturing and Robotics, Catania, Romania, June 19-21, 2013
5èmes Journées Doctorales / Journées Nationales MACS, Strasbourg, France, 11-12 juillet 2013
2013 European Research Network System Identification worshop (ERNSI), Nancy, France, September 22-25, 2013
2nd International Conference on Control and Fault-Tolerant Systems, SysTol'13, Nice, France, October 9-11, 2013
10th European Workshop on Advanced Control and Diagnosis, ACD 2012 Copenhagen, Denmark, November 8-9, 2012
10th European Workshop on Advanced Control and Diagnosis, ACD 2012 Copenhagen, Denmark, November 8-9, 2012
Quatrième Workshop Surveillance, Sûreté et Sécurité des Grands Systèmes, 3SGS'11, Valenciennes,  France, 12-13 octobre, 2011
Workshop Fault Diagnosis and Fault Tolerant Control in large scale processing industries, Porticcio, France,October 6-7, 2011
2 ème Colloque Inter-Régional Grand-Est de Recherche Translationnelle en Oncologie ( ONCOTRANS 2011), Nancy, 08-09 septembre 2011
IFAC World Congress 2011, Milano, Italy, August 28 - September 2, 2011
Groupe de Travail «UGR - GREATROAD», Nancy - France, 14 Octobre 2010.
Conference on Control and Fault-Tolerant Systems, SysTol'10 Nice, France, October 6-8, 2010
Troisième Workshop Surveillance, Sûreté et Sécurité des Grands Systèmes, 3SGS'10, Reims, 29-30 septembre 2010
Workshop final du projet SIRASAS, Bordeaux, 27 septembre 2010
1st IFAC Workshop on Advanced Maintenance Engineering, Services and Technology, A-MEST'10, Lisbon, Portugal, 1-2 July 2010
18th Mediterranean Conference on Control and Automation, MED '10 Marrakech, Morocco, June 23-25, 2010
Sixième Conférence Internationale Francophone d'Automatique (CIFA 2010), Nancy, France, 2-4 juin 2010
Journée scientifique "Interopérabilité des systèmes d'entreprise" du GIS INTEROP Grande-Région, Nancy, France, 5 mai 2010
5ème Colloque Interdisciplinaire en Instrumentation, C2I 2010,  Le Mans, France, 26-27 janvier 2010
Workshop on identification, environmental modelling and control, December 07, 2009, Melbourne, Australia
7th Workshop on Advanced Control and Diagnosis, ACD 2009, November 19-20, 2009, Zielona Gora, Poland
IFAC/IFIP EI2N'2009 Workshop on Enterprise Integration, Interoperability and Networking, November 3rd-4th, 2009, Vilamoura, Portugal
6ème édition de la conférence STIC & ENVIRONNEMENT, Calais, France, 16-18 juin 2009
Special session on Bayesian Networks in Dependability - IFAC Workshop on Dependable Control of Discrete Systems, Bari, June 10-12, 2009
2nd Workshop Surveillance, Sûreté et Sécurité des Grands Systèmes (3SGS'09), Nancy, France, 3-4 juin 2009
Workshop on Heterogeneity in Control Systems, May 25-26, 2009, Nancy, France
1er Colloque Inter-Régional Grand-Est de Recherche Translationnelle en Oncologie, ONCOTRANS 2009, 19-20 mars 2009, Nancy - Palais des Congrès
3rd International Workshop On Enterprise Integration, Interoperability and Networking (EI2N '08), Monterrey, Mexico, Nov 12 - 13, 2008
16th IEEE Mediterranean Conference on Control and Automation, Ajaccio, France, June 25-27, 2008
1er Workshop du Groupement d'Intérêt Scientifique 'Surveillance, Sûreté, Sécurité des grands systèmes', 3SGS'08, Troyes, France, 4-5 juin 2008
Conférence Internationale de Modélisation, Optimisation et Simulation des Systèmes (MOSIM'08), Paris, France, 31 mars - 2 avril 2008
Forum Académique de l'Association Française d'Ingénierie Système (AFIS'07), Villers-les-Nancy, France, 28-29 novembre 2007
22nd IAR annual meeting, Grenoble, France, November 15-16, 2007
5th Workshop on Advanced Control and Diagnosis, ACD, Grenoble, France, November 15-16, 2007
4ème Colloque Interdisciplinaire en Instrumentation, C2I 2007, Nancy, France, octobre 17-19, 2007
NeCST 2007, 3 rd Workshop on Networked Control Systems : Tolerant to faults, Nancy, France, June 20-21, 2007
Fifth International Conference on Industrial Automation, Montreal , Canada, June 11-13, 2007
International Conference on Industrial Engineering and Systems Management, IESM'07, Beijing, China, May 30-June 2, 2007
Conference on Systems and Control, Marrakech, Morocco, May 16-18, 2007
XXVII° Congrès de la Société Française de Lasers Médicaux,SFLM, Paris, France, Mars 16-17, 2007
Meeting annuel de l'Institut franco-allemand pour les Applications de la Recherche, IAR , Nancy, France, novembre 16-17, 2006
4th Workshop on Advanced Control and Diagnosis, ACD, Nancy, France, November 16-17, 2006
Rencontres francophones sur la Logique Floue et ses Applications, LFA'06 , Toulouse, France, octobre 19-20, 2006
Conférence Internationale Francophone d'Automatique, CIFA, Bordeaux, France, mai 30-Juin 1, 2006
9th IFAC Symposium on Automated Systems Based on Human Skills and Knowledge, Nancy, France, May 22-24, 2006

 

Calendrier de soutenances (thèses, HDR, ...) - séminaires

 

   Date   
  Heure  
Lieu
 
Intitulé
Intervenant(s)
Groupe thématique - contact
Détails
17/12/2013 14h ESSTIN Thèse Observation et détection de mode pour la synchronisation des systèmes chaotiques: une approche unifiée Meriem HALIMI CID Résumé
13/12/2013 14h AIP Lorraine Thèse Contribution à la réduction des pertes d'informations dans l'industrie du bois : Utilisation de la Résonance Quadrupolaire Nucléaire pour l'identification de marqueurs chimiques et de la virtualisation du processus de production pour la détermination de nomenclatures divergentes Jeremy Jover ISET Résumé
11/12/2013 10h15   Thèse Modélisation de causalité et diagnostic des systèmes complexes de grande dimension Ahmed Faghraoui CID Résumé
10/12/2013 14h AIP Lorraine Thèse Apports des connaissances Métiers pour la conception d'un système multi-capteurs de Tri Qualité Billon Benjamin ALMECIJA ISET Résumé
09/12/2013 10h30 Amphi 8 - Faculté des Sciences et Technologies (FST) Thèse Contribution à la Quantification des Programmes de Maintenance Complexes Thomas RUIN ISET Résumé
06/12/2013 10h30 Faculté des Sciences et Technologies Thèse Protocole de session dans les réseaux de capteurs sans fil Said HARCHI ISET Résumé
05/12/2013 13h30 FST Amphi. 5 HDR Contributions au Maintien en Conditions Opérationnelles des Systèmes Complexes et à leur Sureté de Fonctionnement Eric LEVRAT ISET Résumé
02/12/2013 10h30 IUT de Longwy Thèse Stratégies de Commande pour la Navigation Autonome d'un Drone Projectile Miniature Adrien DROUOT CID Résumé
19/12/2013 14h salle de réunion du CRAN sur le site de Brabois Séminaire Méthodes non-linéaires en reconnaissance de formes et prédiction Maya KALLAS CID Résumé
04/12/2013 11h30   Thèse Identification et contrôle de systèmes biologiques. Application à la thérapie photodynamique Jean-Baptiste TYLCZ SBS Résumé
28/11/2013 14 h Amphi 8 à la Faculté des Sciences et Technologies (FST) HDR Algorithmes d'approximation parcimonieuse inspirés d'Orthogonal Least Squares pour les problèmes inverses Charles Soussen SBS Résumé
27/11/2013 10h30 amphithéâtre 7 du deuxième cycle de la Faculté des Sciences et Technologies, Vandoeuvre-lès-Nancy Thèse Déconvolution et séparation d'images hyperspectrales en microscopie Simon Henrot SBS Résumé
25/11/2013 10H30 amphithéâtre HD (Hubert Demange) de l'école d'ingénieur ESSTIN Thèse Contributions à l'estimation paramétrique des modèles décrits par les équations aux dérivées partielles Julien Schorsch CID Résumé
20/11/2013 10h30 salle Gallé dans le bâtiment de la présidence Collegium UL (INPL) Thèse Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application à l'épilepsie Janis HOFMANIS SBS Résumé
14/11/2013     Thèse Annotations sémantiques pour l'intéroperabilité des systèmes dans un environnement PLM Yongxin LIAO ISET Résumé
13/11/2013     Thèse Étude de marqueurs de différenciation testiculaire Sox9 et Amh lors d'un développement normal, d'une inversion sexuelle et d'un développement en absence de cellules germinales chez l'amphibien urodèle Pleurodeles waltl. Intérêt pour la physiologie comparée de la reproduction des vertébrés Imane AL-ASAAD SBS Résumé
07/11/2013     Thèse Nouveaux dérivés de thiazolidinediones : stratégie thérapeutique innovante pour le cancer du sein Christelle Colin-Cassin SBS Résumé
06/11/2013     Thèse Spécification d'exigences physico-physiologiques en ingénierie d'un système support de maintenance aéronautique Romain LIEBER SBS  
25/10/2013 10h INPL salle Gallé Thèse Commande tolérante aux défauts de systèmes non linéaires représentés par des modèles de Takagi-Sugeno Souad BEZZAOUCHA CID Résumé
04/10/2013 14h Esstin, Amphi HD (Hubert Demange) Thèse Identification de Systèmes Dynamiques Hybrides : géométrie, parcimonie, et non-linéarités Van Luong LE CID Résumé
17/09/2013 9h00 amphithéâtre 7 de la Faculté des Sciences et Technologies de Nancy Thèse Décomposition tensorielle de signaux luminescents émis par des biosenseurs bactériens pour l'identification de Systèmes Métaux-Bactéries Fabrice CALAND SBS Résumé (pdf)
05/09/2013 13h Faculté de Médecine Vandoeuvre les Nancy Thèse Sciences de la vie et de la Santé Sébastien GOUY SBS Résumé
09/07/2013 14h amphi Mauduit de l'ENSEM à Nancy Brabois Thèse Modèles de minimisation d'énergies discrètes pour la cartographie cystoscopique Thomas Weibel SBS Résumé
25/06/2013 14h00 salle de réunion CRAN du site fac des sciences - 4ème Séminaire Fault Diagnosis and Fault Tolerant Control using Set-membership Methods: Application to Real Case Studies Pr. Vicenc Puig Cayuela CRAN Abstract
03/06/2013 10h00 salle Gallé, à la présidence du collégium LINP HDR Contributions aux équations généralisées de Riccati et systèmes à commutations Marc JUNGERS CRAN  
31/05/2013 14h15 salle de réunion CRAN du site fac des sciences (salle du 4 étage) Séminaire Potentialisation des effets vasculaires de la thérapie photodynamique interstitielle appliquée aux tumeurs cérébrales Noémie Thomas CRAN Résumé (pdf)
18/04/2013 11h15 Faculté des Sciences, Amphi. 7 (bât. 2nd cycle) Thèse Contribution à la formalisation de bilans/états de santé multi-niveaux d'un système pour aider à la prise de décision en maintenance : agrégation d'indicateurs hétérogènes par l'intégrale de Choquet Bouthaina Abichou ISET Résumé
12/04/2013 14h15 4ème étage du site fac des sciences Séminaire Analyse spatio-temporelle des sources cérébrales grâce à l'imagerie de sources électriques et aux enregistrements simultanés EEG-SEEG Laurent KOESSLER CRAN Résumé
22/03/2013 14h15 4ème étage du site fac des sciences Séminaire Analyse de sensibilité, un ingrédient pour la modélisation Floriane Collin CRAN Résumé
25/02/2013 14h salle de reunion du CRAN a l'ENSEM Séminaire Joint spectral characteristics: a tale of three disciplines Raphael JUNGERS - Professeur à l'Université Catholique de Louvain CRAN Résumé
08/02/2013 14h15 4ème étage du site fac des sciences Séminaire "Planning and learning for nonlinear control" ("Planification et apprentissage pour la commande de systèmes non linéaires") Lucian BUSONIU, chargé de recherche CNRS au CRAN CRAN Résumé
04/02/2013

11h

14h

salle de réunion du CRAN à l'ENSEM Séminaires

The synchronverter: a device for the grid-friendly connection of renewable energy

The convergence property: system theoretic aspects and applications

George Weiss (Tel Aviv University)

Nathan van de Wouw (TU Eindhoven, Pays-Bas)

CRAN

Résumé

Résumé

15/01/2013 14h amphi 7 de la Faculté des Sciences HDR Hormones stéroides et perturbateurs endocriniens dans le développement gonadique et la cancérogenèse Hélène DUMOND SBS Résumé
19/12/2012 15h ESSTIN (amphi Emilie du Châtelet) Séminaire Identifiabilité, Estimation de paramètres et approche algébrique. Applications. Lilianne Denis-Vidal, maître de conférences r l'Université de Lille CRAN Résumé
18/12/2012 10h salle de réunion du CRAN Séminaire Extended Small Gain Theorem with Application to Time-Delay Switched Linear Systems Grace S. DEAECTO CRAN Résumé
14/12/2012 9h00 à 16h00 AIP Lorrain Journée scientifique Journée scientifique GéoSTIC   CRAN Programme
11/12/2012 10h Amphi 5 Campus sciences à Vandoeuvre Conférence De la diversité à des performances dynamiques inattendues Pr. Alain OUSTALOUP (Institut Polytechnique de Bordeaux) CRAN Résumé
10/12/2012 14h00 faculté de médecine de Nancy, salle des thèses 2 Thèse Analyse et modélisation des performances d'un nouveau type de détecteur en médecine nucléaire : du détecteur Anger au détecteur Semi-conducteur Laetitia Imbert IPS Résumé
10/12/2012 13h00 Campus Sciences - Nancy (Bât. 2ème Cycle - Amphi 7) Thèse Contribution à la modélisation et au traitement de l'incertain dans les analyses de risques multidisciplinaires de systèmes industriels - Application à la Source Froide d'une unité de production d'énergie Geoffrey FALLET-FIDRY SURFDIAG Résumé
08/12/2012 10h00 Amphi 1, à l'Ecole Nationale d'Ingénieurs de Monastir - Tunisie Thèse Observation et Commande des Systèmes de Grande Dimension Mejda MANSOURI ACOS Résumé
05/12/2012 14h30 salle de réunion CRAN 4cme Séminaire Second-Order Multidimensional ICA: Theory and Methods Dana Lahat (Faculty of Engineering, Tel Aviv University) CRAN Résumé
05/12/2012 13h30 INPL, salle Gallé Thèse Analyse de stabilité des systèmes à commutations singulièrement perturbés Fouad El Hachemi ACOS Résumé
30/11/2012 14h15 salle de réunion du CRAN au 4cme étage Bilan ACI 2011 Contrôle coopératif des systcmes multi-agents

Séjour de recherche r l'Université de Newcastle, Australie

Étude du conditionnement en séparation de sources cérébrales.

Modélisation de la propagation de la lumicre dans des tissus biologiques traités par thérapie photodynamique interstitielle

Commande événementielle des systcmes nonlinéaires / Estimation d'état de modcles de populations de neurones
Constantin MORARESCU

Marion GILSON

Steven LE CAM

Magalie THOMASSIN

Romain POSTOYAN

CRAN

 
29/11/2012 17h00 salle de réunion du CRAN r l'ENSEM Séminaire Comprendre les mécanismes cérébraux de la reconnaissance des visages par stimulation périodique visuelle rapide Bruno ROSSION CRAN Résumé
27/11/2012 10h30 Amphi 7 (bât. 2nd cycle) Faculté des Sciences Thèse Développement de méthodes d'estimation modale de signaux multidimensionnels. Application à la spectroscopie RMN multidimensionnelle Souleymen Sahnoun IPS Résumé
26/11/2012 10h30 Amphi 5 (bât. 2nd cycle) Faculté des Sciences Thèse Compression d'images dans les réseaux de capteurs sans fil Leila MAKKAOUI SYMPA Résumé
20/11/2012 10h30 Amphi 7 (bât. 2nd cycle) Faculté des Sciences Thèse Behavioral system theoretic approach to fault-tolerant control Tushar JAIN SURFDIAG Résumé
15/11/2012 16h00 ENSEM salle 124 jaune Séminaire Model predictive control of regular and switching max-plus-linear systems Prof. Bart De Schutter (Delft University of Technology) CRAN Résumé
14/11/2012 14h00 salle des thèse n°2 de la faculté de Médecine de Nancy Thèse Localisation du ganglion sentinelle au moyen de nanoparticules fluorescentes émettant dans le proche infrarouge - Application au cancer du sein Marion HELLE IPS Résumé
09/11/2012 14-15H AIPL, Salle 2015 Séminaire Internet of Things and Big Data Challenge Pr. Arkady Zaslavsky (CSIRO, équivalent du CNRS en Australie)  CRAN Résumé
07/11/2012 10h30 Faculté des Sciences, Amphithéâtre 8 (bâtiment 2nd cycle) Thèse Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit Sylvain KUBLER SYMPA Résumé
29/10/2012 14h Faculté de Médecine, Amphithéâtre Lepois Thèse Propriétés photobiologiques de nanoparticules photoactivables utilisées pour le traitement de cancers Vadim RESHETOV IPS Résumé
23/10/2012 14h IUT Nancy-Brabois, Amphi 3 Thèse De l'usage d'architectures Ethernet commutées embarquées dans les lanceurs spatiaux Jérémy ROBERT SYMPA Résumé
12/10/2012 10h30 INPL, salle Gallé Thèse Stabilisation robuste des systèmes affines commutés. Application aux convertisseurs de puissance Pascal Hauroigné ACOS Résumé
03/10/2012 10h30 ESSTIN amphi Emilie du Châtelet Thèse Contrôle, synchronisation et chiffrement Jérémy PARRIAUX ACOS Résumé
27/09/2012 14h Salle de réunion du CRAN r l’ENSEM Séminaire Coordination et robustesse des systcmes dynamiques multi-agents Samuel Martin (Université de Grenoble / LJK) CRAN Résumé

07/09/2012

14h INPL, salle Gallé Thèse Analyse de stabilité et de performances d'une classe de systèmes non-linéaires à commutations en temps discret Carlos Alberto CAVICHIOLI GONZAGA ACOS Résumé
22/06/2012 14h30 INPL, salle Gallé Thèse Problèmes inverses contraints en EEG : applications aux potentiels absolus et à l'influence du signal de référence dans l'analyse de l'EEG Ricardo Antonio SALIDO RUIZ IPS Résumé
19/06/2012 14h INPL, salle Gallé Thèse Quantification des anomalies neurologiques métaboliques et imagerie de sources électriques Christophe PERSON IPS Résumé
13/05/2012 10h15 Fac.Sciences et Techniques (Amphi. 7) HDR Une approche algébrique pour la pratique de l'estimation, du diagnostic, de la commande et de la finance Cédric JOIN SURFDIAG  
30/03/2012     Thèse Diffuse Reflectance Endoscopic Imaging for Bladder Early-Stage Cancer and Pre-Cancer Diagnosis: Instrumentation, Modelling and Experimental Validation Nina KALYAGINA IPS Résumé
19/03/2012 14h30 I.U.T. de Longwy (amphi. 2, bâtiment GEA) Thèse Modélisation, Observation et Commande d'un Drone Miniature à Birotor Coaxial Arnaud KOEHL ACOS Résumé
12/12/2011 10h30 INPL
salle Gallé
Thèse Modélisation d'un parc de machines pour la surveillance. Application aux composants en centrale nucléaire Farah ANKOUD SURFDIAG Résumé
12/12/2011 10h30 AIP Lorrain (salle 215) Thèse Modélisation conjointe des connaissances multi-points de vue d'un système industriel et de son système de soutien pour l'évaluation des stratégies de maintenance Gabriela MEDINA SURFDIAG Résumé
02/12/2011 9h45 Fac.Sciences et Techniques (Amphi. 8) HDR Tolérance active aux fautes des systèmes à base de modèles et Application à un enrouleur de bande Jean-Christophe PONSART SURFDIAG  
14/11/2011 10h IUT de Longwy (amphi 1, bât. GEA) Thèse Observation et commande des systèmes singuliers non linéaires Mohamed ZERROUGUI ACOS Résumé
14/11/2011 14h AIPL (salle de conférences) Thèse Génération de modèles de simulation adaptatifs, pilotée par les trajectoires produits Andrés VEJAR SYMPA  
09/11/ 2011     Thèse Quel niveau de qualité de traitement peut être obtenu par un système d'irradiation robotisé guidé par l'image en radiothérapie (CyberKnife) Mohamed Safa AL KHAWAJA IPS  
28/10/2011 14h Fac.Sciences et Techniques (Amphi. 7) Thèse

Optimisation de la dosiométrie appliquée en thérapie photodynamique pour l'évaluation et la prédiction de l'efficacité du traitement de tumeurs

Julie GARRIER IPS  
20/10/2011 14h CRAN - ENSEM Séminaire Self-triggered control for nonlinear systems Mr  Adolfo ANTA (TU  Berlin) CRAN Résumé
18/10/2011 10h30 Fac.Sciences et Techniques (Amphi. 8) Thèse Conception de l'architecture d'un réseau de capteurs sans fil de grande dimension Cheick-tidjane KONE SYMPA Résumé
14/10/2011 14h30 IUT de Longwy (amphi 1, bât. GEA) Thèse Observation et Commande des Systèmes Linéaires dans les Domaines Temporel et Fréquentiel Montassar EZZINE ACOS Résumé
12/10/2011     Thèse Etude d'un modèle biomécanique des mouvements et déformations des organes pelviens et intégration dans le processus du traitement en radiothérapie externe pour le cancer de la prostate Azad MOHAMMAD IPS  
26/09/2011 15h Huis clos Thèse Traitement photodynamique interstitiel vasculaire stéréotaxique des tumeurs cérébrales guidé par imagerie : intérêt des nanoparticules multifonctionnelles ciblant neuropiline -1. Denise BECHET IPS  
19/09/2011 14h INPL, salle Gallé Thèse Contribution à la cartographie 3D des parois internes de la vessie par cystoscopie à vision active Achraf BEN HAMADOU IPS Résumé
15/09/2011 14h ESIAL Thèse Contribution à l'évaluation de l'interopérabilité sémantique entre systèmes d'information d'entreprises : Application aux systèmes d'information de pilotage de la production Esma YAHIA SYMPA Résumé
09/09/2011 13h30 Huis clos
Ecole de Chirurgie (Fac. Médecine)
Thèse Evaluation de la qualité et transmission en temps réel de vidéos compressées dans un contexte de télé-chirurgie robotisée Nedia NOURI IPS Résumé
19/07/2011 10h30 Fac.Sciences et Techniques (Amphi. 7) Thèse Synthèse intégrée du diagnostic de systèmes contrôlés en réseaux avec contraintes de communication

Hossein HASHEMI NEJAD

SURFDIAG  
11/07/2011 11h15 Fac.Sciences et Techniques (Amphi. 8) Thèse Nouvelle méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des système Ahmed KHELASSI SURFDIAG Résumé
09/07/2011 08h00 Ecole Nationale d'Ingénieurs de Gabès (Tunisie) : salle n°1 de la Bibliothèque Thèse Diagnostic de défauts des systèmes contrôlés via un réseaux Karim CHABIR SURFDIAG  
28/06/2011 13h30 Fac.Sciences et Techniques (Amphi. 8) Thèse Proposition d'un cadre générique de modélisation et de simulation de planifications logistiques dans un contexte de décisions partiellement ou totalement distribuées. Carlos HERRERA SYMPA Résumé
27/05/2011 14h00 INPL, salle Gallé Thèse Synthèse de lois de commande pour les systèmes à commutations avec contraintes de performances Julie MELIN ACOS Résumé
20/04/2011 10h30 Fac.Sciences et Techniques (Amphi. 8) Thèse Diagnostic sans modèle "a priori" Abdouramane MOUSSA ALI SURFDIAG Résumé
07/04/2011 15h Ecole Nationale d'Ingénieurs de Gabès (Tunisie) : salle n°1 de la Bibliothèque Thèse Contribution à la modélisation de produit actif communicant. Spécification et évaluation d'un protocole de communication orienté sécurité des produits Ahmed ZOUINKHI SYMPA  
04/04/2011 11h Loria, salle C05 Thèse Conception conjointe des systèmes contrôlés en réseau sans fil Najet   BOUGHANMI SYMPA Résumé
23/02/2011 14h00 Faculté des Sciences - Université Hassan II Aïn
Chock de Casablanca
Thèse Généralisation du lemme de Gronwall-Bellman pour la stabilisation des systèmes fractionnaires Ibrahima N'DOYE ACOS Résumé
13/01/2011 13h30 INPL Thèse Conception sûre des systèmes mécatroniques intelligents pour des applications critiques Hicham BELHADAOUI SURFDIAG Résumé
11/01/2011 10h30 IUT Longwy amphi 1, bât. GEA Thèse Modélisation et estimation d'état pour la navigation de projectiles Bertrand GRANDVALLET ACOS Résumé
22/12/2010 14h Département de Formation Permanente Fac. médecine, 9 av. forêt de Haye, 54500 Vandoeuvre HDR Etude des Signaux Electrophysiologiques intra-cérébraux et imagerie de source électrique appliquées aux interactions entres les épilepsies et la cognition Louis MAILLARD IPS  
02/12/2010 09h30 ESSTIN - amphi Emilie du Châtelet HDR Contributions aux méthodes de variable instrumentale pour l'identification des systèmes -- Application à la modélisation pluie/débit de bassins versants Marion GILSON-BAGREL IRIS  
26/11/2010 10h INPL Présidence - salle Gallé Thèse Analyse et synthèse de multimodèles pour le diagnostic. Application à une station d'épuration Anca Maria NAGY-KISS
SURFDIAG Résumé
15/11/2010 16h Fac.Sciences et Techniques (Amphi. 7) Thèse Pour une amélioration de la thérapie photodynamique appliquée à la cancérologie : Potentialités des dendrimères poly(amidoamines) et des Quantum Dots CdTe adressés par l'acide folique. Vincent MOROSINI IPS Résumé
15/11/2010 10h30 Campus Sciences Thèse Restauration et séparation de signaux polynômiaux par morceaux Application à la microscopie de force atomique Junbo DUAN IRIS Résumé
15/11/2010 10h30 AIPL Thèse Contribution à la maintenance proactive par la formalisation du
processus de pronostic des performances de systèmes industriels
P.COCHETEUX SYMPA Résumé
15/11/2010 13h30 AIPL Thèse Contribution à la modélisation d'un système de conduite interactive
d'un procédé industriel
D.DOBRE SYMPA Résumé
9/11/2010 10h30

Fac.Sciences et Techniques (Amphi. 7)

Thèse Qualité de service et qualité de contrôle d'un Système Discret Contrôlé en Réseau Sans Fil : proposition d'une approche de co-conception appliquée au standard IEEE 802.11 G.HABIB SYMPA Résumé
21/10/2010 14H00 AIPL, Salle 215 Séminaire Semantic interoperability in supply chain networks Milan ZDRAVKOVIC SYMPA Présentation
21/10/2010 14h INPL ENSEM - amphi Mauduit Thèse Localisation et caractérisation du déroulement de la crise d'épilepsie temporale Hugo VELEZ-PEREZ IPS Résumé
19/10/2010 9h30 Fac.Sciences et Techniques (Amphi. 7) Thèse Contributions à l'identification de modèles paramétriques non linéaires. Application à la modélisation de bassins versants ruraux. Vincent LAURAIN IRIS Résumé
15/10/2010 10h30 Fac.Sciences et Techniques (Amphi. 7) Thèse Propositions de méthodes pour adapter le réseau aux contraintes d'applications
temps-réel
Idriss DIOURI SYMPA Résumé
23/09/2010 10h00 Fac.Sciences et Techniques (Amphi. 7) Thèse Commandes coopératives embarquées et tolérantes aux défauts Kamel MENIGHED SURFDIAG Résumé
5/07/2010 14h00 INPL Thèse Réconciliation de données en présence d'incertitudes de modèle. 
Application au convertisseur à oxygène.
Julien  FRANCKEN SURFDIAG Résumé
22/06/2010 9h30 Fac.Sciences et Techniques (Amphi. 7). Thèse

Analyses de sensibilité et d'identifiabilité globales. Application à l'estimation des paramètres en thérapie photodynamique

S.DOBRE IRIS Résumé
17/06/2010 14h15 - 16h15 Salle 110 - AIPL Séminaire Safety and fault-tolerant control systems in nuclear power plants Prof. Jin JIANG CRAN Résumé
04/06/2010 11h INPL, salle Daum HDR Contribution à la commande des systèmes complexes Pierre RIEDINGER ACOS  
24/02/2010 14h INPL, salle Gallé
Thèse Contribution à la détection et à l'analyse des signaux EEG épileptiques : débruitage et séparation de sources Rebeca ROMO VAZQUEZ IPS Résumé
07/12/2009 11h faculté de médecine de la Timone (MARSEILLE) Thèse Bases neurophysiologiques de la mémoire de reconnaissance verbale et visuelle étudiées à partir des potentiels évoqués de surface et intra-cérébraux Louis MAILLARD IPS  
24/11/2009 11h Salle Gallée - INPL Présidence Thèse Estimation et diagnostic des systèmes non linéaires décrits par des modèles de Takagi-Sugeno Dalil ICHALAL SURFDIAG Résumé
16/11/2009 14h30 Salle Gallée - INPL Présidence Thèse Spectroscopie optique multi-modalités in vivo : instrumentation, extraction et classification diagnostique de tissus sains et hyperplasiques cutanés Gilberto DIAZ-AYIL IPS Résumé
13/11/2009 13h30 amphi. Mauduit ENSEM Thèse Sur les systèmes à commutation à deux échelles de temps: Une application au
contrôle de guidage de bande dans un laminoir à chaud
Ivan MALLOCCI ACOS Résumé
13/11/2009 10h30 Politecnico di Bari, DIMeG, Viale Japigia, 182,
70126 Bari, Italie
Thèse Approche basée sur les ontologies pour l'interopérabilité centrée sur le
produit des systèmes d'entreprise de production
Angela TURSI SYMPA Résumé
12/11/2009 10h Amphi Cugnot (2e étage, Bât. C, ESSTIN) Thèse Théorie du contrôle et systèmes hybrides dans un contexte cryptographique Phuoc VO TAN ACOS Résumé
10/11/2009 11h amphi.8 Fac.S&T Thèse Étude des propriétés structurelles d'observabilité et de diagnosticabilité des systèmes bilinéaires par approche graphique Sébastien CANITROT SURFDIAG Résumé
03/11/2009 10h CAV, salle 132 Thèse Localisation des ganglions sentinelles au moyen de quantum dots. Application au cancer du sein Emilie PIC IPS Résumé
15/07/2009 14h   Thèse Contribution à la prise de décision dynamique en maintenance
prévisionnelle par formalisation d'un principe d'opportunité
Édouard THOMAS SYMPA Résumé
13/07/2009 14h salle 132, CAV Thèse Propriétés photophysiques et photobiologiques des formes liposomales de la mTHPC D. Kachatkou IPS Résumé
23/06/2009 13h30 Fac. S&T
amphi. 8
Thèse Transmission d'images sur les réseaux de capteurs sans fil
sous la contrainte de l'énergie
Cristian Duran-Faundez SYMPA Résumé
24/06/2009 14h l'amphi NC ESSTIN Thèse Optimisation des architectures IP/MPLS de transport mutualisé Olivier FERVEUR SYMPA Résumé
28/05/2009 11h Fac. S&T
amphi. 8
Thèse Contribution à la formalisation unifiée des connaissances fonctionnelles et organisationnelles d'un système industriel en vue d'une évaluation quantitative des risques et de l'impact des barrières envisagées
Aurélie LEGER SYMPA, SURFDIAG Résumé
19/05/2009 14h salle 132 CAV Thèse Corrélation entre les performances physiques mesurées des détecteurs et la qualité diagnostique de l'image en mammographie numérique Hector PEREZ-PONCE IPS Résumé
30/03/2009 14h salle Gallé (2ème étage, bâtiment de  la présidence de l'INPL) Thèse Evaluation par simulation de la Sûreté de Fonctionnement de systèmes en contexte dynamique hybride Gabriel Antonio PEREZ CASTANEDA  SURFDIAG Résumé
11/03/2009   ESIAL séminaire Modélisation d'entreprise, Interopérabilité et Systèmes de systèmes   SYMPA Présentations
11/03/2009 10h30 amphi SUD ESIAL   Proposition d’un cadre de modélisation multi-échelles d’un Système d’Information en entreprise centré sur le produit

Jean-Philippe Auzelle

SYMPA Résumé
06/03/2009 14h salle des thèses n°1 de la Faculté de Médecine de Nancy Université   Étude des mécanismes régissant l’efficacité photodynamique sélective de l’Héxylaminolévulinate-Protoporphyrine IX dans le traitement du cancer de la vessie. Application dans le cadre de la prévention de ses récidives Saoussen Berrahmoune IPS  
06/02/2009 11h salle gallé (niveau 2) du
bâtiment de la présidence de l'INPL
Thèse Pilotage des cycles limites dans les systèmes dynamiques hybrides.
Application aux alimentations électriques statiques.
Diego Alejandro PATINO GUEVARA ACOS Résumé
02/02/2009 10h45 Faculté des Sciences et Techniques, amphithéâtre 14 du bâtiment du premier cycle Thèse Contribution à la Tolérance aux Défauts des Systèmes Linéaires : Synthèse de Méthodes d'Accommodation Fondée sur l'Information du Second Ordre Brian Manuel GONZALEZ-CONTRERAS
SURFDIAG Résumé
30/01/2009 14h salle des thèses n°1 de la Faculté de Médecine de Nancy Université Thèse Thérapie photodynamique ciblant la vascularisation tumorale par l'adressage du co-récepteur neuropiline-1 : Vers l'élaboration de peptides biologiquement plus stables Noémie Thomas IPS  
11/12/2008 14h salle Gallé à la
présidence de l'INPL
Thèse Diagnostic de fonctionnement par analyse en composantes principales : Application à une station de traitement des eaux usées Yvon Tharrault SURFDIAG Résumé
08/12/2008 10h-17h salle de conférences du LCPME Atelier CRAN/LCPME Nouvelles approches dans le traitement des signaux spectroscopiques   Sebastian Miron Programme
05/12/2008 14h salle 132 du Centre Alexis Vautrin (Avenue de Bourgogne, Brabois, Vandoeuvre) HDR Spectro-imagerie optique UV-Visible: approche multimodale et caractérisation de tissus biologiques in vivo appliquées au photodiagnostic en cancérologie Walter BLONDEL IPS  
02/12/2008 14h salle Gallé à la présidence de l'INPL Thèse Étude des concepts de filtrage robuste aux méconnaissances de modèle et aux pertes de mesures. Application aux systèmes de navigation Vincent SIRCOULOMB SURFDIAG Résumé
19/11/2008 15h00 amphithéâtre "Sud" de
l'ESIAL
Thèse Approche méthodologique pour  l'intégration des systèmes contrôlés par le produit dans un environnement de juste-à-temps:
Application à l'entreprise TRANE
Hind EL HAOUZI SYMPA Résumé
14/11/2008 10h00 salle Capelle à l'ENSEM (INPL) Thèse Contribution à l'évaluation de la sûreté de fonctionnement des systèmes
instrumentés de sécurité intégrant de l'intelligence
Abdelhak MKHIDA SURFDIAG Résumé
14/11/2008 10h00 amphi. 2 bât. GEA-IUT de Longwy Thèse Estimation de l'état des systèmes non linéaires à temps discret. Application à une station d'épuration Boulaïd BOULKROUNE ACOS Résumé
14/11/2008 10h00 amphi. 2 bât. GEA-IUT de Longwy Thèse Observateurs et commande basée sur un observateur pour les systèmes bilinéaires Benjamin GERARD ACOS Résumé
13/11/2008 14h00 INPL-ENSEM Thèse Pour une Meilleure Approche du Management des Risques :
De la Modélisation Ontologique du Processus Accidentel au Système
Interactif d'Aide à la Décision
Mohamed-Habib MAZOUNI SURFDIAG Résumé
10/11/2008 11h00 Grand Amphithéâtre de
l'ENSTIB à Epinal
Thèse Le kanban actif pour assurer l'intéropérabilité décisionnelle
centralisé/distribué
Application à un industriel de l'ameublement
Thomas KLEIN SYMPA Résumé
08/11/2008 09h00 amphithéâtre 6 de l'Ecole Nationale d'Ingénieurs de Sfax - Tunisie Thèse Gestion dynamique des topologies sans fils Issam JABRI SYMPA Résumé
07/11/2008 13h30 salle 132, Centre Alexis Vautrin Thèse Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des contrôles qualité par la Maîtrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) Karine GERARD IPS Résumé
06/11/2008 10h salle IRIS, Centre de
documentation de Brabois (Bibliothèque de l'INPL)
Thèse Contribution à l'estimation d'état et au diagnostic des systèmes
représentés par des multimodèles
Rodolfo ORJUELA SURFDIAG Résumé
21/10/2008     Thèse   Muriel ABBACI IPS  
09/10/2008 08h45-16h Salle de Conférence
AIP Lorraine (http://www.aip-primeca.net/aipl)
745, Rue du Jardin Botanique
54600 VILLERS LES NANCY
séminaire Systèmes Embarqués Communicants Tolérants Aux Fautes dans le cadre du Contrat de Plan Etat-Région MISN 3S - Projet
SECTAF (http://www.cper-misn-sectaf.cran.uhp-nancy.fr/)
Didier THEILLIOL Abbas DANDACHE
François PECHEUX
Fabrice MONTEIRO
Guy JUANOLE
Joseph YAME
J.P. RICHARD
J.P. GEORGES
CRAN programme
07/10/2008 13h30 salle 132 du Centre Alexis Vautrin thèse Diagnostic du cancer de la peau par spectroscopie optique Marine AMOUROUX IPS  
02/10/2008 10h

amphi G à l'ENSG
pot à 16h15 salle 124 jaune à l'ENSEM

HDR Contribution au traitement et à l'analyse des signaux issus de processus physiologiques Valérie LOUIS-DORR IPS Résumé
01/10/2008 14h amphi Hubert Demange (HD), 1er étage, bât. A de l'ESSTIN Thèse Machines à vecteurs de support et identification de systèmes hybrides Fabien Lauer ACOS Résumé
29/09/2008 10h Salle Gallé, bâtiment de la présidence de l'INPL HDR Segmentation, recalage reconstruction 3D de données.
Traitement d'images médicales et industrielles.
Christian DAUL IPS

Résumé

17/07/2008 10h30   thèse Contribution à la vérification d'exigences de sécuité : Application au domaine de la machine industrielle Dominique EVROT SYMPA Résumé
01/07/2008 14h30

amphi. 8
Fac. S&T

thèse Modélisation du soudage MIG/MAG en mode short-arc Jean-Pierre PLANCKAERT IRIS Résumé
27/06/2008 14h30 salle des thèses n°1 de la
Faculté de Médecine
thèse
Stratégies pro-apoptotiques appliquées au traitement photodynamique avec
le Foscan de modèles précliniques d'adénocarcinome humain
Sophie Marchal IPS Résumé
20/06/2008 11h Amphi. 8 de la faculté des sciences et techniques HDR Modélisation Expérimentale des Systèmes Dynamiques Interconnectés - Applications en Biologie Systémique Thierry BASTOGNE IRIS Résumé
18/06/2008 10h30 Amphi. 8 de la faculté des sciences et techniques HDR Analyse structurelle par approche graphique des propriétés
d'observabilité et de diagnostic des systèmes linéaires et bilinéaires
Taha BOUKHOBZA SURFDIAG Résumé
12/06/2008 10h ENSEM, salle Solvay Thèse
Influence des fautes transitoires sur la fiabilité des systèmes commandés en réseau
Rony GHOSTINE SURFDIAG Résumé
27/05/2008 10h30   Thèse
Analyse des propriétés structurelles d'observabilité de l'état et de l'entrée inconnue des systèmes linéaires par approche graphique.
Sinuhé MARTINEZ MARTINEZ SURFDIAG Résumé
07/03/2008 11h amphi. 8 de la faculté des sciences et techniques Thèse
Modèles Probabilistes de Séquences Temporelles et Fusion de Décisions. Application à la Classification de Défauts de Rails et à leur Maintenance
Abdeljabbar Ben Salem SURFDIAG Résumé
06/03/2008 11h amphi. 8 de la faculté des sciences et techniques Thèse
Contribution méthodologique à la maîtrise conjointe de la qualité d'un produit et de ses processus de production par une modélisation des concepts qualité
Salah DEEB SYMPA Résumé
19/12/2007 14h ESIAL
amphi Sud
HDR Méthodes et modèles pour un processus sûr d'automatisation Jean-François Pétin    
10/12/2007 10h45 Faculté des Sciences (Amphi. 8) HDR Quantification vectorielle algébrique : un outil performant pour la compression et le tatouage d'images fixes Jean-Marie MOUREAUX    
05/12/2007 10h30 amphi 8,
Faculté des sciences et techniques
Thèse Proposition d'une approche intégrée basée sur les réseaux de Petri de haut
niveau pour simuler et évaluer les systèmes contrôlés en réseau
Belynda Brahimi   Résumé
04/12/2007 10h30

amphi 8,
Faculté des sciences et techniques

Thèse Contributions à l'identification de modèles avec des erreurs en les variables Stéphane Thil    
27/11/2007 14h amphi 11, 1er cycle Faculté des sciences Thèse Amélioration de la mesure de la bande passante dans un réseau basé sur IP Ahmed AIT-ALI   Résumé
21/11/2007 13h30 Salle Gallé,
Présidence INPL
2 avenue forêt de Haye
Thèse Stabilité et commande robuste des systèmes à commutation Laurentiu HETEL   Résumé
14/11/2007     Thèse Proposition d'un cadre de modélisation pour les applications PLM : Application à la gestion de configurations

Souheil ZINA

   
31/10/2007     Thèse Spectroscopie bimodale en diffusion élastique et  autofluorescence résolue spatialement : instrumentation, modélisation des interactions lumière-tissus et application à la caractérisation de tissus biologiques ex vivo et in vivo pour la détection de cancers Emilie PERY   Résumé
30/10/2007     Thèse Diagnostic des systèmes linéaires en boucle fermée Hamid BAIKECHE   Résumé
22/10/2007 14h00   Thèse Construction rapide d'images panoramiques applicables à l'exploration cystoscopique et à l'endoscopie de fluorescence en cancérologie Yahir HERNANDE-MIER   Résumé
19/10/2007 14h00 Amphi G à l'ENSG Thèse Evaluation des paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité Mohamed SALLAK   Résumé
19/10/2007 13h30 CAV, salle 132 Thèse Apport de la modulation d'intensité et de l'optimisation pour délivrer une dose adaptée aux hétérogénéités biologiques Fleur KUBS   Résumé
28/09/2007 15h AIPL, Salle 215 Thèse Contribution au Système d'Information d'un Produit "Bois". Appariement automatique de pièces de bois selon des critères de couleur et de texture. Emmanuel SCHMITT   Résumé
18/07/2007 14h   Thèse Evaluation et Pilotage des Flux Manufacturiers: Réflexions et
Propositions
Khaled ALKASSEM   Résumé
13/07/2007 10h30   Thèse Transport à fiabilité partielle d'images compressées sur les  réseaux à commutation de paquets Thomas HOLL   Résumé
13/07/2007 14h   Thèse Proposition d'un environnement de modélisation et de test d'architectures de pilotage par le produit Rémi PANNEQUIN   Résumé
27/06/2007 10h30   Thèse Spécifications de fonctions pour un système d'aide à la génération automatique de gamme d'usinage : Application aux pièces aéronautiques de structure, prototype logiciel dans le cadre du projet RNTL USIQUICK Ramy Farid HARIK   Résumé
18/06/2007 10h30   Thèse DEPNET: Une approche support au processus de gestion de conflits basée sur la gestion des données de conception Mohamed Zied OUERTANI   Résumé
06/03/2007 16H30   Thèse Ciblage de la neuropiline-1, co-récepteur du VEGF, pour potentialiser l'effet anti-vasculaire de la Thérapie Photodynamique Loraine TIRAND    
20/02/2007     Thèse Contribution aux systèmes tolérants aux défauts : Synthèse d'une méthode de reconfiguration et/ou restructuration intégrant la fiabilité des composants Fateh Guenab    
25/01/2007     Thèse Validation de données débitmétriques issues de réseaux d'assainissement Farida HAMIOUD   Résumé
20/12/2006     Thèse Diagnostic à base de modèle : application à un moteur diesel suralimenté à injection directe Zahi SABEH   Résumé
14/12/2006     Séminaire Systèmes à Sauts Professeur El-Kebir Boukas
(Ecole Polytechnique de Montreal)
   
13/12/2006     Thèse Systèmes tolérants aux défauts : analyse et synthèse stochastiques Samir ABERKANE   Résumé
13/12/2006     Thèse Contributions en compression d'images médicales 3D et d'images naturelles 2D Yann GAUDEAU    
08/12/2006     Thèse
Estimation d'état et diagnostic de systèmes à commutation par filtrage multimodèle
Abdelfettah HOCINE   Résumé
07/12/2006     Thèse
Interopérabilité Dirigée par les Modèles :
Une Approche Orientée Produit pour l'interopérabilité des systèmes
d'entreprise.
Salah BAINA    
04/12/2006     HDR
Meta-Modèles et Modèles pour l'Intégration et l'Interopérabilité des Applications d'Entreprises de Production
Hervé PANETTO    
28/11/2006     Thèse
Contribution sur la synthèse d'observateurs pour les systèmes dynamiques hybrides
Abderazik BIROUCHE    
17/11/2006     Thèse
Contribution à la modélisation et à la commande des systèmes électrohydrauliques
Mohamed TAFRAOUTI   Résumé
26/10/2006     Thèse Estimation de l'état et des entrées inconnues pour une classe de systèmes non linéaires Estelle CHERRIER   Résumé
23/10/2006     Thèse
Etude des interactions du photosensibilisant méta-tétra (hydroxyphényl) chlorine avec les protéines de plasma et les cellules
Siarhei SASNOUSKI   Résumé
09/10/2006     HDR Contribution de la Modélisation Informationnelle aux Processus de Conception et Réalisation de Produits Manufacturiers : vers une Ontologie Métier Muriel LOMBARD    
06/10/2006     Thèse Diagnostic des systèmes à changement de régime Elom Ayih DOMLAN   Résumé
05/10/2006     Thèse Analyse automatique des crises d'épilepsie du lobe temporal à partir des EEG de surface Matthieu CAPAROS   Résumé
18/07/2006     Thèse Contribution à la Modélisation et à la Gestion des Interactions
Produit-Processus dans la Chaîne Logistique par l'Approche Produits
Communicants
Aldo CEA   Résumé
12/07/2006     Thèse Systèmes dynamiques chaotiques pour le chiffrement : synthèse et cryptanalyse Floriane ANSTETT   Résumé
20/06/2006     Thèse

Imagerie cardiaque multimodalités 2D et 3D : application à la coronarographie, tomoscintigraphie, TEP-CT

Juan Manuel LOPEZ HERNANDEZ   Résumé
14/06/2006     Thèse

Architecture de coopération de réseaux sans fil

Davy DARCHE   Résumé
22/12/2005
    Thèse
Interactions commande-diagnostic. Application à la synthèse simultanée des algorithmes de commande et de détection des défauts.
Philippe JACQUES   Résumé
12/12/2005     Thèse
Filtrage robuste pour les systèmes stochastiques incertains
Souheil HALABI   Résumé
07/12/2005     Thèse Séparation de sources non-négatives. Application au traitement des signaux de spectroscopie Saïd MOUSSAOUI   Résumé
06/12/2005     Thèse

Contribution à la mise en place d'un système multi-capteurs pour la surveillance des eaux de surface : fusion de données et aide à la décision

Ameziane AZZAM
  Résumé
06/12/2005     Thèse
Diagnostic et commande active tolérante aux défauts appliqués aux systèmes décrits par des multi-modèles linéaires
Mickaël RODRIGUES   Résumé

05/12/2005

    Thèse Sur l'observation et la commande des systèmes dynamiques linéaires à retards Adil ALIF  

Résumé

01/12/2005     Thèse
développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies
Vincent MAZET   Résumé
28/12/2005
    Thèse
Méthodologie de passage d'un modèle CAO vers un modèle FAO pour des pièces aéronautiques - Prototype logiciel dans le cadre du projet USIQUICK
William DERIGENT   Résumé
17/11/2005     Thèse Approche biométrique pour l'identification automatique des produits bois Cecilia FUENTEALBA   Résumé
04/11/2005     Thèse
Systèmes contrôlés en réseau : Evaluation de performances d'architectures Ethernet commutées
Jean-Philippe GEOGES   Résumé
27/10/2005     Thèse
Contribution à un modèle d'évaluation quantitative des performances fiabilistes de fonctions électroniques et programmables dédiées à la sécurité
Karim HAMIDI   Résumé
09/09/2005     Thèse
Proposition d'un modèle de désagrégation pour un plan tactique stable dans le contexte des chaînes logistiques et de l'usage d'un APS
Virna A. ORTIZ ARAYA   Résumé
02/09/2005     Thèse
"Définition d'un système de dosimétrie tridimensionnel en curiethérapie à débit de dose pulsé"
Faten AL AHMAD   Résumé
19/07/2005  
DUR Post-Doctoral "Analysis of Process Modelling Languages for Enterprise Interoperability" Petia Wohed   Abstract
22/06/2005     Thèse

"Estimation de retard dans des conditions expérimentales passives - Application à l'identification de bief de rivière"

Magalie THOMASSIN   Résumé
07/06/2005
    Thèse
"Contribution à la maintenance prévisionnelle des systèmes de production par la formalisation d’un processus de pronostic"
Alexandre MULLER   Résumé
16/12/2004     Thèse
"Conception d'observateurs non linéaires par approche multimodèle : application au diagnostic "
Abdelkader AKHENAK   Résumé
16/12/2004
    HDR
Sûreté de fonctionnement de systèmes d'automatisation à intelligence distribuée
Jean-Marc THIRIET   Résumé
15/12/2004     Thèse
"Identification par les techniques des sous-espaces - Application au diagnostic"
Komi Midzodzi PEKPE   Résumé
14/12/2004     Thèse "Définition d’un cadre pour l’organisation et l’évaluation des activités du travail coopératif" Michael DAVID   Résumé
10/12/2004     Thèse
"Modélisation et simulation de la logistique d'approvisionnement dans l'industrie automobile Application à un grand constructeur"
Alexandre VILLEMINOT   Résumé
06/12/2004
    Thèse

"Contrôle par le produit des systèmes d'exécution de la production : apport des techniques de synthèse"

David GOUYON  

Résumé

17/11/2004     HDR
Les observateurs polytopiques pour la synchronisation du chaos des systèmes à temps discret
Gilles MILLERIOUX   Résumé
05/11/2004     Thèse
"Commande basée sur des observateurs pour les systèmes non-linéaires en temps discret"
Kheïr Eddine BOUAZZA   Résumé
26/10/2004     Thèse
"Définition d'une méthodologie de Conception des Systèmes Mécatroniques Sûrs de Fonctionnement"
Raphaël SCHOENIG   Résumé
05/07/2004     Thèse
"Aide au diagnostic cardio-vasculaire par la superposition en 2D et 3D des images de coronarographie et de tomoscintigraphie. Segmentation de l'arbre coronaire et reconstruction 3D"
Gaelle VALET   Résumé
25/06/2004

 

    Thèse
"Contribution à l'automatisation du processus d'acquisition de formes complexes à l'aide d'un capteur laser plan en vue de leur contrôle géométrique"
Sébastien REMY   Résumé

 

24/06/2004

 

    HDR
"Contribution à la stabilisation des systèmes LPV et des systèmes linéaires à commutation"
Jamal DAAFOUZ   Résumé

 

"Observation et détection de mode pour la synchronisation des systèmes chaotiques: une approche unifiée"
(Thèse Meriem HALIMI)

Résumé:

Le travail développé dans ce manuscrit porte sur la synchronisation des systèmes chaotiques. Il est articulé autour de deux axes principaux : la synthèse d'observateur et la détection de mode. Dans un premier temps, quelques rappels sur le chaos et les principales architectures de systèmes de chiffrement chaotiques sont effectués. Ensuite, nous montrons comment les systèmes chaotiques à non linéarité polynomiale ou affines à commutation peuvent se réécrire sous forme LPV polytopique. Une revue des principaux résultats sur la synthèse d'observateurs LPV polytopiques reposant sur l'utilisation des LMI est faite. Une extension des résultats aux observateurs polytopiques à entrées inconnues, à la fois dans le cas déterministe, bruité ou incertain est proposée. Ces observateurs assurent la synchronisation du chaos et donc le déchiffrement dans les systèmes de chiffrement "modulation paramétrique", "commutation chaotique", "transmission à deux canaux" et "chiffrement par inclusion". Pour les systèmes affines à commutation utilisés en tant que générateur du chaos, le cas où l'état discret n'est pas accessible est considéré. Une présentation unifiée des méthodes fondées sur les espaces de parité, proposées dans la littérature pour les systèmes linéaires et affines à commutation à temps discret, est réalisée. Le problème de discernabilité fait l'objet d'une étude approfondie. Une approche pour estimer les retards variables des systèmes affines et affines à commutation à temps discret, formulée en termes de détection de mode, est proposée en tant que solution à l'estimation de retard pour le chiffrement par injection de retard.

Mots-clés :synchronisation,systèmes chaotiques,observateurs polytopiques,détection de mode,systèmes à retard

Composition du jury
M. Noureddine MANAMANNI     CReSTIC, Universitté de Reims Champagne Ardenne, Reims   Rapporteur
M. Krishna BUSAWON     NCRLab, Northumbria University, Royaume-Uni   Rapporteur
M. Olivier BACHELIER     LIAS, IUT Université de Poitiers, Poitiers   Examinateur
M. Laurent LARGER     FEMTO-ST, Université de Franche-Comté, Besançon   Examinateur
M. Gilles MILLERIOUX     ESSTIN, Université de Lorraine   Directeur de thèse
M. Jamal  DAAFOUZ     INPL-ENSEM, Université de Lorraine   CoDirecteur de thèse

"Contribution à la réduction des pertes d'informations dans l'industrie du bois : Utilisation de la Résonance Quadrupolaire Nucléaire pour l'identification de marqueurs chimiques et de la virtualisation du processus de production pour la détermination de nomenclatures divergentes"
(Thèse Jeremy Jover)

Résumé :  
La conservation des informations dans les industries dont le processus de transformation est divergent a toujours induit d'importantes contraintes, et en particulier dans l'industrie du bois. Les solutions de traçabilité existant à l'heure actuelle ne permettent pas de conserver ces informations tout au long du cycle de vie du produit bois. L'objectif de cette thèse est de montrer la faisabilité de deux concepts contribuant à la conservation de l'information : le paradigme de matière communicante et le paradigme de Virtual Manufacturing. Avec le premier, il est possible de conserver les informations relatives à l'origine du produit par l'intermédiaire d'un marquage chimique appliqué à l'ensemble de la matière, lequel marquage sera identifié par Résonance Quadrupolaire Nucléaire. Dans le deuxième paradigme nous anticipons l'évaluation des caractéristiques des produits finaux en numérisant la matière et en virtualisant les opérations de transformation. Grâce à cela, il est possible de déterminer les caractéristiques des produits réels en prenant en compte l'imperfection des données et des décisions.

Mots-clés : Pertes d'informations, nomenclature divergente, marquage dans la masse, Résonance Quadrupolaire Nucléaire, tomographie RX, virtual manufacturing

Rapporteurs :
Mme. Valérie BOTTA-GENOULAZ, Professeur INSA LYON, DISP
M. Jean-Baptiste D'ESPINOSE, Maître de conférence habilité ESPCI, Science et Ingénierie de la Matière Molle (SIMM)
Examinateurs :
M. Jonathan GAUDREAULT, Professeur Université LAVAL, Consortium FORAC
M. André THOMAS, Professeur CRAN, Université de Lorraine
M. Daniel CANET, Professeur Emérite Institut Jean Barriol, Université de Lorraine
M. Vincent BOMBARDIER, Maître de conférence CRAN, Université de Lorraine

"Modélisation de causalité et diagnostic des systèmes complexes de grande dimension"
(Thèse Ahmed Faghraoui)

Résumé :

Cette thèse s'inscrit dans le cadre du projet européen PAPYRUS (7th FWP (Seventh Framework Program) et concerne le développement de modèles et d'outils permettant l'analyse d'un procédé industriel en interaction avec les indicateurs des performances du système. Ainsi que la synthèse d'algorithmes "Plug & Play" de diagnostic de défauts.

Plus précisément, le premier objectif de la thèse est de proposer des modèles et des critères qui permettent, pour un procédé complexe de grande dimension, de savoir si des objectifs, exprimés en termes de performances (coût, de sûreté de fonctionnement, etc.), sont atteignables.

Dans le cadre de la modélisation de causalité du système,  une méthode, basée sur le transfert entropie, est proposée afin d'identifier le modèle de causalité du système à partir des données.

On s'intéressera aussi à l'influence de divers défauts sur cette atteignabilité. Les outils utilisés sont principalement basés sur l'analyse par approche graphique (graphe de causalité) conjointement avec des outils statistiques.

Le second objectif concerne la mise en oeuvre d'algorithmes de diagnostic de défauts. Une procédure hiérarchique de diagnostic de défauts s'appuyant sur les modèles de causalité du système est mise en oeuvre. Cette étape a aussi pour objectif de permettre l'évaluation des performances du système.

La cible est le procédé d'application du projet PAPYRUS (papeterie Stora Enso d'IMATRA en Finlande).

Mots clé: Graphe de causalité, Transfert entropie, Diagnostic plug & play, Pronostic, indicateurs des performances, Système de grande dimension.

Composition du jury :

Rapporteurs :
M. Rochdi MERZOUKI, Professeur de l'Université de Lille 1
M. Boutaib DAHHOU, Professeur de l'Université de Toulouse 3
Examinateurs :
M. BENOIT MARX, Maitre de conférence de l'Université de Lorraine 
M. Maxime MONNIN, RESPONSABLE PROJETS R&D à Prédict
M. Nadhir MESSAI, Maitre de conférence de l'University de Reims

"Protocole de session dans les réseaux de capteurs sans fil"
(Thèse Said HARCHI)

Résumé :

Les réseaux de capteurs sans fils sont de plus en plus utilisés dans des applications de surveillance de grands systèmes (feux de forêt, gaz dans les galeries minières, éthologie, …). Une caractéristique de ces applications est que la topologie du réseau va être dynamique : soit les capteurs sont géographiquement mobiles (dispersion d'une nappe de pétrole), soit les conditions environnementales évoluent et modifient les capacités de communication des capteurs entre eux.

Aussi, d'un système connexe, on peut évoluer vers un système clustérisé qui présente une rupture de la connectivité globale, et donc du système d'information. Une solution consiste à utiliser un (ou des) collecteur(s) des mesures (par exemple un robot mobile) qui va rétablir une connectivité discrète pour reconstituer à des échéances fixes un système d'information cohérent.

Nous avons proposé un algorithme de clustering du réseau de capteurs sans fils adapté à la dynamique de sa topologie. La métrique choisie prend en compte la densité et la mobilité des nœuds, ainsi que leur énergie résiduelle.  Ensuite, nous avons conçu un protocole de couche session permettant au collecteur de reconstruire le contexte de communication avec les clusters précédemment visités, sachant qu'ils ont pu évoluer en nombre, dispersion, fusion, … Pour ce faire, il faut générer dynamiquement une trajectoire optimale du collecteur, en se basant sur un modèle d'estimation de la topologie, en prenant en compte les exigences applicatives (fréquence et volume des informations remontées).

Pour la validation de l'algorithme de clustering et du protocole de couche session proposés, nous avons défini un modèle de nœud capteur que nous avons intégré à l'environnement de simulation Opnet.

Mots clés : [Réseaux de capteurs sans fil, clustering, protocole de session, Opnet]

Composition du jury :

Rapporteurs :
- M. Thierry GAYRAUD  Professeur, Université Paul Sabatier Toulouse III, LAAS
- M. François SPIES   Professeur, Université de Franche-Comté, LIFC
Examinateurs   
- M. Khalid BENZAKOUR Docteur, Institut supérieur du Génie Appliqué, Casablanca
- M. Alexandre GUITTON MCF, Université Blaise Pascal Clermont-Ferrand, LIMOS
- M. Benoît IUNG   Professeur, Université de Lorraine CRAN
- M. Thiery DIVOUX Professeur, Université de Lorraine CRAN, (directeur de thèse)
- M. Jean-Philippe GEORGES MdC, Université de Lorraine (co-directeur de thèse)

 

"Contribution à la Quantification des Programmes de Maintenance Complexes"
(Thèse Thomas RUIN)

Résumé : Face aux nouveaux cadres législatifs ou environnementaux dans lesquels ils doivent évoluer, les systèmes industriels actuels sont, en plus d'être contraints par des exigences classiques de productivité et de coût, sujets au respect de nouvelles exigences relatives à la sûreté, la sécurité ou au développement durable notamment. Pour répondre à ces exigences et améliorer la maitrise des performances de ses systèmes, EDF souhaite faire évoluer sa démarche d'Optimisation de la Maintenance Basée sur la Fiabilité vers une nouvelle méthode, la méthode AP-913. Cette méthode nécessite en autre la proposition d'une approche outillée permettant de quantifier a priori les programmes de maintenance (CMPQ) sur ses systèmes par rapport aux indicateurs de performance attendus (KPIs). Cet outillage fait l'objet de cette thèse financée dans le cadre du GIS 3SGS – projet DEPRADEM 2. Après avoir généralisé les besoins d'EDF en regard de la CMPQ, nous proposons une identification de la connaissance générique nécessaire pour évaluer les KPI. Afin d'aboutir à un outil permettant l'automatisation de ces études de CMPQ, cette connaissance générique est ensuite modélisée sur la base de deux langages : le langage semi-formel SysML capitalisant, par l'intermédiaire de différents diagrammes, la connaissance statique, interactionnelle et comportementale ; et le langage AltaRicaDF, supportant un modèle dynamique permettant d'évaluer les KPIs par simulation stochastique. La création de ce modèle dynamique à partir des différents diagrammes est basée sur un mapping entre les concepts d'intérêt des deux langages. La démarche dans sa globalité est validée à la CMPQ d'un cas d'étude fourni par EDF : le système ARE.

Mots clés : Programmes de maintenance, Modélisation de la maintenance, formalisation de connaissances, simulation stochastique, aide à la décision en maintenance.

Abstract:

To face with new legislatives and environmental contexts in which they have to operate, it is needed now that the industrials systems have to satisfy to many different requirements and constraints. Thus, these requirements are not only conventional ones such as availability and costs, but also emergent ones such as safety and sustainability. This report implies for the specific French company EDF (energy power supplier) to evolve from its usual approach of reliability centered maintenance (RCM) to a new approach called AP-913. It is consisting mainly in developing a tool able to support the Complex Maintenance Programs Quantification (CMPQ). This Ph.D. is dealing with this the engineering and deployment of this tool in the frame of the GIS 3SGS – DEPRADEM 2 project. The first step of the work is to generalize EDF needs, then to propose a framework enabling to identify required generic knowledge needed to assess the Key Performances Indicators (KPIs) for supporting quantification. The next step is to model the generic knowledge in two complementary ways: a formalization of the static, interactional and behavioral knowledge based on different SysML diagrams; and a formalization of the dynamic and executable knowledge formalized by AltaRicaDF (ADF) language, allowing to perform stochastic simulation and to assess required KPIs. The path to elaborate dynamic executable vision from SysML diagrams is released by means of rules between each element of interest of both languages. All this approach/tool is applied to a specific EDF case study: the ARE system.  

Keywords: Maintenance programs, Maintenance modelling, Knowledge formalisation, Stochastic simulation, Maintenance decision making.

 

Jury :

-  M. Frédéric KRATZ, Professeur, ENSI Bourges (rapporteur)

-  M.Olivier SENECHAL, Professeur, Université de Valenciennes et du Hainaut-Cambrésis (rapporteur)

-  Mme. Anne BARROS, Professeur, UTT, Troyes (examinateur)

-  M. Antoine DESPUJOLS, Ingénieur de recherche, EDF R&D (examinateur)

-  M. Benoît IUNG, Professeur, CRAN, Nancy (directeur de thèse)

-  M. Eric LEVRAT, Maître de conférences, CRAN, Nancy (co-encadrant)

"Apports des connaissances Métiers pour la conception d'un système multi-capteurs de Tri Qualité Billon"
(Thèse Benjamin ALMECIJA)

Résumé :

Ce travail de thèse se place dans le cadre d'une convention université/industrie de type CIFRE entre le CRAN et la scierie Siat-Braun. Le processus de transformation d'une scierie est divisé en deux parties. Tout d'abord, le parc à grumes tronçonne une grume en billons (bois ronds de longueur standard) qui sont triés en lots homogènes en dimensions et qualité. Ensuite, la ligne de sciage transforme ces billons en produits finis (sciages) également triés par dimensions et qualité. Le tri qualitatif des billons ayant une influence direct sur la qualité des produits finis vendus, les scieries visent à optimiser cette étape afin de réduire le taux de déclassement des produits finis. Dans cet objectif, la scierie Siat-Braun a investi dans un nouveau parc à grumes. Les travaux de cette thèse contribuent au développement et à la mise en œuvre de ce système dédié au tri Qualité des billons.

Le premier chapitre de ce mémoire positionne le projet dans la filière Bois puis explicite les contraintes et les besoins d'une scierie en termes de Qualité. Une étude bibliographique met en évidence les différents systèmes d'observation permettant la mesure des caractéristiques du bois dans le but de faire un classement qualité, aussi bien des billons que des produits finis. Le Système d'Observation choisi par notre partenaire industriel est ensuite présenté.

L'objectif de la seconde partie du mémoire est d'expliciter et de définir la Qualité Billons pour le nouveau système de tri. Cette notion de qualité étant détenue par les opérateurs de tri, nous avons proposé d'extraire, de formaliser et de modéliser cette connaissance en utilisant la méthode NIAM-ORM. Cette méthode a permis d'obtenir deux ontologies structurées : la Qualité Billon et la Qualité Sciage que nous avons exploitées dans le chapitre 3 afin de mettre en avant 50 liens entre les deux qualités généralement appréhendées séparément. Cette étude a également permis d'extraire 34 critères pertinents pour spécifier la Qualité Billon en 9 classes, au regard de la Qualité Sciage. De plus, l'exploitation des modèles de connaissance fournit un paramétrage initial pour  la mise en service du Système d'Observation (critères d'entrée, classes de sortie, seuils de décision). Ce paramétrage est alors éprouvé lors des premières  exploitations. Les premiers tests sur les produits finis et l'exploitation des données délivrées par le capteur nous servent à valider et à affiner le paramétrage pour améliorer le classement des billons en fonction de la qualité des produits finis obtenus.

Ces travaux de thèse ont donc permis de capitaliser la connaissance Experte des acteurs du projet puis d'obtenir une configuration initiale pertinente pour la première mise en service du système de tri. Les premières analyses ont permis d'améliorer le paramétrage du système de tri Qualité Billon. Dans un futur proche, nous envisageons d'approfondir l'analyse des données fournies par le système afin d'améliorer la sélection des critères pertinents.

Composition du jury :
Rapporteurs :    Pr.  Maurice PILLET Professeur, Université de Savoie

Dr.  Régis CLOUARD Maitre de Conférences HdR, ENSICAEN, Caen

Examinateurs : 
Pr. Pascal LHOSTE Professeur, Université de Lorraine
Dr. Renaud DAQUITAINE Scierie Siat-Braun, France
Pr. Patrick CHARPENTIER Professeur, Université de Lorraine (Directeur de thèse)
Dr. Vincent BOMBARDIER   Maître de Conférences, Université de Lorraine, (Co-directeur de thèse)

"Contributions au Maintien en Conditions Opérationnelles des Systèmes Complexes et à leur Sureté de Fonctionnement"
(HDR Eric LEVRAT)

Résumé :
Les travaux présentés synthétisent mon activité de recherche et d'enseignement au CRAN et à la Faculté des Sciences et Technologies entre 1990 et 2013. Mon parcours d'enseignant chercheur s'est déroulé en deux parties tant en enseigne-ment qu'en recherche. Je présente les projets de recherche menés de 1990 à 2002 dans le domaine de la modélisation floue à partir d'équations de relations floues, en vision et reconnaissance de formes en exploitant notamment la classification floue, enfin sur l'ingénierie centrée sur l'homme et l'évaluation subjective. Dans un second temps, je développe mes contributions sur la période 2002-2013. En maintenance avec les architectures modernes de maintenance : e-maintenance, supportant les approches anticipatives et proactives de la maintenance basées sur les processus de pronostic de défaillance et d'aide à la décision de maintenance. Je détaillerai notamment des travaux sur le pronostic de niveau système, la maintenance opportune, ainsi que la quantification de programmes de maintenance. Enfin, je présenterai mes contributions dans le domaine de l'analyse des risques et de la sureté de fonctionnement : Analyse Intégrée des Risques, analyse des risques en radiothérapie, analyse des risques en maintenance et ingénierie des systèmes sûrs de fonctionnement. Je développerai enfin mon projet de recherche, contribuant aux objectifs du département ISET du CRAN, axé sur une vision système du maintien en conditions opérationnelles (système de soutien) avec une orientation Prognostics and Health Management. Je proposerai également un projet d'enseignement autour du master ISC.

Composition du jury:
Rapporteurs:
C. Berenguer Professeur, Gipsa-lab, Grenoble INP
P. Dehombreux, Professeur, Université de Mons, Faculté Polytechnique de Mons
D. Noyes, Professeur, Laboratoire Génie de la Production ENIT TARBES
Examinateurs :
L. Foulloy, Professeur, LISTIC - Polytech Annecy-Chambéry
D. Maquin, Professeur, CRAN, Université de Lorraine
B. Iung, Professeur, CRAN, Université de Lorraine

"Stratégies de Commande pour la Navigation Autonome d'un Drone Projectile Miniature"
(Thèse Adrien DROUOT)

Résumé :

De nos jours, l'utilisation des drones miniatures à voilure tournante pour des missions d'observation dans des environnements hostiles est en pleine expansion. Ces appareils, grâce à leurs capacités à combiner le vol de translation avec le vol stationnaire, sont en effet bien adaptés aux besoins de ces missions. L'étude présentée dans cette thèse concerne un nouveau concept de drone appelé GLMAV (pour Gun Launched Micro Aerial Vehicle), qui consiste à rendre très rapidement opérationnel un véhicule hybride projectile - drone. La difficulté dans le pilotage de ce type de véhicules est d'assurer de bonnes performances de suivi de trajectoires tout en garantissant une résistance aux perturbations aérodynamiques. Après une étape de modélisation, le cœur de la thèse présente plusieurs stratégies de commande, aussi bien linéaires que non linéaires, permettant la navigation autonome du drone. Plusieurs approches permettant l'estimation et la prise en compte dans la commande des efforts parasites liés aux phénomènes aérodynamiques sont également détaillées. L'efficacité de tous les algorithmes de commande est ensuite illustrée par de nombreuses simulations numériques. Du point de vue pratique, une simple loi de commande ne suffit pas. En effet, des techniques de filtrage particulières ou des aménagements spécifiques doivent être utilisés pour reconstruire l'état du drone. Les performances de l'ensemble de la boucle de commande sont d'abord testées en simulation avant l'implantation sur le prototype du GLMAV développé par l'Institut franco-allemand de recherches de Saint-Louis.

Mots-clés : drone, modélisation, commande linéaire, commande non linéaire, estimation de paramètres, observation d'état, filtrage

Abstract :

Nowadays, the use of rotary-wing MAV for observation missions in hostile environments is constantly growing. These aircrafts, through their ability to perform both translation flights and hover, are indeed well appropriate for these missions. The study presented in this thesis deals with a new MAV concept called GLMAV (for Gun Launched Micro Aerial Vehicle), which consists in getting very quickly up and running a projectile - MAV hybrid vehicle. The difficulty in controlling such vehicles is to ensure good trajectory tracking performances while guaranteeing robustness towards aerodynamic disturbances. After a modelling stage, the heart of the thesis introduces various control strategies, both linear and nonlinear, for the autonomous navigation of the MAV. Several approaches allowing the estimation and the consideration into the control of the parasitic efforts caused by aerodynamic phenomena are also detailed. The effectiveness of the control algorithms is then shown through many numerical simulations. From a practical point of view, having a control law is not enough. Indeed, special filtering techniques or specific equipments have to be used to reconstruct the system state. The performances of the overall control loop are firstly tested in simulation before its implementation on the GLMAV prototype developed by the French-German research Institute of Saint-Louis.

Keywords : MAV, modelling, linear control, nonlinear control, parameters estimation, state observation, filtering

Jury :

-  M. Nicolas MARCHAND, Directeur de Recherche CNRS, GIPSA-Lab, Grenoble (rapporteur)
-  M. Rachid OUTBIB, Professeur, LSIS, Marseille (rapporteur)
-  M. Rogelio LOZANO, Directeur de Recherche CNRS, HEUDIASYC, Compiègne (examinateur)
-  M. Sébastien CHANGEY, Docteur, ISL, Saint Louis (invité)
-  M. Vincent GASSMANN, Docteur, ISL, Saint Louis (invité)
-  M. Mohamed BOUTAYEB, Professeur, CRAN, Longwy (directeur de thèse)
-  M. Edouard RICHARD, Maître de conférences, CRAN, Longwy (co-encadrant)

 

"Méthodes non-linéaires en reconnaissance de formes et prédiction"
(Séminaire Maya KALLAS)

Durant les deux dernières décennies, les méthodes dites à noyaux ont favorisé l'essor de l'apprentissage statistique pour le traitement de systèmes non linéaires, souvent en pénurie d'information a priori. L'idée principale de ces méthodes non linéaires réside dans l'astuce du noyau, qui permet de transformer l'espace des observations en un espace plus pertinent, souvent de plus grande dimension. Ainsi, en appliquant dans ce dernier les techniques classiques de traitement linéaire, ces méthodes sont-elles aménagées pour une vaste classe de systèmes non linéaires. Paradoxalement, bien que la transformation non linéaire induite par le noyau soit fondamentale, le retour inverse à l'espace des observations est souvent crucial. La résolution de ce problème, dit de la pré-image, permet de nouveaux domaines d'application pour les méthodes à noyaux, dont la reconnaissance des formes, l'extraction de caractéristiques, le débruitage de signaux ou encore l'analyse de séries temporelles.
La présentation portera sur la résolution du problème de pré-image avec contraintes imposées par la physiologie, en particulier la non-négativité. Les contraintes de la non-négativité du résultat ainsi que celles de l'additivité des contributions, induisant une certaine parcimonie dans le résultat, sont détaillées. La présentation portera aussi sur l'analyse de séries temporelles, selon une approche prédictive. Des modèles auto-régressifs sont élaborés dans l'espace transformé, la prédiction nécessitant la résolution du problème de pré-image. Deux modèles à noyaux de prédiction linéaire sont étudiés : le premier basé sur le problème de moindres carrés et le second sur les équations de Yule-Walker. Le traitement du problème de classification de signaux électrocardiogrammes, afin d'y détecter des anomalies est enfin présenté. Les machines à vecteurs supports, qui sont le fer de lance des méthodes à noyaux, montrent leur performance dans cette détection binaire et multi-classes. Une classification multi-classes est faite à l'aide des cartes d'auto-organisation.
Maya Kallas a obtenu le Diplôme d'ingénieur en informatique et télécommunications en 2008 de l'Université Saint-Esprit de Kaslik, Liban, le Master de contrôle industriel en 2009, de l'Université libanaise (UL), au Liban et le Master de Recherche en Sciences, Technologies et Santé en 2009, de l'Université de Technologie de Compiègne, France. En 2012, elle a reçu le doctorat en Optimisation et Sûreté des Systèmes de l'Université de Technologie de Troyes (UTT), en France, et le doctorat en Sciences  pour ingénieur de l'UL, au Liban. Elle était Attaché Temporaire d'Enseignement et de Recherche à l'UTT de septembre 2012 à août 2013. Depuis septembre 2013, elle occupe un poste de maître de conférences au Centre de Recherche en Automatique de Nancy, à l'Université de Lorraine. Ses travaux de recherche portent sur l'analyse de signaux non stationnaires, les méthodes à noyaux, l'apprentissage statistique, la reconnaissance des formes, l'extraction de caractéristiques, la prédiction et laclassification.

 

"Identification et contrôle de systèmes biologiques. Application à la thérapie photodynamique"
(Thèse Jean-Baptiste TYLCZ)

Résumé

Les travaux présentés dans ce manuscrit sont divisés en deux grandes parties, et abordent des applications biologiques relatives au cancer et plus particulièrement à leur traitement. La première partie est consacrée à une recherche technologique, dont l'objectif est le développement d'un dispositif innovant permettant de contrôler plus efficacement la phase cytotoxique de la thérapie photodynamique. Cette thérapie contre le cancer met en jeu trois éléments principaux : un agent photosensibilisant, de l'oxygène et de la lumière. La solution proposée repose sur une stratégie d'asservissement d'un indicateur thérapeutique observable durant le traitement : le photoblanchiment. Le système d'asservissement développé utilise un observateur d'état qui a nécessité de résoudre en pratique des problèmes d'identifiabilité et d'identification d'un processus non-linéaire. Il est implanté dans une plateforme pilote opérationnelle validée par des tests in vitro. Une demande de brevet pour le dispositif développé est en cours. La seconde partie de cette thèse s'inscrit dans le cadre d'une recherche appliquée, sur le thème de l'identification à temps continu de systèmes biologiques, à partir de séquences d'images au travers de trois cas d'études aux échelles cellulaire, tissulaire et animale. Une première étude est dédiée à la proposition d'un modèle à compartiments de la pharmacocinétique intratumorale de nanoparticules multifonctionnelles dans des cerveaux de rats, ainsi qu'à son identification à partir de séquences d'images IRM in vivo. La seconde traite de la modélisation, à partir de données d'imagerie expérimentale de fluorescence, de la fonctionnalité des jonctions communicantes intercellulaires. L'objectif est de discriminer deux types de cellules cancéreuses, grâce à leur dynamique de recouvrement de fluorescence. Enfin, un troisième cas d'étude aborde le problème de l'identification d'une cohorte de systèmes à partir de petits échantillons de données. Le contexte applicatif est l'étude de l'angiogenèse tumoral et de l'effet des traitements anti-cancer sur le développement du réseau vasculaire.

Mots-clés : Modélisation, Identification, Contrôle, Thérapie, Photodynamique, Biologie

Composition du jury :

Rapporteurs :
M. Edouard LAROCHE, Professeur de l'Université de Strasbourg
M. Guillaume MERCÈRE, Maître de Conférence de l'Université de Poitiers

Examinateurs :
M. Serge MORDON, Directeur de recherche INSERM Lille
Mme. Muriel BARBERI-HEYOB, Professeur de l'Université de Lorraine
M. Thierry BASTOGNE, Professeur de l'Université de Lorraine (Directeur de thèse)
M. Eric BULLINGER, Professeur de l'Université de Liège (Co-directeur de thèse)

"Déconvolution et séparation d'images hyperspectrales en microscopie"
(Thèse Simon Henrot)

Résumé

Les travaux présentés synthétisent mon activité de recherche au CRAN entre 2005 et 2013. Les projets menés s'inscrivent dans les domaines des problèmes inverses en traitement du signal et des images, de l'approximation parcimonieuse, de l'analyse d'images hyperspectrales et de la reconstruction d'images 3D. Je détaille plus particulièrement les travaux concernant la conception, l'analyse et l'utilisation d'algorithmes d'approximation parcimonieuse pour des problèmes inverses caractérisés par un dictionnaire mal conditionné. Dans un premier chapitre, je présente les algorithmes heuristiques conçus pour minimiser des critères mixtes L2-L0. Ce sont des algorithmes gloutons "bidirectionnels" définis en tant qu'extension de l'algorithme Orthogonal Least Squares (OLS). Leur développement est motivé par le constat empirique qu'OLS et ses versions dérivées se comportent bien lorsque le dictionnaire est une matrice mal conditionnée. Le deuxième chapitre est une partie applicative en microscopie de force atomique, où les algorithmes du premier chapitre sont utilisés avec un dictionnaire particulier dans le but de segmenter automatiquement des signaux. Cette segmentation permet finalement de fournir une cartographie 2D de différents paramètres électrostatiques et bio-mécaniques. Le troisième chapitre est une partie théorique visant à analyser les algorithmes gloutons OMP (Orthogonal Matching Pursuit) et OLS. Une première analyse de reconstruction exacte par OLS en k itérations est proposée. De plus, une comparaison poussée des conditions de reconstruction exacte lorsqu'un certain nombre d'itérations ont déjà été effectuées fournit un éclairage sur le meilleur comportement d'OLS (par rapport à OMP) pour les problèmes mal conditionnés. Dans un quatrième chapitre, je dresse quelques perspectives méthodologiques et appliquées dans le domaine de l'analyse parcimonieuse en lien avec les chapitres précédents.

Composition du jury:
- Rapporteurs:
Christian Jutten, Professeur à l'Université Joseph Fourier, Grenoble
Gabriel Peyré, CR CNRS, Cérémade, Université Paris-Dauphine
Pierre Vandergheynst, Professeur à l'Ecole Polytechnique Fédérale de Lausanne

- Examinateurs :
Hoai An Le Thi, Professeur à l'Université de Lorraine
Christian Mustin, DR CNRS, LIEC, Université de Lorraine
Alain Richard, Professeur à l'Université de Lorraine
Cédric Richard, Professeur à l'Université de Nice-Sophia Antipolis

"Déconvolution et séparation d'images hyperspectrales en microscopie"
(Thèse Simon Henrot)

Résumé

L'imagerie hyperspectrale consiste à acquérir une scène spatiale à plusieurs longueurs d'onde, de manière à reconstituer le spectre des pixels. Cette technique est utilisée en microscopie pour extraire des informations spectrales sur les spécimens observés. L'analyse de telles données est bien souvent difficile : lorsque l'image est observée à une résolution suffisamment fine, elle est dégradée par l'instrument (flou ou convolution) et une procédure de déconvolution doit être utilisée pour restaurer l'image originale. On parle ainsi de problème inverse, par opposition au problème direct consistant à modéliser la dégradation de l'image observée, étudié dans la première partie de la thèse. Un autre problème inverse important en imagerie consiste à extraire les signatures spectrales des composants purs de l'image ou sources et à estimer les contributions fractionnaires de chaque source à l'image. Cette procédure est qualifiée de séparation de sources, accomplie sous contrainte de positivité des sources et des mélanges. La deuxième partie propose des contributions algorithmiques en restauration d'images hyperspectrales. Le problème de déconvolution est formulé comme la minimisation d'un critère pénalisé et résolu à l'aide d'une structure de calcul rapide. Cette méthode générique est adaptée à la prise en compte de différents a priori sur la solution, tels que la positivité de l'image ou la préservation des contours. Les performances des techniques proposées sont évaluées sur des images de biocapteurs bactériens en microscopie confocale de fluorescence. La troisième partie de la thèse est axée sur la problématique de séparation de sources, abordé dans un cadre géométrique. Nous proposons une nouvelle condition suffisante d'identifiabilité des sources à partir des coefficients de mélange. Une étude innovante couplant le modèle d'observation instrumental avec le modèle de mélange de sources permet de montrer l'intérêt de la déconvolution comme étape préliminaire de la séparation. Ce couplage est validé sur des données acquises en microscopie confocale Raman.

Mots-clés : image hyperspectrale, déconvolution, séparation de sources, microscopie, fluorescence, diffusion Raman

Composition du jury

Rapporteurs :
Jean-François Giovannelli, Professeur à l'Université Bordeaux 1
Cédric Richard, Professeur à l'Université de Nice Sophia-Antipolis

Examinateurs :
David Brie (directeur de thèse), Professeur à l'Université de Lorraine
Nicolas Dobigeon, Maître de Conférences a l'INP Toulouse
Christian Jutten, Professeur a l'Université Joseph Fourier, Grenoble
Christian Mustin, Directeur de Recherche CNRS
Charles Soussen (co-directeur de thèse), Maître de Conférences a l'Université de Lorraine

Invité : Saïd Moussaoui, Maître de Conférences a l'Ecole Centrale de Nantes

"Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application à l'épilepsie"
(Thèse Julien Schorsch)

Résumé

   Les systèmes décrits par les équations aux dérivées partielles, appartiennent à la classe des systèmes dynamiques impliquant des fonctions dépendantes de plusieurs variables, comme le temps et l'espace. Déjà fortement répandus pour la modélisation mathématique de phénomènes physiques et environnementaux, ces systèmes ont un rôle croissant dans les domaines de l'automatique. Cette expansion, provoquée par les avancées technologiques au niveau des capteurs facilitant l'acquisition de données et par les nouveaux enjeux environnementaux, incite au développement de nouvelles thématiques de recherche. L'une de ces thématiques, est l'étude des problèmes inverses et plus particulièrement l'identification paramétrique des équations aux dérivées partielles.
Tout abord, une description détaillée des différentes classes de systèmes décrits par ces équations est présentée puis les problèmes d'identification qui leur sont associés sont soulevés. L'accent est mis sur l'estimation paramétrique des équations linéaires, homogènes ou non, et sur les équations linéaires à paramètres variant. Un point commun à ces problèmes d'identification réside dans le caractère bruité et échantillonné des mesures de sortie.
Pour ce faire, deux types d'outils principaux ont été élaborés. Certaines techniques de discrétisation spatio-temporelle ont été utilisées pour faire face au caractère échantillonné des données; les méthodes de variable instrumentale, pour traiter le problème lié à la présence de bruit de mesure. Les performances de ces méthodes ont été évaluées selon des protocoles de simulation numérique reproduisant des situations réalistes de phénomènes physiques et environnementaux, comme la diffusion de polluant dans une rivière.   
 
Mots clés : équations aux dérivées partielles, problème inverse, identification de systèmes, modèle linéaire à paramètres variant, diffusion de polluant.
 
Membres du jury
Rapporteurs 
M. Fouad Giri, Professeur, GREYC, Université de Caen 
M. Rachid Malti, Maître de Conférences habilité, IMS, Université de Bordeaux 
Examinateurs 
M. Gilles Millerioux, Professeur, CRAN, Université de Lorraine, Nancy
M. Didier Remond, Professeur, LAMCOS, Institut National des Sciences Appliquées de Lyon
Mme. Marion Gilson, Maître de Conférences habilité, CRAN, Université de Lorraine (Co-directrice de thèse), Nancy
M. Hugues Garnier, Professeur, CRAN, Université de Lorraine (Directeur de thèse), Nancy 

 

"Contribution au modèle direct cérébral par stimulation électrique de profondeur et mesures SEEG : application à l'épilepsie"
(Thèse Janis HOFMANIS)

Résumé

La thérapie de l'épilepsie par résection partielle exige l'identification des structures cérébrales qui sont impliquées dans la genèse des crises d'épilepsie focales. Plusieurs modalités telles que l'IRM, le PET SCAN, la sémiologie de la crise et l'électrophysiologie sont exploitées par les experts pour contribuer à la localisation de la zone épileptogène. L'EEG du scalp est la modalité qui procure la résolution temporelle à l'échelle des processus électrophysiologiques étudiés. Cependant  du fait du positionnement des capteurs sur le scalp, sa résolution spatiale et, plus précisément, de profondeur est très médiocre. Dans certain cas (épilepsies pharmaco-résistantes), et pour palier à cette déficience spatiale, il est possible d'avoir recours à la SEEG. La SEEG permet des mesures électrophysiologiques intracérébrales: la résolution spatiale et donc anatomique est excellente dans l'axe de la microélectrode.  La définition de la zone épileptogène, comme celle proposée par Talairach et Bancaud, est une définition électro-clinique basée sur les résultats d'enregistrements de SEEG intracérébraux. Elle tient compte non seulement de la localisation anatomique de la décharge épileptique partielle, mais également de l'évolution dynamique de cette décharge, c'est à dire les réseaux neurologiques actifs durant la période intercritique-critique et des symptômes cliniques. Récemment, il a été proposé une technique de diagnostic complémentaire de localisation de la zone epileptogénique employant la stimulation electrique cérébrale de profondeur (Deep Brain Stimulation). Cette source exogène peut activer les réseaux épileptiques et produire une réaction électrophysiologique telle qu'une crise d'épilepsie. Elle permet également de mettre en exergue les zones fonctionnelles cognitives. Cette source exogène est parfaitement définie spatialement et temporellement. Ainsi, la stimulation, couplée aux mesures SEEG, contribue à la modélisation de la propagation électrique cérébrale et, par voie de conséquence, à la compréhension du processus épileptique  De plus, ce travail sur le modèle de propagation directe apporte une aide à la résolution du problème inverse et donc à la localisation de sources. Les différentes tâches accomplies au cours de cette thèse sont les suivantes:  - Création d'une base de données réelles à partir de 3000 stimulations et mesures SEEG pour 42 patients explorés;  - Extraction par séparation des signaux de propagation de la stimulation électrique (DBS) des mesures multidimensionnelles SEEG: 5 méthodes ont été développées ou adaptées et ont été validées au cours d'une première phase en simulation puis sur des signaux réels SEEG dans une seconde phase.  - Localisation des électrodes de SEEG dans le repère anatomique de l'IRM et du CT Scanner en y ajoutant une étape de segmentation de la matière grise et blanche, du liquide céphalo-rachidien et de l'os.  - Discussion sur de nombreux modèles de propagation réalistes ou non réalistes proposés dans la littérature, à la fois sur le plan du raffinement du modèle mais également sur les implantations numériques possibles : modèles de milieu, sphériques et réalistes infinis basés sur MRI et CT du patient.  - Comparaison entre les résultats générés par les  modèles de sources et de milieux et les données obtenues après séparation de la stimulation électrique in vivo chez l'homme.  - Validation des modèles de tête FEM en intégrant les conductivités des milieux (CSF), gris et blancs céphalo-rachidiens et perspectives envisagées.

Mots-clés: SEEG, DBS, Source separation, Electrode localization, Forward problem.

Jury :

Rapporteurs :
Ali MOHAMMAD-DJAFARI  - L2S, CNRS UMR 8506, Univ Paris Sud 11.
Michael WIBRAL -  Brain Imaging Center, Frankfurt J.W. Goethe University.

Examinateurs :
Maureen CLERC  -  INRIA Sophia Antipolis.
Louis MAILLARD - CRAN, CNRS UMR 7039, Univ Lorraine.
Valérie LOUIS-DORR - CRAN, CNRS UMR 7039, Univ Lorraine.
Olivier CASPARY  - CRAN, CNRS UMR 7039, Univ Lorraine.

"Étude de marqueurs de différenciation testiculaire Sox9 et Amh lors d'un développement normal, d'une inversion sexuelle et d'un développement en absence de cellules germinales chez l'amphibien urodèle Pleurodeles waltl. Intérêt pour la physiologie comparée de la reproduction des vertébrés"
(Thèse Imane AL-ASAAD)

Résumé

Dans le contexte de la physiologie comparée de la reproduction, les amphibiens sont peu étudiés. Le travail réalisé durant cette thèse visait à analyser des marqueurs de différenciation testiculaire chez l'urodèle Pleurodeles waltl, dont le déterminisme génétique du sexe (ZZ/ZW) peut être influencé par la température.
Nos études ont d'abord porté sur le gène sox9 marqueur de la différenciation testiculaire chez les vertébrés supérieurs. Le gène cloné chez le pleurodèle montre une bonne conservation par rapport aux autres vertébrés. Son expression plus élevée dans la gonade mâle n'apparaît que tardivement suggérant qu'il n'est probablement pas impliqué dans les stades précoces de la différenciation testiculaire. En outre, son expression dans le mésonéphros rend difficile son utilisation comme marqueur de différenciation testiculaire.
Nous avons ensuite étudié l'Amh, hormone testiculaire impliquée dans la régression des canaux de Müller chez de nombreux vertébrés. Son expression spécifique de la gonade, précocement plus élevée chez les larves  ZZ que les  ZW en font un excellent  marqueur de la différenciation testiculaire. Le fait que les pleurodèles mâles voient les canaux de Müller persister malgré la présence d'Amh suggère que la fonction primaire de cette hormone était en relation avec la différenciation gonadique et que la fonction de régression des canaux de Müller n'est apparue que secondairement au cours de l'évolution. 
Ces marqueurs ont été mis à profit pour caractériser le phénotype gonadique lors d'inversions sexuelles ou lors de développements en absence de cellules germinales. Ils ont permis de montrer que les cellules germinales ne semblent pas jouer de rôle dans la différenciation gonadique du pleurodèle. 
 
Membres du jury
Rapporteurs 
M. Gabriel LIVERA, Professeur, Université Paris VII, Paris 
M. Eric PAILHOUX, Directeur de Recherches, INRA, Jouy en Josas 
Examinateurs 
Mme Nathalie di CLEMENTE, Directrice de Recherches, INSERM, Clamart 
Mme May PENRAD-MOBAYED, Chargée de Recherches, CNRS, Paris 
M. Michel FICK, Professeur, Université de Lorraine, ENSAIA, Nancy 
M. Stéphane FLAMENT, Professeur, Université de Lorraine (Directeur de thèse), Nancy 
 
Mots clés : amphibien, Pleurodeles  waltl, différenciation gonadique, cellules germinales, sox9, Amh, aromatase, busulfan. 

 

"Annotations sémantiques pour l'intéroperabilité des systèmes dans un environnement PLM"
(Thèse Yongxin LIAO)

Résumé

Pour demeurer compétitives, de plus en plus d'entreprises sont amenées à collaborer dans le cadre des entreprises étendues ou des réseaux d'entreprises. Ce type d'organisation nécessite l'interconnexion d'une multitude de systèmes d'entreprises, hétérogènes que ce soit par les fonctions qu'ils assurent ou par leurs conceptions (modèles, architectures, ...). Typiquement, ceci renvoie au concept de l'interopérabilité, définie par la capacité des systèmes ou des organisations à fournir ou à accepter des services et à utiliser ces services pour opérer efficacement ensemble. L'échange de l'information et le partage des connaissances (interopérabilité technique) entre les différents systèmes d'information sont désormais des atouts majeurs pour favoriser l'activité collaborative de création de valeur. Le développement de nouvelles technologies et la mise en place de standards a contribué à résoudre (partiellement au moins) ce problème d'interopérabilité technique. Cependant, ce n'est pas suffisant pour garantir l'interopérabilité à un niveau conceptuel : c'est-à-dire garantir que les modèles issus d'une ingénierie peuvent être partagés et compris par rapport à une sémantique commune, et utilisés par les différents systèmes d'entreprise pour réaliser une mission globale. L'approche de gestion du cycle de vie du produit (PLM) est considérée comme une solution essentielle pour faciliter le partage de modèles relatifs à des produits fabriqués. Elle vise à fournir une plate-forme commune qui rassemble les différents systèmes de l'entreprise à chaque étape du cycle de vie du produit dans ou à travers les entreprises. Bien que les principaux éditeurs de logiciels fassent des efforts pour créer des outils offrant un ensemble complet et intégré de modèles, la plupart d'entre eux n'intègrent pas une gestion cohérente des connaissances formalisées dans ces modèles spécifiques à chaque métier. L'hétérogénéité tant syntaxique que sémantique de ces modèles est souvent source d'une interprétation erronée des spécifications produites par chaque environnement de modélisation. L'objectif de cette thèse est ainsi de proposer une méthode, une formalisation et des outils pour prendre en compte, tout au long du cycle de vie d'un produit, l'ensemble des connaissances tacites et explicites sous la forme d'annotations sémantiques formelles qui peuvent favoriser la compréhension partagée ainsi qu'une vérification de cohérence des modèles produits, dans un contexte PLM.

 

Composition de jury 

Rapporteurs : 
M. John KROGSTIE, Professeur à Norwegian University of Science and Technology (Norvège) 
M. Lionel ROUCOULES, Professeur à l'ENSAM Aix-en-Provence 
Examinateurs : 
M. David CHEN, Professeur à l'Université de Bordeaux 1 
M. Osiris CANCIGLIERI JUNIOR, Professeur à l'Université Pontificale Catholique du Paraná (Brésil) 
Directeurs de thèse :
M. Hervé PANETTO, Professeur à l'Université de Lorraine
M. Nacer BOUDJLIDA, Professeur à l'Université de Lorraine
Co-encadrant de thèse :
M. Mario LEZOCHE, Maître de Conférences à l'Université de Lorraine
________________________________________________________
MOTS-CLÉS : 
PLM, annotations sémantiques, explicitation de connaissances, formalisation de modèles, intéroperabilité sémantique, systèmes d'information d'entreprise.

"Nouveaux dérivés de thiazolidinediones : stratégie thérapeutique innovante pour le cancer du sein"
(Thèse Christelle Colin-Cassin)

Résumé

L'un des enjeux majeurs de la recherche anti-cancéreuse est de développer de nouvelles thérapies en direction des tumeurs réfractaires aux traitements conventionnels. Dans ce contexte, l'identification récente de l'activité anti-tumorale PPARg-indépendante des thiazolidinediones ouvre de nouvelles perspectives thérapeutiques. Au sein du laboratoire, il a été montré qu'un analogue inactif de la TGZ, la D2-TGZ, induit une dégradation protéasome-dépendante du récepteur a aux œstrogènes de manière PPARg-indépendante. A partir de ces données, les objectifs de ma thèse ont été 1) de participer à la caractérisation de nouveaux composés à activité anti-cancéreuse 2) de mieux comprendre les mécanismes PPARg-indépendants mis en jeu dans l'effet anti-cancéreux des TZD.

Lors de ce travail de thèse, nous avons caractérisé de nouveaux composés plus efficaces que la D2-TGZ pour l'inhibition de la prolifération des cellules cancéreuses mammaires MCF-7 et MDA-MB-231 et faiblement toxiques sur des cultures primaires d'hépatocytes humains. De plus, nous avons montré que la D2-TGZ est capable d'induire un stress du réticulum endoplasmique à des temps précoces dès 3 heures et une apoptose à des temps plus tardifs 48 heures. Cependant, nous n'avons pas pu conclure à l'existence d'un lien entre les deux mécanismes. Enfin, nous avons montré que la biotinylation d'un ligand naturel de PPARg, la 15d-PGJ2, accroît son effet anti-prolifératif sur les cellules cancéreuses mammaires MCF-7 et MDA-MB-231 et conduit à un stress du réticulum endoplasmique et à une mort par apoptose. Ces effets sont partiellement dépendants de PPARg pour le stress du réticulum endoplasmique mais strictement PPARg-indépendants pour l'apoptose.

Ce travail pourrait permettre de constituer de nouveaux outils thérapeutiques dans le traitement du cancer du sein.

Membres du jury

Rapporteurs :

Madame Marie-Christine RIO, Directrice de recherche, IGBMC / Inserm U 964, Illkirch
Monsieur Pierre FORMSTECHER, Directeur de recherche, Université Lille 2 / INSERM U 837, Lille

Examinateurs :
Madame Brigitte BOIZET-BONHOURE, Directrice de recherche, CNRS UPR 1142, Monpellier
Madame Odile SERGENT, Professeur, Université Rennes 1 / INSERM 1085, Rennes
Monsieur Marc DIEDERICH, Professeur, Directeur du LBMCC, Luxembourg
Madame Catherine-Laure TOMASETTO, Directrice de recherche, IGBMC / Inserm U 964, Illkirch
Madame Isabelle GRILLIER-VUISSOZ, Docteur, Université de Lorraine / CRAN UMR 7039, directeur de thèse (HDR)
Madame Sandra KUNTZ, Docteur, Université de Lorraine / CRAN UMR 7039, co-directeur de thèse      

Membre invité :
Madame Claudia CERELLA, Docteur, LBMCC, Luxembourg  

"Commande tolérante aux défauts de systèmes non linéaires représentés par des modèles de Takagi-Sugeno"
(Thèse Souad BEZZAOUCHA)

Résumé

Cette thèse porte sur la représentation T-S des systèmes non linéaires et les non-linéarités qui leur sont associées (saturation et paramètres variants dans le temps) pour la commande et le diagnostic. Ainsi, une nouvelle approche utilisant la transformation par secteurs non linéaires permet de ré-écrire le système sous forme polytopique en prenant en compte la présence de paramètres variants dans le temps. Cette forme polytopique est ensuite utile pour la synthèse d'observateurs assurant l'estimation simultanée de l'état et des paramètres du système. Une application au diagnostic est également considérée en comparant les valeurs des paramètres estimés en ligne avec leurs valeurs nominales supposées connues et représentatives du mode de fonctionnement non défaillant. Concernant la commande, la contrainte de saturation est représentée sous forme de modèle T-S et est intégrée au modèle du système. La synthèse de plusieurs lois de commande assurant la stabilité du système bouclé, en prenant en compte les limites de saturation est proposée. La poursuite de consigne générée par un modèle de référence est également traitée avec la mise en évidence des conditions structurelles de poursuite pour les modèles non linéaires sous forme T-S. L'accent est mis sur les différents critères de choix de commande en fonction des buts recherchés.

Membres du jury :
Rapporteurs :
M. David HENRY, Professeur à l'Université des Sciences et Technologie de Bordeaux
M. Olivier SENAME, Professeur à Grenoble-INP

Examinateurs :
M. Gérard SCORLETTI, Professeur à l' Ecole Centrale de Lyon
M. Krishna BUSAWON, Professeur à Northumbria University
M. Didier MAQUIN, Professeur à l'UL (Directeur de thèse)
M. José RAGOT, Professeur à l'UL (Co-directeur de thèse)
M. Benoît MARX, Maître de conférences à l'UL (Co-directeur de thèse)

"Identification de Systèmes Dynamiques Hybrides : géométrie, parcimonie, et non-linéarités"
(Thèse Van Luong LE)

Résumé

En automatique, l'obtention d'un modéle du système est la pierre angulaire des procédures comme la synthèse d'une commande, la détection des défaillances, la prédiction... Cette thèse traite de l'identification d'une classe de systèmes complexes, les systèmes dynamiques hybrides. Ces systèmes impliquent l'interaction de comportements continus et discrets. Le but est de construire un modèle à partir de mesures expérimentales d'entrée et de sortie. Une nouvelle approche pour l'identification de systèmes hybrides linéaires basée sur les propriétés géométriques des systèmes hybrides dans l'espace des paramètres est proposée. Un nouvel algorithme est ensuite proposé pour le calcul de la solution la plus parcimonieuse (ou creuse) de systèmes d'équations linéaires sous-déterminés. Celui-ci permet d'améliorer une approche d'identification basée sur l'optimisation de la parcimonie du vecteur d'erreur. De plus, de nouvelles approches, basées sur des modèles à noyaux, sont proposées pour l'identification de systèmes hybrides non linéaires et de systèmes lisses par morceaux.

Abstract

In automatic control, obtaining a model is always the cornerstone of the synthesis procedures such as controller design, fault detection or prediction... This thesis deals with the identification of a class of complex systems, hybrid dynamical systems. These systems involve the interaction of continuous and discrete behaviors. The goal is to build a model from experimental measurements of the system inputs and outputs. A new approach for the identification of linear hybrid systems based on the geometric properties of hybrid systems in the parameter space is proposed. A new algorithm is then proposed to recover the sparsest solutions of underdetermined systems of linear equations. This allows us to improve an identification approach based on the error sparsification. In addition, new approaches based on kernel models are proposed for the identification of nonlinear hybrid systems and piecewise smooth systems. 

Membres du jury :

  • M. Stéphane Lecœuche, Professeur, Ecole des Mines de Douai, France 
  • M. Alain Rakotomamonjy, Professeur, Université de Rouen, France 
  • M. Laurent Bako, Maître de Conférences, Ecole Centrale de Lyon, France 
  • M. Gilles Millérioux, Professeur, Université de Lorraine, France
  • M. Henrik Ohlsson, Assistant Professor, Linköping University, Sweden
  • M. Gérard Bloch, Professeur, Université de Lorraine, France (directeur de thèse)
  • M. Fabien Lauer , Maître de Conférences, Université de Lorraine, France (co-encadrant de thèse)

"Modèles de minimisation d'énergies discrètes pour la cartographie cystoscopique"
(Thèse Thomas Weibel)

The aim of this thesis is to facilitate bladder cancer diagnosis. The reference clinical examination is cystoscopy, where an endoscope, inserted into the bladder, allows to visually explore the organ's internal walls on a monitor. The main restriction is the small field of view (FOV) of the instrument, which complicates lesion diagnosis, follow-up and treatment traceability. In this thesis, we propose robust and accurate algorithms to create two- and three-dimensional large FOV maps from cystoscopic video-sequences. Based on recent advances in the field of discrete energy minimization, we propose transformation-invariant cost functions, which allow to robustly register image pairs, related by large viewpoint changes, with sub-pixel accuracy. The transformations linking such image pairs, which current state-of-the-art bladder image registration techniques are unable to robustly estimate, are required to construct maps with several overlapping image trajectories. We detect such overlapping trajectories automatically and perform non-linear global map correction. Finally, the proposed energy minimization based map compositing algorithm compensates small texture misalignments and attenuates strong exposure differences. The obtained textured maps are composed by a maximum of information/quality available from the redundant data of the video-sequence. We evaluate the proposed methods both quantitatively and qualitatively on realistic phantom and clinical data sets. The results demonstrate the robustness of the algorithms, and the obtained maps outperform state-of-theart approaches in registration accuracy and global map coherence. Keywords: 2D/3D Cartography, Bladder Cancer Diagnosis, Image Registration, Image Compositing, Discrete Energy Minimization, Graph-Cuts.

Membres du Jury :
Rapporteurs :
M. Fabrice Heitz PU Université de Strasbourg, ICube
M. Joachim Ohser PU, Université de Darmstadt, Allemagne
Examinateurs :
M. François Guillemin PUPH, Université de Lorraine, CRAN/ICL
M. Jean-Marc Chassery DR CNRS, GIPSA-Lab, Grenoble M. Ronald Rösch, Fraunhofer ITWM, Allemagne
Directeur de thèse :
M. Christian Daul PU, Université de Lorraine, CRAN
Co-Directeur de thèse :
M. Didier Wolf PU, Université de Lorraine, CRAN

"Sciences de la vie et de la Santé"
(Thèse Sébastien GOUY)

La chirurgie minimale invasive avec notamment, l'arrivée du single-port génère un engouement majeur avec plus de 400 publications, sur les 3 dernières années, référencées sur Medline. Les publications les plus nombreuses concernent la cholecystectomie via le single-port avec plus de 100 références indexées. L'utilisation du single port permet de réduire le nombre d'incisions cutanées comparé à la laparoscopie conventionnelle, et apporte donc à la fois un avantage cosmétique indiscutable et réduit à priori les risques liés à l'utilisation de plusieurs trocarts (plaie vasculaire…..). En théorie, le single-port permettrait de diminuer les douleurs post-opératoires mais les publications restent contradictoires sur ce sujet. In fine, le single-port permet surtout d'envisager la prise en charge en ambulatoire de tous les patients opérés avec cette technique quelque soit la chirurgie réalisée. La place en cancérologie gynécologique du single-port reste cependant à définir avec dans un premier temps, des études de faisabilité et de reproductibilité avant de promouvoir cette nouvelle technique chirurgicale. De plus, cette nouvelle technique doit également démontrer son équivalence par rapport à la laparoscopie conventionnelle en termes de radicalité carcinologique. Ces différentes étapes sont nécessaires avant d'envisager l'utilisation du single port en routine. Dans cette logique d'innovation et d'évaluation, ce travail de thèse porte sur la lymphadénectomie lombo-aortique par single-port pour des raisons à la fois clinique et technique. En effet, dans la pratique clinique en gynécologie carcinologique, les indications de la lymphadenectomie lombo-aortique sont fréquentes et intéressent les différentes thématiques de la carcinologie gynécologique : les cancers du col dans leur forme localement avancée, les cancers de l'ovaire de stade I de la Figo dans le cadre des restadifications, les cancers de l'endomètre de stade I de la Figo de type endométrioide à haut risque et enfin certains cancers du vagin localement avancés. Sur le plan technique, le choix de la lymphadénectomie lombo-aortique extrapéritonéale se justifie par la complexité de cette chirurgie en laparoscopie conventionnelle et les contraintes notamment ergonomiques inhérentes à l'utilisation du single port.

Membres du Jury :
Pr Yves AUBARD
Pr Philippe DESCAMP

Examinateurs :
Pr Philippe MORICE
Dr Tran NGUYEN
Dr Désirée DEANDREIS

Directeur de thèse :
Pr Frédéric MARCHAL

"Fault Diagnosis and Fault Tolerant Control using Set-membership Methods: Application to Real Case Studies "
(Séminaire Pr. Vicenc Puig Cayuela)

This seminar reviews the use of set-membership methods in robust fault detection and isolation (FDI) and tolerant control (FTC). Set-membership methods use a deterministic unknown-but-bounded description of noise and parametric uncertainty (interval models). These methods aims to check the consistency between observed and predicted behavior by using simple sets to approximate the set of possible behaviors (in parameter or state space). When an inconsistency is detected a fault can be indicated, otherwise nothing can be stated. From the deep analysis of inconsistency indicators, faults can be diagnosed and estimated. Finally, the same principle can be used to identify interval models for fault detection and to develop methods for fault tolerance design and evaluation. Finally, some real application of these methods will end the paper exemplifying the success of these methods in FDI/FTC.

"Contribution à la formalisation de bilans/états de santé multi-niveaux d'un système pour aider à la prise de décision en maintenance : agrégation d'indicateurs hétérogènes par l'intégrale de Choquet"
(Thèse Bouthaina Abichou)

Nous défendons l'intérêt d'évaluer la santé d'un système multi-composants à travers un bilan de santé multi-niveaux hiérarchiques. La thèse a donc pour objet principal de justifier les éléments essentiels du concept de bilan de santé générique qui représente l'état réel d'un système sous la forme d'un vecteur d'indicateurs de différentes natures. Vis-à-vis de ce fondement, la thèse se focalise plus spécifiquement sur les fonctions de détection des anomalies-normalisation et agrégation d'indicateurs pour élaborer un index synthétique représentatif de l'état de santé global pour chaque élément du système. Nous proposons ainsi, une nouvelle approche de détection conditionnelle des anomalies. Cette approche a pour intérêt de quantifier la déviation pour chaque indicateur par rapport à son mode de comportement nominal tout en prenant en compte le contexte dans lequel évolue le système. Une extension à l'exploitation de l'intégrale de Choquet en tant qu'opérateur d'agrégation des indicateurs est aussi proposée. Cette extension concerne, d'une part, un processus d'apprentissage non supervisé des capacités pour le niveau le plus inférieur dans l'abstraction, à savoir celui des composants, et d'autre part, une approche de mise en oeuvre de leur inférence d'un niveau à l'autre. Ces propositions sont appliquées sur un moteur diesel de navire, système essentiel du projet BMCI du pôle MER-PACA dans lequel s'inscrit cette thèse.

Membres du jury:
M. Dimitris KIRITSIS, Professeur à l'Ecole Polytechnique Fédérale de Lausanne (Suisse)
M. François PERES, Professeur à l'Ecole Nationale d'Ingénieurs de Tarbes
M. Jacky MONTMAIN, Professeur à l'Ecole des Mines d'Alès M. Didier THEILLIOL, Professeur à l'Université de Lorraine
M. Philippe CATRIN, Chef de projet R&D, DCNS
M. Benoît IUNG, Professeur à l'Université de Lorraine (Directeur de thèse)
M. Alexandre VOISIN, Maître de Conférences à l'Université de Lorraine (Co-directeur de thèse)

"Analyse spatio-temporelle des sources cérébrales grâce à l'imagerie de sources électriques et aux enregistrements simultanés EEG-SEEG"
(Séminaire Laurent KOESSLER)

Résumé :

Les crises épileptiques résultent de l'hypersynchronisation et de l'hyperexcitabilité de réseaux de neurones épileptiques. Pour identifier et localiser ceux-ci dans le cadre des épilepsies rebelles (celles qui résistent aux traitements médicamenteux), il faut recourir à des explorations électrophysiologiques invasives basées sur l'utilisation d'électrodes placées chirurgicalement dans le cerveau. Le développement ces dernières années de l'imagerie non invasive de sources électriques laisse entrevoir l'identification et la localisation précise de ces réseaux en utilisant uniquement des données non invasives, des modèles biophysiques (sources électriques et milieux de propagation) et des méthodes de résolution de problème inverse. Le développement de ces méthodes combinées à une meilleure connaissance des relations qui lient l'activité électrique enregistrée directement dans le cerveau (invasif) à celle enregistrée en surface du cuir chevelu (non invasif) semble une voie privilégiée pour améliorer la prise en charge chirurgicale de ces patients mais aussi pour mieux comprendre le fonctionnement en réseaux du cerveau humain (mémoire, langage, vision). Je présenterai dans un premier temps les verrous technologiques et scientifiques de mon projet scientifique puis montrerai les résultats obtenus et en cours d'analyse.

"Analyse de sensibilité, un ingrédient pour la modélisation"
(Séminaire Floriane Collin)

Le recours à la modélisation numérique est aujourd'hui incontournable pour l'étude et la compréhension des systèmes complexes. Ces derniers sont souvent caractérisés par un nombre élevé de facteurs d'entrée à définir au préalable (paramètres, conditions limites et/ou initiales,...). Ces entrées sont souvent méconnues ou mal définies et sont par conséquent traitées comme des variables (ou champs) aléatoires. Toutefois, en vertu du principe de parcimonie, il est attendu que seul un nombre limité de facteurs soit réellement influent sur la prédiction d'une sortie observable du modèle. La connaissance de ces entrées influentes, préalablement à toute expérimentation, permet de réduire considérablement le nombre d'inconnus du problème. C'est le rôle de l'analyse de sensibilité globale. Comment mener une telle analyse ? Je tenterai de répondre à cette question et de présenter les verrous scientifiques actuels dans ce domaine. Un exemple en thermique de l'habitat sera étudié.

"Joint spectral characteristics: a tale of three disciplines "
(Séminaire Raphael JUNGERS)

Joint spectral characteristics describe the stationary behavior of a discrete time linear switching system. Well, that's what an electrical engineer would say. A mathematician would say that they characterize the asymptotic behavior of a semigroup of matrices, and a computer scientist would perhaps see them as describing languages generated by automata. Because of their connections with these wide research topics, joint spectral characteristics have been at the center of rich and diverse research efforts in recent years. They are notoriously very hard to compute (NP-hardness, Undecidability, etc. are the rule rather than the exception), but it turns out that one can often get around these difficulties, and modern optimization techniques seem particularly useful for studying them. I will survey and connect several powerful and interesting results, emphasizing the role of optimization methods. I will present applications, ranging from wireless control protocols to viral diseases treatment, malicious agents tracking, etc...

Short bio: Raphaël Jungers is a FNRS Associate and Professor at the Universite catholique de Louvain, Belgium. His main interests lie in the fields of Computer Science, Graph Theory, Optimization and Control. He received a PhD in mathematical engineering from the Universite catholique de Louvain (2008), and an engineering degree in applied mathematics, both from the Ecole Centrale Paris, France (2004), and from the Universite catholique de Louvain (2005).

He holds a minor degree in Electrical Engineering from UCLouvain (2005). He has held various invited researcher positions, at the Department of Computer Science of the Universite Libre de Bruxelles (2008-2009), at the Laboratory for Information and Decision Systems of the Massachusetts Institute of Technology (2009-2010), and at the University of L'Aquila (july 2011-march 2013).

He is a FNRS Associate and a BAEF fellow. He was the recipient of the IBM Belgium 2009 award and a finalist of the ERCIM Cor Baayen award 2011.

Website:http://perso.uclouvain.be/raphael.jungers/

"Planning and learning for nonlinear control"
(Séminaire Lucian BUSONIU)

Résumé : Following a brief outline of my work and career trajectory so far, I will present my research since arriving at CRAN one year ago. This research exploits the framework of Markov decision processes, which describes the problem of optimally controlling very general systems. After introducing this framework, the presentation will be structured along the two main lines of my work. Throughout, I point out internal and external cooperations. The first line deals with planning and learning methods, developed in artificial intelligence to solve Markov decision processes. Planning finds a solution using a model of the system, whereas learning derives a solution from data, possibly without requiring a model. In this context, highlights include a method to deal with continuous inputs, and a learning technique to accelerate the planning process. In perspective, we plan among others to develop methods specifically adapted to solve the control problems treated in my second main line of research. This second line has been newly started after my arrival at CRAN, and deals with the application of planning and learning to unsolved problems in the control of nonlinear systems. In particular, we focus on optimal control over a network, where communication is limited; and on achieving consensus among agents in a distributed multiagent system. Results include the networked control of deterministic systems, and optimization-based consensus. Perspectives include dealing with novel types of system uncertainty in networked control, and theoretically sound planning for consensus.

"The synchronverter: a device for the grid-friendly connection of renewable energy "
(Séminaire George Weiss)

Abstract: It is well known that the predicted massive penetration of renewable power sources into the power grid may pose serious challanges, due to the intermittency of the power output and also due to lack of stabilizing properties of conventional DC/AC converters. The intermittency can only be solved by storage, that is currently too expensive to be viable. The stabilizing properties of synchronous generators can be inherited by static power converters, if they are controlled in a suitable way. Such a converter, that looks to the power grid as if it were a synchronous generator, is called a synchronverter. We describe the dynamics, implementation and operation of synchronverters. The real and reactive power delivered by synchronverters connected in parallel and operated as generators can be automatically shared using the well-known frequency and voltage drooping mechanisms. We give simulation and experimental results and report about a project to develop them into a commercial product.

Webpage: http://www.eng.tau.ac.il/~gweiss/

"The convergence property: system theoretic aspects and applications"
(Séminaire Nathan van de Wouw)

Abstract:  In this talk, the convergence property, which is a system-level stability property of nonlinear dynamical systems originally introduced in the 1960's in Russia, will be discussed in detail. A convergent system exhibits a unique, bounded globally asymptotically steady-state solution. Lyapunov characterisations of, sufficient conditions for and properties of convergent systems will be presented. Moreover, relations to notions such as e.g. incremental stability will be briefly addressed. In the second part of the talk it will be advocated that convergence is a very useful property in the analysis and design of nonlinear control systems. Particular applications are: steady-state performance analysis through `nonlinear frequency response functions', output regulation (with tracking, synchronisation as particular sub-problems), observer design, model reduction and extremum seeking control.

Webpage: http://www.dct.tue.nl/New/Wouw/WebpageNathanvandeWouw.html

Bio: Nathan van de Wouw (born, 1970) obtained his M.Sc.-degree (with honours) and Ph.D.-degree in Mechanical Engineering from the Eindhoven University of Technology, Eindhoven, the Netherlands, in 1994 and 1999, respectively. From 1999 until 2013 he has been affiliated with the Department of Mechanical Engineering of the Eindhoven University of Technology in the group of Dynamics and Control as an assistant/associate professor. In 2000, Nathan van de Wouw has been working at Philips Applied Technologies, Eindhoven, The Netherlands, and, in 2001, he has been working at the Netherlands Organisation for Applied Scientific Research (TNO), Delft, The Netherlands. He has held positions as a visiting professor at the University of California Santa Barbara, U.S.A., in 2006/2007 and at the University of Melbourne, Australia, in 2009/2010 and at the University of Minnesota, Minneapolis, U.S.A., in 2012. Nathan van de Wouw has published 60 journal papers, over 100 conference papers, 11 book contributions and 2 books. His current research interests are the analysis and control of nonlinear (and networked) dynamical systems with applications to drilling, milling, mechatronics/robotics and vehicular platooning.

"Hormones stéroides et perturbateurs endocriniens dans le développement gonadique et la cancérogenèse"
(HDR Hélène DUMOND)

Résumé:
Au cours de mon doctorat puis de mes différents stages post-doctoraux, j'ai développé des approches de physiologie et génomique comparatives pour identifier et caractériser des médiateurs moléculaires impliqués dans le contrôle de la prolifération des cellules eucaryotes en réponse aux variations de l'environnement. Je me suis également attachée, dans des modèles biologiques divers, à replacer les mécanismes moléculaires et cellulaires étudiés dans un contexte plus général de physiologie de l'organisme. Depuis ma nomination en tant que Maître de Conférences à l'Université Nancy 1, je me suis focalisée sur l'influence des hormones stéroïdes sur la prolifération et la différenciation normale ou pathologique des cellules germinales. Le projet de recherche que je souhaite développer s'articule autour de 3 mots-clefs : tumeurs hormono-sensibles, perturbateurs endocriniens, voie non conventionnelle de signalisation œstrogénique. Le premier axe renferme un projet concernant les effets d'un mélange d'alkylphénols sur l'initiation et la progression tumorale dans un modèle de cancer testiculaire d'origine germinale puis de cancer mammaire, in vitro et in vivo. Le but est de caractériser le rôle éventuel de ERa36 dans ces processus afin de valider cette forme du récepteur des oestrogènes comme marqueur d'exposition aux perturbateurs endocriniens dans les cellules hormono-. Le second axe s'inscrit dans un objectif à plus long terme qui sera de valider ERa36 comme marqueur prédictif de réponse aux traitements anti-tumoraux dans les cancers hormono-sensibles et en particulier dans le cancer du sein.

Jury:

Rapporteurs:
- MC Rio
- G Livera
- E Pailhoux

Examinatrices :
- D Bagrel
- V Schreiber

Invitée: M Bolotin-Fukuhara

Parrain scientifique: S Flament

"Extended Small Gain Theorem with Application to Time-Delay Switched Linear Systems"
(Séminaire Grace S. DEAECTO)

Abstract : This paper generalizes the Small Gain Theorem - SGT to cope with time-delay switched linear systems. The main purpose is to obtain delay-dependent stability conditions that can be imposed by means of an appropriate switching strategy. Both cases of switching strategies corresponding to state and output feedback are considered. The new version of SGT is specially important in the framework of switched linear systems because it allows robustness analysis with respect to parameter or frequency domain uncertainty arising in Hoo control problems and constant time-delay modeling. Since only sufficient conditions are given, the conservativeness of the final results is evaluated in terms of the gain promoted by the switching strategy, exclusively. The theory is illustrated by means of academic examples.

 

"Identifiabilité, Estimation de paramètres et approche algébrique. Applications."
(Présentation Lilianne Denis-Vidal)

Résumé : L'identifiabilité est une question mathématique posée a priori: si les données sont supposées non bruitées, les paramètres du modèle pourront-ils être déterminés de manière unique à partir des informations issues de ces données? L'estimation de paramètre est elle un problème pratique, qui n'aura du sens que si les paramètres sont au moins localement identifiables. Elle consiste à approcher les valeurs des paramètres à partir de données expérimentales (donc bruitées) et/ou d'informations issues de l'expertise. Après une présentation de l'approche différentielle algébrique de l'identifiabilité, puis du lien possible avec l'estimation de paramètres, des applications diverses seront présentées.

"Observation et Commande des Systèmes de Grande Dimension"
(Thèse Mejda MANSOURI)

résumé : Dans ce mémoire, on s'est intéressé aux problèmes d'estimation, de filtrage $H_{\infty}$ et de la commande basée observateur des systèmes de grande dimension. L'étude porte sur les systèmes linéaires standards mais aussi sur les systèmes algèbro-différentiels appelés aussi systèmes singuliers. Ainsi, on a proposé des méthodes de synthèse d'observateurs et de filtres décentralisés à interconnexions inconnues pour des systèmes de grande dimension standards et singuliers. La procédure de synthèse est basée sur des LMIs permettant de déterminer la matrice de gain paramétrant toutes les matrices de l'observateur.

On a présenté aussi une nouvelle méthode permettant de synthétiser une nouvelle forme d'observateurs interconnectés connectivement stable.

Enfin, on s'est intéressé à l'application des méthodes d'estimation proposées dans le cadre de la commande. En effet, on a proposé une commande décentralisée basée sur un filtre $H_{\infty}$ pour une classe de systèmes de grande dimension standards à interconnections non-linéaires. L'approche est une extension des travaux de Kalsi et al. aux cas des systèmes perturbés non singuliers et singuliers. La méthode proposée est générée par des conditions de solvabilité moins restrictives que celles introduites dans les travaux de Kalsi et al. L'approche a été validée sur un exemple de système composé de trois machines électriques interconnectées.

Membres du jury :

Rapporteurs :
- Michel MALABRE (DR CNRS IRCCYN, Ecole centrale de Nantes, France)
- Dhaou SOUDANI (Université de Tunis, ENIT, Tunisie)

Autres membres :
- Ali DOUIK (Examinateur) (Université de Monastir, ENIM, Tunisie).
- Germain GARCIA (Examinateur) (LAAS, Université de Toulouse- France)
- Mohamed DAROUACH (Directeur de thèse) (CRAN, Université de Lorraine - France)
- Hassani MESSAOUD (Directeur de thèse) (Université de Monastir, ENIM, Tunisie)
- Latifa BOUTAT BADDAS (Co-directeur de thèse) (CRAN, Université de Lorraine- France)

"Analyse et modélisation des performances d'un nouveau type de détecteur en médecine nucléaire : du détecteur Anger au détecteur Semi-conducteur"
(Thèse Laetitia Imbert)

Résumé :
La tomoscintigraphie myocardique est considérée comme un examen de référence pour le diagnostic et l'évaluation de la maladie coronarienne. Mise au point dans les années 1980 avec le développement des gamma-caméras d'Anger rotatives, cette technique est en pleine mutation depuis l'arrivée de nouvelles caméras à semi-conducteurs dont les performances sont nettement supérieures. Deux caméras à semi-conducteurs, dédiées à la cardiologie nucléaire et utilisant des détecteurs de Cadmium Zinc Telluride sont actuellement commercialisées : la Discovery NM-530c (General Electric) et la DSPECT (Spectrum Dynamics). Les performances de ces caméras CZT ont été évaluées : 1) à la fois sur fantôme et sur des examens d'effort provenant de patients à faible probabilité de maladie coronaire, et 2) avec les paramètres d'acquisition et de reconstruction utilisés en clinique. Les résultats ont démontré la nette supériorité des caméras CZT en termes de sensibilité de détection, de résolution spatiale et de rapport contraste sur bruit par rapport à la génération de caméras d'Anger. Ces propriétés vont permettre de diminuer très fortement les temps d'acquisition et les activités injectées, tout en améliorant la qualité des images. Néanmoins, on connaît encore mal les limites et possibles artéfacts liés à la géométrie particulière d'acquisition. Pour cela, nous avons développé un simulateur numérique à partir de la modélisation avec la plateforme GATE de la géométrie des détecteurs de la caméra DSPECT et de leur réponse en énergie. Des données effectivement enregistrées ont été comparées aux données simulées selon trois paramètres de performance : sensibilité de détection en mode tomographique, résolution spatiale et résolution en énergie. Les résultats sont concordants, ce qui permet de valider ce simulateur DSPECT et d'envisager de nombreuses études d'optimisation, en particulier pour les protocoles d'acquisition complexes (acquisitions double traceur, études cinétiques). Mots clés : tomoscintigraphie myocardique, caméras CZT, performances, GATE

Membres du jury :

Rapporteurs :
- Daniel FAGRET INSERM, CHU Grenoble
- Christian MOREL rapporteur CPPM, Université d'Aix-Marseille

Autres membres :
- Irène BUVAT examinateur IMNC, Orsay
- Didier WOLF examinateur CRAN, Université de Lorraine
- Alain NOEL directeur de thèse CRAN, Centre Alexis Vautrin
- Gilles KARCHER co-directeur de thèse CRAN, CHU Nancy
- Pierre-Yves MARIE invité INSERM, CHU Nancy
- Didier PEIFFERT invité CRAN, Centre Alexis Vautrin

"Analyse de stabilité des systèmes à commutations singulièrement perturbés"
(Thèse Fouad El Hachemi)

Résumé :
Un grand nombre de phénomènes nous entourant peuvent être décrit par des modèles hybrides, c'est-à-dire, mettant en jeu simultanément une dynamique continu et une dynamique discrète. Également, il n'est pas rare que ces dynamiques puissent évoluer dans des échelles de temps différentes. Dans cette thèse, nous nous intéressons à l'analyse de stabilité des systèmes à commutations singulièrement perturbés à temps continu. En présence de commutations, l'analyse de stabilité des systèmes singulièrement perturbés dite "classique" (séparation des échelles de temps)n'est plus valable. En nous plaçant en dimension deux et en considérant deux modes, nous donnons une caractérisation complète du comportement asymptotique de tels systèmes lorsque le paramètre de perturbation tend vers zéro. Ensuite, nous étudions la discrétisation des systèmes à commutations singulièrement perturbés, en portant un intérêt particulier aux méthodes de discrétisation permettant de préserver la stabilité et les fonctions de Lyapunov quadratiques communes. Mots-clés: systèmes à commutations, perturbation singulière, stabilité, discrétisation Jury :

Mots-clés: systèmes à commutations, perturbation singulière, stabilité, discrétisation

Rapporteurs :
- Ugo Boscain Directeur de Recherche CNRS CMAP-Ecole Polytechnique
- Didier Henrion Directeur de Recherche CNRS LAAS-Université de Toulouse

Autres membres
- Francesco Rossi Maitre de Conférences LSIS-Université de Aix-Marseille
- Marius Tucsnak Professeur des Universités IECN-Université de Lorraine
- Jamal Daafouz Professeur des Universités CRAN-Université de Lorraine
- Mario Sigalotti Chargé de Recherche INRIA-CMAP-Ecole Polytechnique

"Contribution à la modélisation et au traitement de l'incertain dans les analyses de risques multidisciplinaires de systèmes industriels - Application à la Source Froide d'une unité de production d'énergie"
(Thèse Geoffrey FALLET-FIDRY)

Résumé
Face à la complexité croissante des systèmes industriels, il est aujourd'hui primordial de démontrer que l'ensemble des risques est maitrisé. En ce sens, différentes approches ont été développées ces dernières années afin de proposer une vision globale des risques techniques, humains, organisationnels et environnementaux. Parmi elles, celle développée depuis plusieurs années par EDF et intitulée AidR (Analyse intégrée Des Risques) apparait comme une solution intéressante en proposant un modèle unifié à la fois multidisciplinaire, générique et outillé. 

Cependant, ces approches disposent aujourd'hui d'un potentiel d'amélioration en termes de modélisation et de traitement des connaissances (issues principalement du retour d'expérience statistique et des avis d'expert). En effet, ces connaissances sont bien souvent entachées d'incertain qui influe sur l'ensemble du processus d'appréciation des risques et donc sur la pertinence des résultats issus de ces études. Si l'incertain dû au caractère aléatoire des phénomènes physiques est généralement bien appréhendé grâce à la théorie des probabilités, l'incertain dû à l'imperfection des connaissances (incertitude épistémique) l'est beaucoup moins.

L'un des enjeux majeurs actuels est donc de disposer d'une approche adaptée à la modélisation et au traitement conjoints des différents incertains afin de fournir des résultats les plus pertinents possibles aux décideurs. Pour satisfaire à cet objectif, la théorie de l'évidence constitue une alternative intéressante pour modéliser et traiter de façon plus cohérente et plus flexible des connaissances et leur incertain.

En s'appuyant sur cette théorie, nos travaux proposent trois contributions majeures pour la modélisation et le traitement de l'incertain. La première concerne la formalisation de l'élicitation des risques par avis d'experts en proposant différents outils pour une collecte flexible et plus complète de ces derniers (identification des risques). La seconde contribution aboutit à un modèle de risques évidentiel permettant de représenter de façon cohérente les différentes expressions des connaissances et d'apprécier les différents risques (analyse des risques). Enfin, la dernière contribution porte sur la proposition de supports à la prise de décision en univers incertain (évaluation des risques). Ces supports concernent à la fois la représentation des résultats et des éléments pour l'identification des contributeurs à l'incertain et à sa réduction.

L'application de ces contributions sur un cas réel de l'industriel EDF permet ensuite de mettre en évidence leur faisabilité ainsi que leurs apports au regard d'approches plus conventionnelles. Elle nous permet également de dégager de nouvelles perspectives de recherche pour le développement de cette méthodologie.

Rapporteurs :
- Laurent Foulloy, Professeur à l'Ecole Polytechnique de l'Université de Savoie
- Walter Schön, Professeur à l'Université de Technologie de Compiègne

Examinateurs :
- Boutheina Ben Yaghlane, Professeur à l'IHEC de Carthage (Tunisie) Enrico Zio, Professeur à Centrale Paris et à l'Ecole Polytechnique de Milan (Italie)
- Carole Duval, Chargée de mission chez EDF Recherche et Développement
- Benoît Iung, Professeur à l'Université de Lorraine (directeur de thèse)
- Philippe Weber, Maître de Conférences à l'Université de Lorraine
- Christophe Simon, Maître de Conférences à l'Université de Lorraine

"Second-Order Multidimensional ICA: Theory and Methods"
(Séminaire Dana Lahat - Faculty of Engineering, Tel Aviv University)

Abstract:

Independent component analysis (ICA) and blind source separation (BSS) deal with extracting a number of mutually independent elements from a set of observed linear mixtures. Motivated by various applications, this talk considers a more general and more flexible model: the sources can be partitioned into groups exhibiting dependence within a given group but independence between two different groups.

The core of this talk is the statistical analysis of the blind separation of multidimensional components based on second-order statistics, in a piecewise-stationary model. We develop the likelihood and the associated estimating equations for the Gaussian case. We obtain closed-form expressions for the Fisher information matrix and the Cramér-Rao lower bound (CRLB) of the de-mixing parameters, as well as the mean square error (MSE) of the component estimates. For Gaussian data, our separation criterion achieves, up to higher-order terms, the CRLB, and is thus optimal in the MSE sense.

We then turn to the case when the separation procedure is based on a one-dimensional model, followed by a clustering step, in which the one-dimensional output is assigned into groups, representing the multidimensional components. We show that for piecewise stationary data, and when only second-order statistics are used, this form of separation is suboptimal.

We demonstrate our methods and algorithms on an astrophysical application. Namely, the extraction of the Cosmic Microwave Background Radiation from its observations.

"Développement de méthodes d'estimation modale de signaux multidimensionnels. Application à la spectroscopie RMN multidimensionnelle"
(Séminaire Bruno ROSSION - Institut de Recherche en Sciences Psychologique et Institut de Neuroscience Université catholique de Louvain, Louvain-la-Neuve, Belgique)

Une stimulation visuelle périodique entraîne une activité électrophysiologique périodique des aires visuelles du cerveau.
Cette activité peut être mesurée sur le scalp à l'aide de l'électroencéphalogramme (EEG) et se caractérise par une phase et une amplitude stable, d'où le nom de potentiels évoqués visuels « stationnaires » (« visual evoked potentials », « SSVEP », Regan, 1966).
Cette technique SSVEP a été utilisée jusqu'à présent essentiellement pour mesurer des processus sensoriels de bas niveau et des modulations attentionnelles de ces réponses. Lors de cet exposé, je montrerai que cette technique peut être extrapolée à la compréhension des processus de perception visuelle de haut niveau (formes), en particulier de la perception des visages. Elle présente de nombreux avantages pour le chercheur, permettant d'enregistrer des réponses électriques cérébrales rapidement avec un rapport signal sur bruit élevé, et de les identifier et mesurer objectivement (i.e., exactement à la fréquence de stimulation définie par l'expérimentateur).
En particulier, je montrerai que cette approche peut être extrêmement intéressante pour mesurer et caractériser les processus de détection et d'individualisation des visages, sur le scalp et en enregistrements intracérébraux.


Références

(1) Regan, D. (1966). Some characteristics of average steady-state and transient responses evoked by modulated light. Electroencephalography and Clinical Neurophysiology, 20, 238–248.

(2) Rossion, B. & Boremanse, A. (2011). Robust sensitivity to facial identity in the right human occipito-temporal cortex as revealed by steady-state visual-evoked potentials. /Journal of Vision. /(2):16, 1–21.

(3) Rossion, B., Alonso-Prieto, E., Boremanse, A., Kuefner, D., Van Belle, G. (2012). A steady-state visual evoked potential approach to individual face perception: effect of inversion, contrast-reversal and temporal dynamics. /NeuroImage,/ 63, 1585-1600.

(4) Ales, J., Farzin, F., Rossion, B., Norcia, A.M. (2012). An objective method for measuring face detection thresholds using the sweep steady-state evoked response. /Journal of Vision./ 12(10). pii: 18. doi: 10.1167/12.10.18.

"Développement de méthodes d'estimation modale de signaux multidimensionnels. Application à la spectroscopie RMN multidimensionnelle"
(Thèse Souleymen Sahnoun)

Résumé :
Cette thèse porte sur le développement d'algorithmes d'estimation rapides pour l'analyse modale de signaux multidimensionnels (R-D) présentant des problèmes de résolution et de complexité numérique. Un signal multidimensionnel de dimension R est la superposition de produits de R sinusoïdes. L'application visée est la spectroscopie RMN.

Dans un premier, après un état de l'art des méthodes d'estimation dites « algébriques », nous proposons une méthode paramétrique basée sur les tenseurs. Celle-ci utilise le treillis multidimensionnel du tenseur du signal R-D et exploite la structure des vecteurs propres du sous-espace signal obtenus en utilisant la décomposition en valeurs singulières d'ordre supérieur. Contrairement à la plupart des approches tensorielles, la méthode proposée permet d'éviter la phase d'appariement des coordonnées des modes dans chacune des dimensions ou d'une diagonalisation conjointe. 

Dans un deuxième temps, le problème d'estimation modale est présenté comme un problème d'approximation parcimonieuse dans lequel le dictionnaire est obtenu par la discrétisation de fonctions exponentielles complexes. Afin d'atteindre une bonne résolution spectrale, il est nécessaire de choisir une grille très fine, ce qui conduit à la manipulation d'un dictionnaire de grande taille avec tous les problèmes calculatoires sous-jacents. Nous proposons alors une méthode originale qui consiste à combiner une approximation parcimonieuse et une approche multigrille sur plusieurs niveaux de résolution. L'approche est validée au travers de plusieurs exemples 1-D et 2-D. En outre, une étude sur l'influence du choix du dictionnaire initial sur la convergence est également menée. 

On termine par une application à l'estimation des paramètres de signaux de spectroscopie RMN 1-D et 2-D en utilisant l'approche multigrille. Afin de réduire le coût de calcul dans le cas de signaux bidimensionnels de grande taille, nous proposons également une approche exploitant la notion de parcimonie simultanée, pour estimer les coordonnées des modes sur chacune des dimensions. La procédure consiste à effectuer deux approximations parcimonieuses 1-D suivies d'une phase de reformation des paires de modes 2-D. 

Membres du jury :
Rapporteurs:

Pascal LARZABAL Professeur à l'ENS Cachan
Corinne MAILHES Professeur à l'INP Toulouse

Examinateurs : 
Guillaume GINOLHAC Professeur à l'Université de Savoie 
Didier WOLF Professeur à l'Université de Lorraine 
David BRIE                     Professeur à l'Université de Lorraine
El-Hadi DJERMOUNE MdC à l'Université de Lorraine

"Compression d'images dans les réseaux de capteurs sans fil"
(Thèse Leila MAKKAOUI)

Résumé- Les réseaux de capteurs sans fil d'images sont utilisés aujourd'hui dans de nombreuses applications qui diffèrent par leurs objectifs et leurs contraintes individuelles. Toutefois, le dénominateur commun de toutes les applications de réseaux de capteurs d'images reste la vulnérabilité des noeuds-capteurs en raison de leurs ressources matérielles limitées dont la plus contraignante est l'énergie. En effet, les technologies sans fil disponibles dans ce type de réseaux sont généralement à faible portée, et les ressources matérielles (CPU, batterie) sont également de faible puissance. Il faut donc répondre à un double objectif: l'efficacité d'une solution tout en offrant une bonne qualité d'image à la réception. 

La contribution de cette thèse porte principalement sur l'étude des méthodes de traitement et de compression d'images au noeud-caméra, nous avons proposé une nouvelle méthode de compression d'images qui permet d'améliorer l'efficacité énergétique des réseaux de capteurs d'images. Des expérimentations sur une plate-forme réelle de réseau de capteurs d'images ont été réalisées afin de démontrer la validité de nos propositions, en mesurant des aspects telles que la quantité de mémoire requise pour l'implantation logicielle de nos algorithmes, leur consommation d'énergie et leur temps d'exécution.

Nous présentons aussi, les résultats de synthèse de la chaine de compression proposée sur des systèmes à puce FPGA et ASIC.

 

Abstract- The increasing development of Wireless Camera Sensor Networks today allows a wide variety of applications with different objectives and constraints. However, the common problem of all the applications of sensor networks remains the vulnerability of sensors nodes because of their limitation in hardware resources, the most restricting being energy. Indeed, the available wireless technologies in this type of networks are usually a low-power, short-range wireless technology and low power hardware resources (CPU, battery). So we should meet a twofold objective: an efficient solution while delivering outstanding image quality on reception.

This thesis concentrates mainly on the study and evaluation of compression methods dedicated to transmission over wireless camera sensor networks. We have suggested a new image compression method which decreases the energy consumption of sensors and thus maintains a long network lifetime. We evaluate its hardware implementation using experiments on real camera sensor platforms in order to show the validity of our propositions, by measuring aspects such as the quantity of memory required for the implementation program of our algorithms, the energy consumption and the execution time. 

We then focus on the study of the hardware features of our proposed method of synthesis of the compression circuit when implemented on a FPGA and ASIC chip prototype.

- Rapporteurs :

Professeur Jean-Jacques PANSIOT, Université de Strasbourg
- LSIIT

Professeur Amine NAIT-ALI , Université Paris-Est Créteil- LiSSi

- Examinateurs :

Professeur Francis LEPAGE, Université de Lorraine - CRAN

Professeur Congduc PHAM, Université de Pau - LIUPPA

Professeur Jean-Marie MOUREAUX, Université de Lorraine - CRAN

Maître de Conférence Vincent LECUIRE, Université de Lorraine - CRAN

"Behavioral system theoretic approach to fault-tolerant control"
(Thèse Tushar JAIN)

Abstract:

The field of system and control theory has achieved an interdisciplinary status during the past five decades, and we refer to the theory that was developed during this period as the conventional control theory. This mainly relates to the study of automation and the design of controllers. A controller is a device that makes the interconnection with a given system so that the controlled system can behave in a desired way. In this thesis, we deal with the issues when the controlled system becomes faulty. The control of a faulty system addresses the concept of Fault-Tolerant Control System (FTCS). The study of such systems is in response to the demands of large-scale industries since from their viewpoint it is the foremost task to design control systems, which are capable of tolerating potential faults occurring either in the internal closed-loops or from the environmental factors in order to improve the reliability and availability of a system while providing the expected performance.

The work presented in this thesis is mainly focused on synthesizing the online controllers that guarantee the closed-loop system to be fault-tolerant at anytime. Two methodologies are proposed in this work, which rest under the broad classification of FTC systems, namely projection-based approach and online redesign approach. The novelty of these approaches lies in the fact that any a priori information about the plant is not available in real-time. In addition, no online identification or estimation of the operating plant is carried out. Rather, the re-configuration procedure of the controllers is solely based on the measurements generated by the unknown plant. This phenomenon is very nicely demonstrated by using the time-trajectory based viewpoint of behavioral theory. Within this mathematical framework, the interconnection between two dynamical systems, namely the plant and the controller, plays the significant role. Consequently, taking the benefits of this behavioral framework, the real-time measurement based solutions are proposed to handle the fault-tolerant control problem.

From the practical implementation viewpoint, the transient management during the controller reconfiguration mechanism is one of the important requirements for active FTCS. The last part of the thesis deals with the online implementation of the controllers within the behavioral framework, which takes care of the transient mechanism. The proposed approach guarantees the real-time smooth interconnection between the controller and the unknown plant. Moreover, in this part the application of the theory developed in the thesis is effectively demonstrated on real-world examples, namely the two-tank system, the aircraft landing mechanism, and the NREL's 5MW wind turbine system.

Reviewers:

Prof. Vincent COCQUEMPOT, Université Lille1 : Sciences et Technologies, France ;
Prof. Ron PATTON, The University of Hull, UK

Examiners:

Prof. Abdellah EL MOUDNI, Université de Technologie de Belfort-Montbéliard, France ;
Prof. Didier MAQUIN, Université de Lorraine, France ;
Prof. Dominique SAUTER, Université de Lorraine, France (Directeur de thèse) ;
Dr. Joseph Julien YAMÉ, Université de Lorraine, France (Co-directeur de thèse).

"Model predictive control of regular and switching max-plus-linear systems"
(Séminaire Prof. Bart De Schutter)

Abstract:
This presentation gives an overview of the work done at the Delft Center for Systems and Control on model-based predictive control (MPC) for max-plus-linear systems and related classes of systems. Max-plus linear systems are a special class of discrete-event systems of which the behavior is described using the operations maximization and addition, resulting in a model description that is linear on the so-called max-plus algebra. We show that under quite mild assumptions the MPC optimization for max-plus-linear systems can be recast as a linear programming problem. We also discuss stability and stochastic max-plus-linear systems, as well as MPC for extensions of max-plus-linear systems such as switching max-plus-linear systems and max-min-plus-scaling systems (this latter class is in fact equivalent to the class of continuous piecewise affine systems).

"Localisation du ganglion sentinelle au moyen de nanoparticules fluorescentes émettant dans le proche infrarouge - Application au cancer du sein"
(Thèse Marion HELLE)

La biopsie du ganglion sentinelle (GS) est actuellement la technique de référence pour le diagnostic des métastases ganglionnaires du cancer du sein. Cependant, les traceurs utilisés pour la cartographie du GS (colorant bleu et radiocolloïde) ne sont pas idéaux et peuvent occasionner des réactions allergiques et engendrer des coûts importants. Une alternative à l'utilisation de ces traceurs repose sur le repérage du GS par imagerie de fluorescence proche infrarouge à l'aide de nanoparticules. Deux types de nanoparticules ont été étudiés : les Quantum Dots (QDs) à base d'indium et les nanoparticules de silice (NPSi) renfermant de la cyanine 7.
Notre étude s'est basée sur des QDs-indium, dont la toxicité est supposée être plus faible que celle des QDs à base de cadmium. La visualisation du GS par les traceurs actuels étant altérée par l'envahissement métastatique du ganglion, un modèle murin de carcinome mammaire présentant des métastases ganglionnaires a été utilisé. La présence de cellules métastatiques dans le ganglion n'affecte pas la migration des QDs puisqu'aucune différence d'intensité de fluorescence n'a pu être détectée entre les ganglions sains et les ganglions envahis. L'étude de biodistribution a mis en évidence une capture majeure des QDs au point d'injection et dans les ganglions ainsi qu'une plus faible concentration dans le foie et la rate. La toxicité des QDs a été évaluée in vitro et a démontré une toxicité fortement réduite des QDs-indium par rapport aux QDs-cadmium.
Les NPSi ont été largement appliquée à l'imagerie tumorale mais les études portant sur la visualisation du GS sont peu nombreuses. Les avantages de l'encapsulation de la cyanine 7, fluorophore hydrophobe émettant dans le proche infrarouge, dans des NPSi comprennent notamment une meilleure rétention dans le GS et une toxicité in vitro considérablement limitée par rapport au fluorophore libre. Les souris ont été suivies pendant 3 mois après injection de NPSi et aucun signe de toxicité générale ou hépatique n'a pu être décelé.
Ces deux types de nanoparticules fluorescentes sont particulièrement bien adaptés à la cartographie du GS et pourraient avantageusement remplacer les traceurs employés actuellement.

Mots clés : ganglion sentinelle, imagerie de fluorescence proche infrarouge, Quantum Dots à base d'indium, nanoparticules de silice, cyanine

Abstract : Sentinel lymph node (SLN) biopsy is a reliable technique for the diagnosis of metastases in breast cancer. However, the tracers used (blue dye and radiocolloid) are not optimal because they can cause allergic reactions and major costs in waste processing. Our strategy was to use near-infrared emitting nanoparticles for the mapping of SLN: indium-based Quantum Dots (QDs) and cyanine 7 embedded in silica nanoparticles (SiNP).
We investigated indium-based QDs, which are presumed to be less toxic than their cadmium-based counterparts. Considering that SLN mapping is impaired if lymph nodes are invaded by metastatic cells, we therefore used a murine model of mammary carcinoma with lymphatic metastases. Metastatic cells did not influence the migration of QDs in the SLN since no difference in fluorescence intensity could be observed between healthy and metastatic SLN. The biodistribution study concluded that the major organs of retention were the injection point and lymph nodes whereas liver and spleen accumulated fewer QDs. The cytotoxicity tests demonstrated a weak in vitro toxicity of indium- compared to cadmium-based QDs.
SiNP have been already used for tumor imaging but reports on the mapping of SLN with near-infrared emitting SiNP are sparse. The benefits of the encapsulation of the hydrophobic near-infrared emitting fluorophore cyanine 7 included a better retention in the SLN and a reduced in vitro toxicity compared to free fluorophore. The in vivo toxicity in mice was followed during 3 months after injection and did not reveal any signs of general or hepatic toxicity.
Both fluorescent nanoparticles are thus well adapted for the mapping of the SLN and could be a favourable substitute to the actually tracers.
Key words: sentinel lymph node, near-infrared fluorescence imaging, indium-based Quantum Dots, silica nanoparticles, cyanine

Membres du jury :

Rapporteurs Dr. André Pelegrin, Institut de Recherche en Cancérologie de Montpellier
Dr. Patrick Poulet, Université de Strasbourg

Examinateurs :
Pr Jean-Marc Classe, Institut de Cancérologie de l'Ouest, Nantes
Dr Thomas Pons, Université Pierre et Marie Curie, Paris
Pr Frédéric Marchal, Université de Lorraine, Directeur de thèse
Dr Lina Bolotine, Université de Lorraine, Co-directeur de thèse

Membres invités Pr. François Guillemin, Université de Lorraine

"Internet of Things and Big Data Challenge "
(Séminaire Arkady Zaslavsky)

Abstract:
The Internet of Things (IoT) is one of the pillars of Future Internet and will connect billions of "things", where things include computers, smart phones, sensors, objects from everyday life with embedded computational and communication capabilities and the list goes on and on. Each of those things will have their physical and/or virtual identity, attributes, intelligent interfaces, componentised functionality and standardised communication protocols. The Internet of Things will be generating massive amounts of data that will have to be stored, validated, processed and communicated to relevant services, applications and systems. This talk focuses on the challenges of dealing with the big data produced by the IoT, discovery of relevant and useful data for various services and applications, representing semantics and enriching IoT data with semantics, transforming IoT data into context for pervasive computing systems and integrating these into knowledge through semantic and probabilistic reasoning. The talk will also present various CSIRO projects -in IoT domain, including EU FP7 OpenIoT and SenseT which deal with enabling open flexible sensor-based information systems infrastructure.

Bio:
Professor Arkady Zaslavsky is the Science Leader of the Semantic Data Management science area. Before coming to CSIRO in July 2011, he held a position of a Chaired Professor in Pervasive and Mobile Computing at Luleå University of Technology, Sweden where he was involved in a number of European research projects, collaborative projects with Ericsson Research, PhD supervision and postgraduate education. Between 1992 and 2008 Arkady was a full-time academic staff member at Monash University, Australia, where he held various academic and administrative positions including Director of Monash Research Centre for Distributed Systems and Software Engineering, Director of Monash CoolCampus initiative that brought together pervasive computing researchers with university users. He was a Principal Investigator at CRC DSTC (Distributed Systems Technology Centre) leading and contributing to the DSTC project "M3: Enterprise Architecture for Mobile computations".
He led and was involved in a number of research projects funded by ARC (ARC Discovery and Linkage) and industry, both at national and international level, totalling in support more than AU$ 12,000,000,000. He chaired and organised many international workshops and conferences, including Mobile Data Management, Pervasive Services, Mobile and Ubiquitous Multimedia and others. Arkady made internationally recognised contribution in the area of disconnected transaction management and replication in mobile computing environments, context-awareness as well as in mobile agents.
He made significant internationally recognised contributions in the areas of data stream mining on mobile devices, adaptive mobile computing systems, ad-hoc mobile networks, efficiency and reliability of mobile computing systems, mobile agents and mobile file systems. Arkady received MSc in Applied Mathematics majoring in Computer Science from Tbilisi State University (Georgia, USSR) in 1976 and PhD in Computer Science from the Moscow Institute for Control Sciences (IPU-IAT), USSR Academy of Sciences in 1987.
Before coming to Australia in 1991, Arkady worked in various research positions at industrial R&D labs as well as at the Institute for Computational Mathematics of Georgian Academy of Sciences where he lead a systems software research laboratory. Arkady Zaslavsky has published more than 300 research publications throughout his professional career and supervised to completion more than 30 PhD students.

"Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit"
(Thèse Sylvain Kubler)

Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse consiste en la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir et de penser le produit, la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinsèquement et intégralement "communicant". Le cadre de dissémination des informations proposé offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer à l'avenir concernant le concept de "matière communicante".

Abstract : Over the last decade, communities involved with intelligent-manufacturing systems (IMS - Intelligent Manufacturing Systems, HMS - Holonic Manufacturing System) have demonstrated that systems that integrate intelligent products can be more efficient, flexible and adaptable. Intelligent products may prove to be beneficial economically, to deal with product traceability and information sharing along the product lifecycle. Nevertheless, there are still some open questions such as the specification of what information should be gathered, stored and distributed and how it should be managed during the lifecycle of the product. The contribution of this thesis is to define a process for disseminating information related to the product over its lifecycle. This process is combined with a new paradigm, which changes drastically the way we view the material. This concept aims to give the ability for the material to be intrinsically and wholly "communicating". The data dissemination process allow users to store context-sensitive information on communicating product. In addition to the data dissemination process, this thesis gives insight into the technological and scientific research fields inherent to the concept of "communicating material", which remain to be explored.

- Rapporteurs :
Professeur Kary FRAMLING, Université de Aalto, Finlande,
Professeur Damien TRENTESAUX, Université de Valenciennes et du Hainaut-Cambrésis - TEMPO,
Professeur Daniel JOLLY, Université de Lille Nord - LGI2A.

- Examinateurs :
Ingénieur Joseph RABITA, Orange - Directeur de l'Ingénierie Stockage et Réseaux,
Maître de Conférence William DERIGENT, Université de Lorraine - CRAN,
Professeur Eric RONDEAU, Université de Lorraine - CRAN,
Professeur André THOMAS, Université de Lorraine - CRAN.

"Propriétés photobiologiques de nanoparticules photoactivables utilisées pour le traitement de cancers"
(Thèse Vadim RESHETOV)

La thérapie photodynamique (PDT) est une modalité de traitement du cancer qui utilise la combinaison d'un photosensibilisant, de la lumière et d'oxygène moléculaire. L'application de nanosubstances liposomales pour délivrer les photosensibilisants dans la tumeur est devenu un sujet important de la recherche en PDT. La présente étude porte sur les formulations liposomales conventionnelles et stériquement stabilisées de photosensibilisant mTHPC, Foslip® et Fospeg®, dans le but de déterminer les paramètres pour l'optimisation de la PDT liposomale. La caractérisation du comportement in vitro de la mTHPC liposomale a été étudiée, particulièrement sa localisation, l'état d'agrégation et les propriétés photophysiques des drogues dans les liposomes. Nous avons démontré l'état monomérique de la mTHPC dans les vésicules lipidiques et une localisation partielle du mTHPC dans Fospeg® dans la partie PEG des liposomes, alors que la majeure partie est liée à la bicouche lipidique. Nous avons ensuite étudié les cinétiques de relargage des drogues, le mode de liaison aux protéines et la destruction des liposomes dans le sérum. Dans ce but, une méthodologie basée sur la fluorescence pour estimer le relargage de la mTHPC à la fois in vitro et in vivo a été développée, ainsi que d'un essai in vitro pour caractériser la destruction des liposomes. Le relargage de la mTHPC des liposomes PEGylés a été retardé par rapport aux liposomes conventionnels et la destruction des liposomes a été considérablement diminuée. La connaissance de tous ces paramètres permet de mieux prédire le taux de relargage de la drogue, les paramètres pharmacologiques et l'effet tumoricide in vivo. Le traitement PDT pourrait être plus avantageux avec le Fospeg® comparé à la mTHPC incorporée dans les liposomes conventionnels.

Abstract : Photodynamic therapy (PDT) is a photochemical-based modality of cancer treatment that uses a combination of a photosensitizer, light and molecular oxygen. Application of liposomal nanocarriers to deliver photosensitizers to tumor targets has become a major direction of PDT research. The present study investigates conventional and sterically stabilized liposomal formulations of the photosensitizer mTHPC, Foslip® and Fospeg®, with a view to determine the parameters for optimizing liposomal PDT. The characterization of in vitro behaviour of liposomal mTHPC was conducted, with an emphasis on drug localization, aggregation state and photophysical properties of the compounds in liposomes. We demonstrated the monomeric state of mTHPC in lipid vesicles and a partial localisation of mTHPC in Fospeg® in a PEG shell, while the main part was bound to the lipid bilayer. We further studied the drug release kinetics and binding pattern to serum proteins and the destruction of liposomes in serum. With this aim, a fluorescence-based methodology of estimating mTHPC release both in vitro and in vivo was developed, as well as an in vitro assay to characterize liposome destruction. The release of mTHPC from PEGylated liposomes was delayed compared with conventional liposomes along with greatly diminished liposome destruction. Knowledge of these parameters allows to better predict the drug release rate, pharmacological parameters and in vivo tumoricidal effect. The PDT treatment could be more advantageous with Fospeg® compared to mTHPC embedded in conventional liposomes.

- Rapporteurs :
Professeur Beate ROEDER, Humboldt-Université, Allemagne
Docteur Athena KASSELOURI, Université Paris Sud, Paris

- Examinateurs :
Professeur François GUILLEMIN, Université de Lorraine - CRAN, CAV
Professeur Boris DZHAGAROV, Institut de Physique de l'Académie de Sciences de Biélorussie, Biélorussie
Docteur Lina BOLOTINE, Université de Lorraine - CRAN,
Docteur Vladimir ZORIN, Université d'Etat Biélorusse, Biélorussie

"Stabilisation robuste des systèmes affines commutés. Application aux convertisseurs de puissance"
(Thèse Pascal HAUROIGNE)

Résumé :

Les travaux de cette thèse portent sur la stabilisation des systèmes affines commutés. Ces systèmes appartiennent à la classe des systèmes dynamiques hybrides. Ils possèdent de plus la particularité d'avoir des points de fonctionnement non auto-maintenables : il n'existe pas de loi de commutations permettant de maintenir l'état du système en ce point. De ce fait, la stabilisation de ces systèmes en imposant à la loi de commutations une durée minimale entre chaque commutation aboutit à une convergence des trajectoires dans une région de l'espace d'état. Après avoir synthétisé différentes stratégies de commutations échantillonnées construites à partir d'une fonction de commande de Lyapunov en temps continu, nous cherchons à déterminer la région de l'espace dans laquelle converge asymptotiquement l'ensemble des trajectoires du système. Par la résolution d'un problème d'optimisation, une estimation de la taille de cette région est donnée et un lien avec les incertitudes du système y est établi. Un second problème de stabilisation est étudié dans cette thèse, en considérant une stratégie de commande basée observateur par retour de sortie. Cependant, du fait de la nature hybride du système, son observabilité est directement liée à la séquence de commutations. Il est alors nécessaire de garantir à la fois l'observabilité, par une condition algébrique, et la convergence du système vers un point de fonctionnement, par l'existence d'une fonction de commande de Lyapunov.

Mots-clés: systèmes affines commutés,stabilisation,robustesse,observateurs,fonctions de commande de Lyapunov

Jury :

Jean BUISSON   Professeur des Universités   Supelec   Rapporteur
Christophe PRIEUR   Directeur de Recherche CNRS   Gipsa-Lab   Rapporteur
Mohamed DJEMAI   Professeur des Universités   Université de Valenciennes et du Hainaut-Cambrésis   Examinateur
Romain POSTOYAN   Chargé de Recherche CNRS   CRAN   Examinateur
Claude IUNG   Professeur des Universités   Université de Lorraine   Directeur de thèse
Pierre RIEDINGER   Maitre de Conférences   Université de Lorraine   CoDirecteur de thèse

"Contrôle, synchronisation et chiffrement"
(Thèse Jérémy ROBERT)

Résumé :

Les lanceurs spatiaux actuels, et en particulier Ariane 5, utilisent le réseau déterministe MIL-STD-1553B. Compte tenu des nouveaux objectifs de réduction des coûts et de la masse du système global ainsi que du support de trafic de télémesure multimédia, cette technologie n'est plus forcément optimale. Parmi les différents candidats de remplacement, cette thèse met en évidence les capacités du standard Ethernet à répondre à ces nouveaux objectifs tout en s'appuyant sur une utilisation de composants matériels et d'outils de développement existants à moindre coût (COTS). La première contribution porte sur l'évaluation de performances temporelles des architectures commutées. Les travaux mettent ainsi en évidence les gains et limites liés au choix d'une part du mode de communication (de maître/esclaves à producteurs/consommateur) et d'autre part à une future distribution de l'avionique. Pour cela, cette étude s'appuie sur une évaluation déterministe des délais de bout en bout par calcul réseau, simulations et expérimentations. Ces résultats ont été validés pour deux architectures commutées pour un scénario représentatif des vols actuels. La seconde contribution concerne l'amélioration de la disponibilité du système de communication. Il est proposé une stratégie de reconfiguration "temps réel" des chemins par supervision active du réseau. Dans le cadre d'exigences critiques, il est également proposé l'utilisation d'arbres couvrants multiples permettant d'anticiper la défaillance d'éléments d'interconnexion. Enfin, le choix d'architectures commutées et segmentées ne permet plus d'observer en tout point le réseau comme sur un bus. Pour cela, cette thèse met en avant les conditions et performances dans lesquelles un protocole de synchronisation d'horloges pourra contribuer à générer à partir de plusieurs points de captures une trace unique des échanges sur le réseau. Ce travail permettra d'identifier les tests pour une future validation du standard Ethernet pour les lanceurs spatiaux.

- Rapporteurs :

Professeur Anne BARROS-LEFEBVRE, Université de Technologie de Troyes - LM2S
Professeur Christian FRABOUL, Institut National Polytechnique de Toulouse - IRIT

- Examinateurs :
Professeur Jean-François PETIN, Université de Lorraine - CRAN
Ingénieur Philippe MIRAMONT, CNES - Direction des lanceurs Maître de Conférence
Jean-Philippe GEORGES, Université de Lorraine - CRAN
Professeur Thierry DIVOUX, Université de Lorraine - CRAN

"Contrôle, synchronisation et chiffrement"
(Thèse Jérémy PARRIAUX)

Résumé :
Cette thèse traite de la synchronisation des systèmes dynamiques. La synchronisation est étudiée pour une configuration de type maître-esclave, c'est-à-dire pour des systèmes couplés de façon unidirectionnelle.  Ce type de configuration s'avère d'un intérêt tout particulier car elle correspond à des architectures de communications chiffrées un-vers-un ou un-vers-plusieurs. Une attention spécifique est portée sur l'autosynchronisation, comportement qui caractérise la synchronisation par le simple couplage maître-esclave et donc en l'absence de tout contrôle extérieur. Elle joue un rôle majeur dans les communications impliquant des chiffreurs par flot autosynchronisants. L'étude de l'autosynchronisation dans le contexte cryptographique s'appuie sur la théorie du contrôle. Un lien original entre l'autosynchronisation et le principe de chiffrement/déchiffrement en cryptographie est mis en évidence. Il fait appel à la propriété de platitude des systèmes dynamiques, un concept emprunté à l'automatique. On montre que les systèmes dynamiques plats définissent complètement l'ensemble des systèmes autosynchronisants et permettent d'élargir les structures existantes des chiffreurs autosynchronisants. La platitude est tout d'abord étudiée pour deux types de systèmes non linéaires~: les systèmes linéaires commutés et à paramètres variants (LPV). La caractérisation des sorties plates s'appuie sur le concept de semigroupes nilpotents et un algorithme performant est proposé. Une approche constructive pour réaliser des structures maître-esclave autosynchronisantes est proposée sur la base de systèmes plats et les notions d'inversibilité à gauche et à droite empruntées à la théorie du contrôle. Par la suite, l'autosynchronisation est étudiée dans le contexte booléen, privilégié en cryptographie.
Elle est caractérisée en premier lieu au travers la notion d'influence. Ensuite, différentes représentations matricielles associées aux fonctions booléennes sont proposées. Ces représentations s'avèrent particulièrement intéressantes pour l'analyse des propriétés liées à la sécurité. Un lien entre l'autosynchronisation et les structures propres des représentations matricielles est établi. Une approche orientée graphes est finalement élaborée pour la caractérisation. De nouvelles constructions de structures autosynchronisantes en sont déduites et des éléments de sécurité sont discutés. Enfin, une plateforme de test à base de FPGA qui a été réalisée est décrite.

Mots-clés : systèmes à commutation; platitude; chiffreur par flot autosynchronisant; fonctions booléennes; corps finis

Jury
Rapporteurs :
Jean-Pierre Barbot                         - Professeur des universités, ENSEA, Cergy
Thierry Berger                                  - Professeur des universités, Universités de Limoges, XLIM, Limoges

Examinateurs :
Taha Boukhobza                             - Professeur des universités, Université de Lorraine, CRAN
Joan Daemen                                  - Principle Cryptographer, ST microelectronics, Zaventem, Belgique
Antoine Girard                                 - Maître de conférences, Université Joseph Fourier, Grenoble
Marc Mouffron                                  - Head of Cryptography and Wireless Security, Senior expert, CASSIDIAN, Paris
Philippe Guillot (co-directeur)        - Maîre de conférence, Université Paris 8, LAGA
Gilles Millérioux (directeur)             - Professeur des universités, Université de Lorraine, CRAN

"Analyse de stabilité et de performances d'une classe de systèmes non-linéaires à commutations en temps discret"
(Thèse Carlos Alberto CAVICHIOLI GONZAGA)

Résumé :
Les travaux de cette thèse portent sur les problèmes d'analyse de stabilité et de synthèse de commande de systèmes non-linéaires à commutations en temps discret. Nos résultats obtenus sont fondés sur une nouvelle fonction de Lyapunov-Lur'e adaptée au temps discret. Nous reprenons le problème classique d'analyse de stabilité globale de systèmes linéaires connectés à une non-linéarité du type secteur borné. Notre fonction permet de traiter une classe de non-linéarités plus générale que celle des approches fondées sur la fonction de Lur'e classique. Ensuite, la stabilité locale et la synthèse de commande de ces systèmes avec une loi de commande non-linéaire saturée sont résolues en considérant les lignes de niveau de notre fonction de Lyapunov comme estimation du bassin d'attraction de l'origine. Notre estimation est composée par des ensembles non-connexes et non-convexes qui s'adaptent bien à l'allure du bassin d'attraction et donc est moins conservative que les ensembles ellipsoïdaux. Nous étendons nos résultats pour étudier les systèmes à commutations lorsque chacun des modes présente une non-linéarité du type secteur et la saturation. D'une part, en supposant que la loi de commutation est arbitraire, nous obtenons des conditions suffisantes pour assurer la propriété de stabilité pour toute loi de commutation. Dans ce cadre, notre fonction s'avère intéressante afin de fournir une estimation bien adaptée au bassin d'attraction. D'autre part, en considérant la loi de commutation comme une variable de commande, nous proposons une stratégie de commutation sur le minimum des fonctions de Lyapunov modales. Cette stratégie définit des partitions de l'espace d'état relatives à l'activation des modes qui ne sont pas uniquement des régions coniques, normalement exhibées par des approches fondées sur les fonctions quadratiques commutées. Mots-clés: Fonction de Lyapunov, systèmes à commutations, non-linéarité du type secteur borné, commande non-linéaire, saturation, bassin d'attraction

Jury :
Rapporteurs :
Gérard SCORLETTI - Professeur des Universités, École Centrale de Lyon, Lyon
Sophie TARBOURIECH - Directrice de Recherches CNRS, LAAS-CNRS, Toulouse
Examinateurs :
Jamal DAAFOUZ - Professeur des Universités, Université de Lorraine - CRAN, NANCY (Directeur de thèse)
Antoine GIRARD - Maitre de Conférences, Université Joseph Fourrier - Laboratoire Jean Kuntzmann, Grenoble
Marc JUNGERS - Chargé de Recherches CNRS, CRAN, Nancy (Codirecteur de thèse)
Françoise LAMNABHI-LAGARRIGUE - Directrice de Recherches CNRS, LSS-SUPELEC, Gif-sur-Ivette

"Coordination et robustesse des systèmes dynamiques multi-agents"
(Séminaire Samuel Martin)

Résumé :

Cet exposé présente une étude de systèmes multi-agents. Ce type de systèmes trouve des nombreuses applications telles que le contrôle de flotte de véhicules en robotique, la conception de réseaux d'énergie distribués ainsi que la modélisation de dynamiques d'opinions. Dans une première partie, je présenterai un nouveau résultat en théorie de consensus qui approfondit et étend les récents travaux de Hendrickx et Tsitsiklis sur le consensus sous condition de coupe balancée. Par la suite, j'applique le consensus au contrôle de flotte de véhicules. Je présenterai plusieurs résultats concernant l'obtention de l'alignement en vitesse (flocking). Cette étude s'appuie sur une analyse de robustesse du réseau d'interaction en vue de préserver sa connexité. Cette notion sera centrale dans l'exposé. Dans une dernière partie, je présente les résultats d'une collaboration avec une chercheuse en sociologie concernant l'analyse de réseaux sociaux autour de la controverse sur les loisirs motorisés hors route. Nous verrons notamment comment la théorie algébrique des graphes utilisée au début de l'exposé peut être utile dans ce nouveau contexte.

"Quantification des anomalies neurologiques métaboliques et imagerie de sources électriques"
(Thèse Ricardo Antonio SALIDO RUIZ)

Résumé :
Cette thèse s'inscrit dans le cadre du prétraitement des signaux EEG et s'intéresse plus particulièrement aux perturbations dues à la référence de mesure non nulle. Les perturbations induites par une fluctuation électrique de la référence peuvent engendrer des erreurs d'analyse comme on peut aisément le constater sur les mesures de synchronisation inter-signaux (par exemple la cohérence). Donc, la référence idéale serait une référence nulle. Au cours des travaux développés, nous nous sommes concentrés sur l'estimation des potentiels électriques dit absolus (référence nulle) à partir d'une reformulation du problème inverse. Deux cas sont traités, soit la référence est suffisamment éloignée des sources électrophysiologiques cérébrales et de fait elle peut être considérée comme indépendante, sinon, elle est modélisée comme une combinaison linéaire des autres sources. Grâce à cette modélisation, il a été montré explicitement que les meilleures estimations des potentiels absolus sans aucune information a priori sont les potentiels calculés par rapport à une référence moyenne. D'autre part, le problème inverse de la référence source-indépendante est résolu dans un contexte de type séparation de sources. Il a été démontré que la meilleure estimation des potentiels absolus sans aucune information a priori est équivalente à l'estimateur MPDR/MVDR (Minimum Power Distortionless Response/Minimum Variance Distortionless Response). Concernant le prétraitement de données EEG, on montre sur signaux simulés et réels que les potentiels mesurés transformés en référence moyenne améliorent certaines méthodes d'analyse utilisées en EEG telles que la séparation aveugle des sources (BSS) et la localisation de sources cérébrales. Au delà des problèmes de référence, la méthode peut être appliquée sous contraintes pour estimer de façon plus robuste des sources singulières telles que les artefacts ou une stimulation électrique exogène déterministe.

Mots-clés: Pré-traitement, EEG, Référence nulle, BSS, Localisation de sources cérébrales.

Jury :
Rapporteurs :
Lotfi SENHADJI (INSERM 1099, Rennes)
Christophe COLLET (CNRS 7005, Strasbourg)

Examinateurs :
Christian BENAR (INSERM 751, Marseille)
Louis MAILLARD (CRAN)
Radu RANTA (CRAN)
Valérie LOUIS-DORR (CRAN)
Laurent KOESSLER (CRAN)

"Quantification des anomalies neurologiques métaboliques et imagerie de sources électriques"
(Thèse Christophe PERSON)

Résumé :
Un traitement possible de l'épilepsie partielle pharmaco-résistante consiste en l'exérèse de la région cérébrale responsable des crises. La difficulté est de localiser cette zone et d'en définir l'étendue. L'objectif de cette thèse est d'apporter des données permettant de préciser la localisation et le volume des régions pathologiques, en exploitant deux modalités : l'imagerie TEP (Tomographie par Emission de Positons) et l'EEG-HR (EEG Haute Résolution : signaux cérébraux recueillis sur le scalp avec un nombre important d'électrodes et une fréquence d'échantillonnage élevée). En imagerie TEP, il s'agit de segmenter les zones d'hypométabolisme qui sont liées aux régions responsables des crises. Des méthodes de comparaisons statistiques à l'aide d'outils de type SPM (Statistical Parametric Mapping) entre les images TEP de sujets pathologiques et de sujets sains ont été appliquées, en effectuant des tests d'hypothèse voxel à voxel entre les différentes images. Pour pouvoir être comparées à une population de référence, les différentes images ont subi des transformations non linéaires afin que chaque voxel corresponde à la même région anatomique chez tous les sujets. Deux algorithmes ont été appliqués : une méthode SPM classique et une méthode Block-Matching. Les résultats sont comparés par analyse subjective clinique et également sur des données simulées. En ce qui concerne l'EEG-HR, la localisation spatiale et temporelle de sources d'évènements intercritiques (pointes et ondes lentes) a été réalisée par résolution du problème inverse. Ceci a permis de localiser les sources électriques intracérébrales d'intérêt qui sont à l'origine des signaux acquis sur le scalp. Enfin, une représentation des données multimodales (images TEP et signaux EEG-HR) dans un même référentiel a permis d'accroître les connaissances sur les relations existant entre les activités électriques et métaboliques et ainsi de mieux définir les régions épileptogènes. Mots-clés: TEP, EEG, épilepsie, SPM, hypométabolisme, localisation de sources, recalage

Jury :
Rapporteurs :
Grégoire MALANDAIN (INRIA, Sophia Antipolis)
François CABESTAING (LAGIS, Lille)
Examinateurs :
Pierre PAYOUX (EA 3033, Toulouse)
Pierre-Yves MARIE (INSERM, Nancy)
Valérie LOUIS-DORR (CRAN)
Didier WOLF (CRAN)
Louis MAILLARD (CRAN)

"Diffuse Reflectance Endoscopic Imaging for Bladder Early-Stage Cancer and Pre-Cancer Diagnosis: Instrumentation, Modelling and Experimental Validation"
(Thèse Nina KALYAGINA)

Abstract:
The present thesis aimed to evaluate the performance of non-invasive optical method for bladder pre- and early- cancer detection by means of diffuse-reflected laser light analysis. The analysis of light distribution at the surface of multi-layered bladder phantoms with different scattering and absorption properties showed that the changes in the optical properties lead to increase or decrease of the diffuse-reflected light spot area, detectable by a video camera. It was also determined, that the presented method is capable of detection of the photosensitizer accumulation, and can be applied for both (diffuse-reflected laser and fluorescence) studies simultaneously. The calculations for spherical and "coated"-spherical tissue scatterers, based on the electromagnetic wave theory, allowed to obtain optical parameters of three-layered biological phantoms and of bladder tissues at different states. These parameters served as inputs for Monte Carlo simulations, which provided us with matrices of diffuse-reflected light distributions. The study showed that the measurements of non-polarized back-scattered laser light can provide useful information on the tissue state.
Keywords:
optical analysis, light scattering, bladder cancer, Mie scattering, Monte Carlo modeling, fluorescence analysis.

Résumé:
L'objectif de cette thèse est d'évaluer les performances d'une méthode d'imagerie optique non-invasive pour la détection de précancers et cancers précoces de la vessie, à l'aide d'une analyse de lumière laser rétro-diffusée. L'analyse de la distribution spatiale de la lumière à la surface de fantômes multi-couches imitant l'épithelium de vessie avec différentes propriétés d'absorption et de diffusion nous a permis de montrer les modifications de ces propriétés optiques entraînent des changements de la taille de la surface du spot de lumière rétro-diffusée, mesurables par une caméra vidéo. La méthode développée est également sensible à l'accumulation d'un photosensibilisateur et est applicable aussi bien pour des études en réflectance diffuse qu'en fluorescence induite. Les paramètres optiques des fantômes synthétiques tri-couches imitant différents états des épithéliums de vessie ont été calculés à partir de la théorie des ondes électromagnétiques appliquée aux diffuseurs sphériques sans et avec une couche. Ces paramètres ont servi comme entrées aux simulations de Monte Carlo qui ont permis d'obtenir les matrices des distributions d'intensité de réflectance diffuse. Notre étude démontre que les mesures en imagerie de réflectance diffuse non-polarisée permettent de fournir des informations utiles au diagnostic tissulaire.
Mots-clés: imagerie optique, diffusion multiple, cancer de vessie, diffusion de Mie, simulations Monte Carlo, fluorescence.

Jury:

Prof. Rudolf Steiner, University of Ulm, Germany (Rapporteur)
Prof. Fabrice Mériaudeau, Université de Bourgogne, CNRS, France (Rapporteur)
Prof. Victor Loshchenov, Prokhorov General Physics Institute Russian Academy of Sciences, Russia (Directeur de Thèse)
Prof. Didier Wolf, CRAN, Nancy Université, France (Directeur de Thèse)
Prof. Walter Blondel CRAN, Nancy Université, France (Co-Directeur de Thèse)
Dr. Ismaël Didelon, SD-Innovation, France (Examinateur)
Prof. Christian Daul, CRAN, Nancy Université, France (Co-Encadrant)
Prof. François Guillemin, Centre Alexis Vautrin , France (Invité)

"Modélisation, Observation et Commande d'un Drone Miniature à Birotor Coaxial"
(Thèse Arnaud KOEHL)

Résumé :
Les drones miniatures à voilures tournantes tendent aujourd'hui à devenir les nouveaux outils du fantassin, grâce à la polyvalence des missions auxquelles ils peuvent être employés. Leur principal atout concerne leur capacité à combiner le vol stationnaire et le vol de translation rapide, dans des environnements étroits et encombrés. Nous proposons ici l'étude d'un nouveau concept de drone atypique appelé GLMAV (Gun Launched Micro Air Vehicle), qui consiste à amener un véhicule hybride projectile/drone très rapidement sur un site d'intérêt éloigné, en utilisant l'énergie fournie par une arme portable. La première tâche concerne la modélisation aérodynamique du GLMAV. L'identification paramétrique du modèle aérodynamique est alors réalisée à partir de données expérimentales d'efforts, que nous pouvons a priori quantifier par un critère algébrique d'excitabilité persistante. Nous proposons ensuite des techniques de filtrage, afin d'estimer les paramètres anémométriques inconnus mais nécessaires pour connaître l'environnement aérodynamique dans lequel l'engin évolue. De plus, pour palier à la défaillance de capteurs embarqués et qui peuvent affecter l'information de vitesse linéaire après le tir, nous proposons un estimateur d'ordre réduit de la vitesse linéaire. Dans ces deux problèmes d'estimation, nous prouvons la stabilité des observateurs proposés. Enfin, nous proposons une structure de commande pour la stabilisation de l'engin en vol quasi-stationnaire à partir d'un modèle de synthèse linéaire. Les efficacités des méthodes proposées sont illustrées par des résultats de simulations numériques et des essais expérimentaux.

Mots-clés - Drones, Modélisation, Mécanique du vol, Aérodynamique subsonique, Identification des systèmes, Estimation de paramètres, Filtres de Kalman, Contrôle automatique

Abstract - The miniature rotary wing UAVs are now tending to become the new tools of the soldier, with the versatility of missions they can be used. Their main advantage concerns their ability to combine the hovering and translational fast flight in narrow and congested environments. We propose the study of a new and atypical UAV concept called GLMAV (Gun Launched Micro Air Vehicle), which must bring a hybrid projectile/UAV very quickly on a site of interest, using the energy delivered by a portable weapon. The first task concerns the modelling of the aerodynamic GLMAV model. The parametric identification of the aerodynamic model is then realized from experimental load data, that can be a priori quantified by a persistent-excitability-algebraic-criterion. We then propose two filtering techniques to estimate the unknown aerodynamic parameters but needful to determine the aerodynamic environment in which the vehicle operates. In addition, to compensate the failure of embedded sensors that can affect the linear speed information after the shooting, we propose a reduced-order estimator to conserve a good linear speed information. In both estimation problems we prove the stability of the proposed observers. Finally, we propose a control scheme for the stabilization of the aircraft in the quasi-stationary flight mode from a linearized GLMAV model. The efficiencies of the proposed methods are illustrated through numerical results and experimental tests.

Keywords - Drone aircraft, Mathematical models, Aerodynamics, System identification, Parameter estimation, Kalman filtering, Automatic control

Jury
M. Michel Basset Professeur, MIPS, ENSISA, Université de Haute-Alsace (Rapporteur)
M. Hugues Mounier Professeur, LSS, Supélec, Université Paris Sud XI (Rapporteur)
Mme. Eva Crück Responsable-adjoint du Domaine Scienti que, Ingénierie de l'Information et Robotique  DGA-DS-MRIS (Examinateur)
M. Rogelio Lozano Directeur de recherche, HEUDIASYC, Université de Technologie de Compiègne (Examinateur)
M. Mohamed Boutayeb Professeur, CRAN, Université de Lorraine (Directeur de thèse)
M. Bastien Martinez Chercheur, ISL, Saint Louis (co-encadrant)
M. Hugues Rafaralahy Maître de conférences, CRAN, Université de Lorraine (co-encadrant)

"Modélisation d'un parc de machines pour la surveillance. Application aux composants en centrale nucléaire"
(Thèse Mohamed Farah ANKOUD)

Résumé :
D'un point de vue général, la thèse porte sur la conception de méthodes de surveillance de système à partir de données collectées sur des composants de conceptions identiques exploités par plusieurs processus. Ces composants, quoique identiques, peuvent avoir des comportements différents en fonction de l'environnement particulier où ils se trouvent et des conditions particulières de leur exploitation. On peut attendre plusieurs points bénéfiques de cet effet parc. D'une part, il est clair que cette redondance nous permet d'avoir beaucoup plus d'informations relatives aux modes de fonctionnement et de dysfonctionnement des composants considérés.
D'autre part, la similarité des composants devrait également faciliter la conception d'un système de diagnostic de fonctionnement pour tout nouveau composant de même nature. Dans ces travaux, nous nous sommes intéressés aux approches de diagnostic sans modèle a priori et plus particulièrement à l'élaboration des modèles de bon fonctionnement des composantes à partir des données collectées sur l'ensemble du parc. Nous avons ainsi abordé ce problème comme un problème d'apprentissage multi-tâches qui consiste à élaborer conjointement les modèles de chaque composant, l'hypothèse sous-jacente étant que ces modèles partagent des parties communes.
Dans un premier temps, on considère des modèles linéaires de type multi-entrées/monosortie, ayant des structures a priori connues. Dans une première approche, après une phase d'analyse des modèles obtenus par régression linéaire pour les machines prises indépendamment les unes des autres, on identifie leurs parties communes, puis on procède à une nouvelle estimation pour modifier les modèles précédents afin de tenir compte de ces parties communes. Dans une seconde approche, on identifie simultanément les coefficients des modèles ainsi que leurs parties communes.
Dans un deuxième temps, on cherche à obtenir directement les relations de redondance existant entre les variables mesurées par l'ACP. L'intérêt est multiple puisque, d'une part, on s'affranchit des hypothèses sur la connaissance du nombre de relations entre variables et des structures de ces modèles. D'autre part, en ne faisant pas de distinction entre variables, l'ACP permet de prendre en compte la présence des erreurs sur l'ensemble des variables.
Dans un troisième temps, une étude de la discernabilité des modèles est réalisée. Il s'agit de savoir sous quelles conditions d'exploitation, c'est-à-dire sous quelles excitations, deux parcs de machines peuvent ou non être différentiés. Ce problème d'inversion ensembliste est résolu en utilisant une technique de pavage donnant une approximation des domains des variables d'entrée aboutissant à la non discernabilité des modèles des différentes machines. Finalement, une application des méthodes de modélisation multi-tâche est réalisée sur des simulateurs de barrières thermiques des groupes moto-pompes primaires des centrales nucléaires d'EDF.

Jury :

Rapporteurs :
Mme. Anne BARROS, Professeur à l'université de Technologies de Troyes, 61ème section
M. Abdessamad KOBI, Professeur à l'Université d'Angers, 61ème section

Examinateurs :
M. Mustapha OULADSINE, Professeur à l'Université Aix Marseille III, 61ème section
Mme. Sylvie CHARBONNIER, Maître de conférences à l'Université Joseph Fourier, 61ème section

M. José RAGOT, Professeur à l'INPL, 61ème section (directeur de thèse)
M. Gilles MOUROT, Ingénieur de recherche à l'INPL (co-directeur de thèse)
M. Nicolas PAUL, Ingénieur de recherche à EDF-R&D (co-encadrant de thèse)

"Modélisation conjointe des connaissances multi-points de vue d'un système industriel et de son système de soutien pour l'évaluation des stratégies de maintenance"
(Thèse Mohamed MEDINA-OLIVA)

Résumé :

Par rapport aux exigences de plus en plus importantes relatives au Maintien en Condition Opérationnelle d'un système industriel, le processus de maintenance joue un rôle fondamental pour l'amélioration de la disponibilité, de la productivité, etc. Pour essayer de contrôler au mieux ces performances, les responsables de maintenance doivent donc être capables de choisir les stratégies de maintenance et les ressources à mettre en œuvre les plus adaptées aux besoins. Dans un objectif d'aider à la prise de décisions en maintenance, les travaux présentés dans ce mémoire ont pour objet de proposer une méthodologie pour l'élaboration d'un modèle support permettant par simulation d'évaluer les différentes stratégies. La valeur ajoutée de la méthodologie réside dans l'unification, à base de modèles relationnels probabilistes (PRM), des différents types de connaissance nécessaires à la construction de ce modèle d'évaluation. Ce dernier est ainsi construit à partir de motifs génériques et modulables représentatifs des variables décisionnels du système industriel (système principal) et de son système de maintenance. Ces motifs, par instanciation, facilitent la construction des modèles d'applications spécifiques. Cette méthodologie, issue du projet ANR SKOOB, est testée sur le cas applicatif de la maintenance d'un système de production de ferment.
MOTS-CLÉS : Aide à la décision – analyse de performances – stratégies de maintenance – disponibilité – réseaux bayésiens, modèles relationnels probabilistes (PRM).

Jury :

Rapporteurs :
M. Christophe BERENGUER, Professeur à l'Institute Polytechnique de Grenoble,
61ème section
M. François PERES, Professeur à l'Ecole Nationale d'Ingénieurs de Tarbes, 61ème
section
Examinateurs :
M. Adolfo CRESPO MARQUEZ, Professeur à l'Université de Séville (Espagne)
M. Eric LEVRAT, Maître de conférences à l'Université Henri Poincaré, Nancy I,
61ème section
M. Paul MUNTEANU, Président de la Société BAYESIA

Directeur de thèse :
M. Benoît IUNG (Professeur à l'Université Henri Poincaré, Nancy I)
Co-encadrant de thèse :
M. Philippe WEBER (Maître de conférences à l'Université Henri Poincaré,
Nancy I)

"Observation et commande des systèmes singuliers non linéaires"
(Thèse Mohamed ZERROUGUI )

Résumé:

Les travaux présentés dans cette thèse ont été effectués au Centre de Recherche en Automatique de Nancy (CRAN). Ils portent sur l'observation et la commande des systèmes singuliers non linéaires.
Dans un premier temps nous nous sommes intéressés à la synthèse d'observateur et au filtrage Hinfini des systèmes singuliers bilinéaires. Dans un deuxième temps, nous avons étudié la synthèse d'observateur pour les systèmes singuliers non linéaires Lipschitziens. La dernière partie de ce travail concerne la stabilisation et la commande basée observateurs des systèmes singuliers non linéaires. L'objectif de ce travail a été de proposer des résultats facilement implémentables et de couvrir une large classe de systèmes non linéaires. La contribution principale de ce mémoire a été de proposer des observateurs H∞ pour les systèmes singuliers non linéaires, en utilisant le non biais de l'erreur d'estimation. Les paramètres de ces observateurs sont obtenus par la résolution des inégalités matricielles linéaires (LMIs). Le deuxième apport concerne la synthèse de commande stabilisante et l'utilisation d'un des observateurs proposés dans cette thèse pour la synthèse d'une commande basée observateur pour les systèmes singuliers non linéaires. Cette dernière est réalisée grâce à la réécriture des fonctions non linéaires sous des formes adéquates à l'application de la commande des systèmes.

Mots-clés: Systèmes singuliers non linéaires, observateurs non linéaires, stabilité au sens de Lyapunov, synthèse H∞, inégalités matricielles linéaires (LMI), commande basée observateur.

Abstract:

This thesis work is realized in the Research Center in Automatic Control of Nancy (CRAN). It concerns the observation and control of nonlinear singular systems.
Firstly, we were interested in the observer design and Hinfinity filtering for singular bilinear systems. In a second step, we studied the observers design for Lipschitz nonlinear singular systems. The last part of this work relates to the stabilization and observer based controller for a classe of singular nonlinear systems. The objective is to develop a simple and straightforward results which covers a large class of nonlinear systems. The main contribution of this thesis is in the Hinfinity observers design for nonlinear singular systems. It is based on the parametrization of the solution of the constrained generalized Sylvester equation. The second contribution relates to the design of stabilizing control and using the proposed observer to design an obsever based controller for nonlinear singular systems. Solutions of these problems are obtained by using Linear Matrix Inequalities (LMI) Formulation.

Keywords: Singular systems, non linear observers, stability analysis, Hinfini synthesis, Lin- ear matrix inequalities, observer based control

Jury:

Mr. Mohamed M'saad Professeur, GREYC, Université de Caen (Rapporteur)
Mr. Holger Voos Professeur, Universit ́e de Luxembourg (Rapporteur)
Mr. Jean François Lafay Professeur, IRCCyN, Polytech'Nantes (Examinateur)
Mr. Didier Maquin Professeur, INPL-CRAN, Nancy-Université (Examinateur)
Mr. Mohamed Darouach Professeur, UHP-CRAN, Nancy-Université, (Directeur de thèse)
Mme. Latifa Boutat-Baddas Maitre de conférences, UHP-CRAN, Nancy-Université, (co-encadrant)

"Self-triggered control for nonlinear systems"
(Séminaire M. Adolfo Anta)

Abstract:

Digital implementations of feedback controllers offer many advantages with respect to analog implementations, such as accuracy or flexibility. A physical system is controlled by measuring its state at discrete time instants, using the measured state to compute a feedback control law, and updating the actuator with the computed law also at discrete instants in time. Under such implementations, one important question is what kind of requirements need to be imposed on these time instants to achieve desired performance. Traditionally, engineers and researchers have opted for conservative strategies, such as periodic sampling of signals and periodic execution of control laws. Periodic implementations execute the controller every T units of time, regardless the state of the control system, unnecessarily consuming the available resources. However, due to the growing complexity of systems, more efficient implementations are required, since resources are usually shared between several subsystems. In this talk we go beyond the periodic model and, drawing inspiration from event-triggered control, we develop self- triggered control laws that decide their next execution time based on the current state of the system. This approach considerably reduces resource utilization while ensuring stability and desired levels of control performance. Several applications, such as real-time scheduling co-design in embedded systems and bandwidth allocation in networked control systems, are discussed to show the benefits and the applicability of the results herein derived.

"Conception de l'architecture d'un réseau de capteurs sans fil de grande dimension"
(Thèse Cheick-tidjane KONE)

Résumé :

Cette thèse considère les réseaux de capteurs sans fil (RCSF) de grande dimension (de l'ordre du million de nœuds). Les questions posées sont les suivantes : comment prédire le bon fonctionnement et calculer avant déploiement les performances d'un tel réseau, sachant qu'aucun simulateur ne peut simuler un réseau de plus de 100 000 nœuds ? Comment assurer sa configuration pour garantir performance, passage à l'échelle, robustesse et durabilité ?

La solution proposée dans cette thèse s'appuie sur une architecture de RCSF hétérogène à deux niveaux, dont le niveau inférieur est composé de capteurs et le niveau supérieur de collecteurs. La première contribution est un algorithme d'auto-organisation multi-canal qui permet de partitionner le réseau inférieur en plusieurs sous-réseaux disjoints avec un collecteur et un canal de fréquence par sous-réseau tout en respectant le principe de réutilisation de fréquence. La seconde contribution est l'optimisation du déploiement des collecteurs car leur nombre représente celui des sous-réseaux. Les problèmes traités ont été : l'optimisation des emplacements des puits pour un nombre prédéfini de puits et la minimisation du nombre de puits ou du coût pour un nombre prédéfini de sauts dans les sous-réseaux. Une solution intuitive et appropriée pour assurer à la fois performances réseaux et coût, est de partitionner le réseau inférieur en sous-réseaux équilibrés en nombre de sauts. Pour ce faire, la topologie physique des puits est une répartition géographique régulière en grille (carrée, triangulaire, etc.). Des études théoriques et expérimentales par simulation des modèles de topologie montrent, en fonction des besoins applicatifs (densité de nœuds, charge applicative, distribution des envois, délai en nombre de saut) et physiques (portée radio, zone de surveillance), la méthodologie de choix et le calcul des meilleures solutions de déploiement. Les résultats théoriques ont été confirmés par les résultats expérimentaux obtenus par simulation

Jury :

Rapporteurs :

Mme Isabelle GUÉRIN LASSOUS (Professeure, Université Lyon 1)

Mme Nathalie JULIEN (Professeure, Université de Bretagne Sud)

Examinateurs :

M. Thomas NOEL (Professeur, Université de Strasbourg)

M. Didier WOLF (Professeur, INPL, Nancy-Université)

Directeur de thèse : M. Francis LEPAGE (Professeur, UHP, Nancy- Université)

Encadrant de thèse : M. Michael DAVID (Maître de conférences, UHP, Nancy-Université)

"Observation et Commande des Systèmes Linéaires dans les Domaines Temporel et Fréquentiel"
(Thèse Montassar EZZINE)

Résumé :

Dans ce mémoire, nous nous sommes intéressés aux problèmes d'estimation, de filtrage H_infini mais aussi à la commande via un observateur dans les domaines temporel et fréquentiel, aussi bien pour les systèmes linéaires standards que pour les systèmes algèbro-différentiels plus généraux appelés systèmes singuliers.
Le fil conducteur de notre démarche a été de proposer des résultats facilement implémentables et de couvrir la classe la plus large possible des systèmes linéaires. Ainsi, nous avons commencé notre travail en proposant des méthodes de synthèse d'observateurs à entrées inconnues pour des systèmes sans et avec retard. Nous avons cherché à éliminer l'effet des entrées inconnues sur la dynamique de l'erreur d'observation. La synthèse temporelle est basée sur des LMIs permettant de déterminer la matrice de gain paramétrant toutes les matrices de l'observateur. L'approche LMI est en fait déduite de différents lemmes bornés qui eux mêmes se basent sur l'approche Lyapunov. La synthèse fréquentielle est déduite de celle temporelle en proposant des MFDs judicieuses et en utilisant l'approche de factorisation.
Ensuite, nous avons proposé des filtres qui permettent d'assurer, en plus de la stabilité, un critère de performance H_infini, c'est à dire que nous cherchons à atténuer l'effet des perturbations à énergie bornée, sur la dynamique de l'erreur d'estimation. L'un des principaux apports de nos travaux, a été de proposer une nouvelle écriture de la dynamique de l'erreur d'estimation sous forme singulière afin de contourner le problème de l'apparition de la dérivée des perturbations dans la dynamique de l'erreur d'estimation. Ainsi, nous sommes arrivés à relaxer les contraintes qui existent généralement sur les matrices des filtres non biaisés synthétisés; c'est à dire, des filtres dont la dynamique de l'erreur d'estimation ne dépend pas explicitement de l'état x(t) du système et de l'entrée u(t). La méthode fréquentielle est déduite de celle temporelle en utilisant l'approche de factorisation. Il est à noter que cette description fréquentielle, entrée-sortie, pourra permettre une implémentation aisée dans le domaine fréquentiel lorsque nous nous trouvons dans une situation où celle-ci est la mieux indiquée.
Enfin, nous nous sommes intéressés à l'application des méthodes d'estimation proposées dans le cadre de la commande. Dans un premier temps, nous proposons une synthèse directe d'une commande basée sur un filtre H_infini directement dans le domaine fréquentiel pour des systèmes linéaires standards. Ensuite, nous nous focalisons sur les systèmes singuliers aussi bien dans le cas continu que discret et nous proposons de déterminer les lois de commande en utilisant un filtre fonctionnel qui satisfait un critère de performance H_infini. En effet, nous cherchons d'abord à calculer le gain de retour d'état qui nous permet de remplir les spécifications du système bouclé (stabilité,...). Puis, nous synthétisons un filtre qui a pour but de fournir en sortie une estimée de ce retour d'état.

Mots clés Observation, Filtrage H_infini, Non biais, Système linéaire, Domaine temporel, Domaine fréquentiel, LMIs, MFDs.

Jury :

Rapporteurs :
Mr. Farhat FNAIECH (Professeur, ESST, Tunisie)
Mr. Alain OUSTALOUP (Professeur, Université de Bordeaux)


Examinateurs :
Mr. Mohamed DAROUACH, co-directeur de thèse (Pr, CRAN,
Nancy Université, UHP Nancy I)
Mr. Hassani MESSAOUD, co-directeur de thèse (Pr, ENIM, Tunisie)
Mr. Mustapha OULADSINE (Pr, Université de Marseille)
Mr. Abdelkader CHAARI (MCF, ESST, Tunisie)
Mr. Harouna SOULEY ALI, co-encadrant (MCF, CRAN, Nancy
Université, UHP Nancy I)

"Contribution à la cartographie 3D des parois internes de la vessie par cystoscopie à vision active"
(Thèse Achraf Ben Hamadou)

Résumé :

La cystoscopie est actuellement l'examen clinique de référence permettant l'exploration visuelle des parois internes de la vessie. Le cystoscope (instrument utilisé pour cet examen) permet d'acquérir une séquence vidéo des parois épithéliales de la vessie. Cependant, chaque image de la séquence vidéo ne visualise qu'une surface réduite de quelques centimètres carrés de la paroi. Les travaux réalisés dans le cadre de cette thèse ont pour objectif de construire une carte 3D reproduisant d'une manière fidèle les formes et les textures des parois internes de la vessie. Une telle représentation de l'intérieur de la vessie permettrait d'améliorer l'interprétation des données acquises lors d'un examen cystoscopique. Pour atteindre cet objectif, un nouvel algorithme flexible est proposé pour le calibrage de systèmes cystoscopiques à vision active. Cet algorithme fournit les paramètres nécessaires à la reconstruction précise de points 3D sur la portion de surface imagée à chaque inst!
 ant donné de la séquence vidéo cystoscopique. Ainsi, pour chaque acquisition de la séquence vidéo, un ensemble de quelques points 3D/2D et une image 2D est disponible. L'objectif du deuxième algorithme proposé dans cette thèse est de ramener l'ensemble des données obtenues pour une séquence dans un repère global pour générer un nuage de points 3D et une image panoramique 2D représentant respectivement la forme 3D et la texture de la totalité de la paroi imagée dans la séquence vidéo. Cette méthode de cartographie 3D permet l'estimation simultanée des transformations 3D rigides et 2D perspectives liant respectivement les positions du cystoscope et les images de paires d'acquisitions consécutives. Les résultats obtenus sur des fantômes réalistes de vessie montrent que ces algorithmes permettent de calculer des surfaces 3D reproduisant les formes à retrouver.

Mots clés : Cartographie 3D/2D, recalage 2D, stéréovision active, reconstruction 3D, aide au diagnostic, cancer de la vessie.

"Contribution à l'évaluation de l'interopérabilité sémantique entre systèmes d'information d'entreprises : Application aux systèmes d'information de pilotage de la production"
(Thèse Esma Yahia)

Résumé :

Pour demeurer compétitives, de plus en plus d'entreprises sont amenées à collaborer dans le cadre des entreprises étendues ou des réseaux d'entreprises. Ce type d'organisation nécessite l'interconnexion d'une multitude de systèmes d'entreprises, hétérogènes que ce soit par les fonctions qu'ils assurent ou par leurs conceptions (modèles, architectures, ...). Typiquement, ceci renvoie au concept de l'interopérabilité, définie par la capacité des systèmes ou des organisations à fournir ou à accepter des services et à utiliser ces services pour opérer efficacement ensemble. Par ailleurs, la question de l'interopérabilité voire plutôt celle de la non-interopérabilité pose de nombreuses problématiques pour les industriels. En effet, la non-interopérabilité engendre des coûts non négligeables dus principalement au temps et aux ressources mises en place pour développer des interfaces d'échange des informations. Ceci influe sur la performance globale des entreprises et précisément sur les coûts et les délais d'obtention des services attendus. Nous proposons ainsi une approche pour mesurer le degré d'interopérabilité (ou
de non interopérabilité) entre modèles conceptuels de systèmes d'information d'entreprise, afin de donner à une entreprise la possibilité d'évaluer sa propre capacité à interopérer et donc de prévoir les éventuels problèmes avant la mise en place d'un partenariat. Il s'agit ainsi de définir des indicateurs et des métriques tant quantitatifs que qualitatifs, permettant de qualifier l'interopération entre les systèmes d'entreprises.
Après une étude détaillée, dans le 1er chapitre, des différentes approches d'évaluation de l'interopérabilité, généralement subjective, une première proposition originale est de proposer une approche d'évaluation sur la base d'une conceptualisation des modèles de systèmes.
Le 2nd chapitre  du mémoire propose ainsi d'expliciter puis de compléter la sémantique tacite, généralement cachée dans l'implémentation des applications supports et dans les pratiques de mise en ouvre de ces applications par les utilisateurs pour évaluer le degré de pertinence lors d'un échange d'information.
Nous proposons ensuite, dans le 3ème chapitre du mémoire, une formalisation de métriques permettant d'évaluer, quantitativement et qualitativement, le degré d'interopérabilité (ou de non interopérabilité) entre modèles conceptuels de systèmes d'information d'entreprise, afin de donner à une entreprise la possibilité d'évaluer sa propre capacité à interopérer, et donc de prévoir les
éventuels problèmes avant la mise en place d'un partenariat.
La formalisation proposée et son outillage dans un atelier d'Ingénierie Système industriel font l'objet de développements dans le 4ème chapitre du mémoire. Un scénario réaliste de fabrication d'un produit en réseau d'entreprise est également proposé dans ce chapitre.

"Evaluation de la qualité et transmission en temps réel de vidéos compressées dans un contexte de télé-chirurgie robotisée"
(Thèse Nedia NOURI)

L’utilisation de robots de chirurgie offre aujourd’hui le triple avantage d’augmenter la précision du geste du chirurgien et de réduire la taille des cicatrices du patient ainsi que la durée de son séjour à l’hôpital. Actuellement, dans les hôpitaux équipés de robots de chirurgie, un chirurgien peut opérer en étant à quelque mètres de son patient, voire dans une autre salle, les données numérisées issues du robot transitant sur un réseau entièrement dédié. Le développement de telles techniques ouvre des perspectives d’interventions chirurgicales à distance, comme l’a montré la célèbre «Opération Lindbergh» en 2001 réalisée par le Professeur Jacques Marescaux depuis New-York sur une patiente à Strasbourg. Cette opération pionnière a cependant nécessité des moyens de transmission considérables et entièrement dédiés qui ne peuvent être transposés directement en routine. Ce travail de thèse s’inscrit dans le cadre du projet RALTT (Robotic Assisted Laparoscopic Telementoring and Telesurgery) initié en 2005 et réunissant une équipe pluridisciplinaire du Centre Hospitalier Universitaire de Nancy et du Centre de Recherche en Automatique de Nancy. Ce projet vise à étudier la faisabilité de la chirurgie robotisée à distance via des infrastructures existantes afin de la rendre accessible au plus grand nombre. Du fait des bandes passantes nécessaires à la transmission des données issues des robots (plusieurs centaines de Mbits/s à quelques Gigabits/s de flux vidéos pour les robots dernière génération), la compression de ces données apparaît comme incontournable si l’on souhaite les transmettre sur des infrastructures existantes. La compression constitue alors un défi majeur du fait du contexte médical : celui de l’impact des pertes sur la qualité des données et leur exploitation. Mes travaux de thèse concernent en premier lieu l’étude de techniques permettant l’évaluation de la qualité des vidéos dans un contexte de robotique chirurgicale et en second lieu, le développement d’une plateforme de transmission en temps réel des vidéos issues d’un robot à travers un réseau de type IP.

"Nouvelle méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des système"
(Thèse Ahmed KHELASSI)

Résumé :

Les travaux développés dans ce mémoire de thèse portent sur la contribution à une méthodologie de synthèse de lois de commande tolérante aux fautes garantissant la fiabilité des systèmes. Cette nouvelle méthodologie nécessite l'adaptation des différents outils de caractérisation de la fiabilité avec la théorie de la commande. L'intégration explicite de l'aspect charge dans les lois modélisant la fiabilité en ligne est considérée.
Une première partie des travaux est consacrée à la reconfigurabilité des systèmes tolérants aux fautes. Une analyse de reconfigurabilité en présence de défauts basée sur la consommation d'énergie ainsi que des objectifs liés à la fiabilité globale du système est proposée. Un indice de reconfigurabilité est proposé définissant les limites fonctionnelles d'un système commandé en ligne en fonction de la sévérité des défauts ainsi que la dégradation des actionneurs en terme de fiabilité. Dans la deuxième partie, le problème d'allocation et ré-allocation de la commande est considéré. Des solutions sont développées tenant compte de l'état de dégradation et du vieillissement des actionneurs. Les entrées de commande sont attribuées au système tenant en compte la fiabilité des actionneurs ainsi que les éventuels défauts. Des indicateurs de fiabilité sont proposés et intégrés dans la solution du problème d'allocation et de ré-allocation.
La dernière partie est entièrement consacrée à la synthèse d'une loi de commande tolérante aux fautes garantissant la fiabilité globale du système. Une procédure d'analyse de fiabilité des systèmes commandés en ligne est proposée en se basant sur une étude de sensibilité et de criticité des actionneurs. Ainsi, une méthode de commande tolérante aux fautes en tenant compte de la criticité des actionneurs est synthétisée sous une formulation LMI.

Jury:

Rapporteurs
M. Christophe BERENGUER (Professeur à l'Université de Technologie de Troyes)
M. Vincent COCQUEMPOT   (Professeur à l'Université Lille 1)

Examinateurs
M. Youmin ZHANG         (Professeur à Concordia University, Canada)
M.Mustapha OULADSINE    (Professeur à l’Université Aix-Marseille 3)
M. Jean Baptiste LEGER  (Ingénieur de Recherche Société PREDICT)

Directeur de thèse
M. Didier THEILLIOL     (Professeur à l’Université Henri Poincaré)
Co-Directeur de thèse
M. Philippe WEBER       (Maître de Conférences à l'Université Henri Poincaré)

"Proposition d'un cadre générique de modélisation et de simulation de planifications logistiques dans un contexte de décisions partiellement ou totalement distribuées"
(Thèse HERRERA Carlos)

Résumé :

Cette thèse rappelle les fondements du pilotage des systèmes logistiques et montre l'intérêt de la mise en place d'un SCP (Systèmes Contrôlés par le Produit). L'intégration de tels systèmes doit d'abord prendre en compte la cohérence entre les différents éléments le constituant. Ainsi les systèmes centralisés cherchent à proposer des plans de moyen-long termes visant un optimal de coût, mais aussi une certaine stabilité et peu de nervosité dans le temps. Par ailleurs, les systèmes distribués ont démontré leur capacité à permettre une réaction rapide à des événements impromptus survenant dans le système physique. L'hybridation de ces deux types de pilotage est donc une voie de gain de productivité pour les systèmes logistiques et industriels. Le premier chapitre de la thèse décrit l'évolution des systèmes de planification et de pilotage de la production, avec l'objectif d'identifier les forces et faiblesses des différentes approches proposées jusqu'à nos jours et permettent définir l'objectif général de la thèse. Le chapitre deux analyse l'état de l'art concernant les outils de modélisation des systèmes de production centralisés/distribués et aussi le concept de contrôle par le produit. Ce chapitre sert de base pour définir les objectifs spécifiques de la thèse. Le chapitre trois présente le cadre de modélisation proposé. Ce cadre est basé sur une approche cybernétique, et plus spécifiquement sur le modèle de système viable (VSM). Le chapitre démarre avec une présentation générale du modèle de système viable, puis présente un modèle générique de modélisation de systèmes contrôlés par le produit. Enfin, le chapitre décrit une application de ce cadre général aux systèmes de planification et pilotage de la production de type SCP. Le chapitre quatre définit les différentes méthodes de décision, tant centralisées que distribuées, développées pour l'implémentation du modèle générique définit dans le chapitre trois. Aux niveaux centralisés et distribués ces méthodes sont basées sur des modèles de programmation mathématique développés pour considérer l'adaptabilité et la flexibilité du système. Le chapitre cinq montre les principaux résultats dans une application basée sur un cas industriel qui a nécessité le développement d'un outil de simulation qui considère des variables de court, moyen et long termes pour les différents modèles d'optimisation. Ces résultats montrent l'intérêt de ce type d'hybridation.

Jury :

Pr. Alexandre Dolgui (École Nationale Supérieure des Mines de Saint-Etienne, rapporteur)
Pr. Damien Trentesaux (Université de Valenciennes et du Hainaut-Cambrésis, rapporteur)
Pr. Paul Valckenaers  (Katholieke Universiteit Leuven, examinateur)
Pr. Gérard Morel (Nancy Université, examinateur)
Pr. André Thomas (Nancy Université, directeur de thèse)
Mcf. Sana Belmokhtar Berraf (Nancy Université, examinateur)

"Synthèse de lois de commande pour les systèmes à commutations avec contraintes de performances"
(Thèse MELIN Julie)

Résumé :

Les systèmes à commutations constituent un cas particulier des systèmes dynamiques hybrides. Ils sont composés d'une famille de systèmes et d'une loi de commutation qui détermine quel mode est activé à chaque instant. Ces systèmes représentent une large gamme de systèmes concrets. L'étude de la stabilité de ceux-ci a déjà été longuement abordée. Les travaux de cette thèse portent sur l'analyse de performance des systèmes à commutations linéaires en temps discret et sur la synthèse de différentes lois de commande pour ces systèmes en tenant compte de contraintes de performances. L'analyse de stabilité de ces systèmes a été étendue pour tenir compte de l'aspect performance qui a été modélisée par un critère quadratique. La valeur du critère dépendant des commutations, l'analyse porte sur le coût garanti des performances. Grâce à la résolution d'un problème d'optimisation sous des contraintes sous la forme d'inégalités matricielles linéaires, un majorant du coût garanti est déterminé. Une approche est proposée pour évaluer la qualité du majorant trouvé. Un deuxième point abordé est la conception de contrôleurs qui tiennent compte de l'aspect performance. Des méthodes de synthèse de différents contrôleurs (retour d'état, retour d'état reconstruit par observateur et retour de sortie dynamique) sont proposées dans ce cadre. Enfin, nos résultats ont été appliqués au cas des systèmes contrôlés en réseau.

" Diagnostic sans modèle "a priori" "
(Thèse MOUSSA ALI Abdouramane)

Résumé :

Comme dans son acception médicale, le diagnostic des systèmes automatiques consiste à remonter des symptômes perçus vers les causes. Les méthodes de diagnostic à base de modèle utilisent un modèle mathématique explicite du processus. La plupart de ces méthodes repose sur le concept de redondance analytique. Les relations de redondance analytique sont des équations déduites à partir d'un modèle analytique, qui admet pour entrées uniquement les variables mesurées. D'autres classes de méthodes à base de modèle reposent directement sur l'estimation paramétrique. Les synthèses modernes de génération de résidus demandent une connaissance très fine du système à commander ou à diagnostiquer. L'écriture des modèles les plus précis demande une compréhension en détail des mécanismes et utilise les lois de la Physique. Les modèles obtenus de cette façon sont dits modèles de connaissance. Ils font intervenir des paramètres physiques qui, par définition, sont mesurables par des expériences non nécessairement en rapport avec la façon d'utiliser le système. Cependant, dans certains cas pratiques, ces paramètres ne peuvent pas être évalués a priori. Par ailleurs, la fiabilité donnée par les modèles de connaissance est en général accompagnée par l'inconvénient d'une trop grande complexité. Ces modèles peuvent ne pas être utilisables en pratique et on doit souvent réduire la complexité. Ce travail contribue à développer une nouvelle approche algébrique et déterministe de diagnostic qui ne suppose pas l'existence a priori d'un modèle explicite du système et qui présente un nouveau point de vue basé sur la théorie des distributions et l'analyse du pseudospectre de faisceaux de matrices. Notre démarche s'inspire de certains outils et développements de la théorie de l'estimation algébrique courants en automatique mais très peu usuels en traitement du signal. Le principal atout de cette approche est qu'il est possible, sous certaines hypothèses, de détecter, localiser et identifier les défauts à l'aide des seules mesures de la commande et de la sortie sans avoir à identifier les paramètres du modèle. Nous considérons que les défauts actionneur et capteur modélisés par des signaux structurés. La méthode est fondée sur la génération et l'analyse de relations de redondance analytiques et exploite le fait qu'un signal structuré satisfait une équation différentielle. La prise de décision est entièrement fondée sur l'évolution temporelle des estimations de certaines caractéristiques constantes des défauts. L'efficacité de l'approche présentée est illustrée au travers d'exemples académiques.

" Conception conjointe des systèmes contrôlés en réseau sans fil "
(Thèse Najet BOUGHANMI)

Résumé :

Le cadre de cette thèse est l'étude des systèmes contrôlés en réseau sans fil (SCRSF) qui utilise la technologie IEEE 802.15.4. Le premier objectif est d'étudier la pertinance de l'utilisation du réseau de type IEEE 802.15.4 pour les SCRSF puis de proposer et d'évaluer des mécanismes pour garantir la Qualité de Service (QdS) offerte par le réseau au système contrôlé. Nous analysons l'utilisation des slots temporels réservés (GTS) dans le cadre des SCRSF et les contraintes qui en découlent. De plus, nous proposons des mécanismes de gestion de la QdS avec priorité aussi bien pour le mode avec balise que pour le mode sans balise du protocole IEEE 802.15.4. Ces propositions ont été validées par des simulations et une partie de manière analytique.

    Notre deuxième objectif est de concevoir, d'une manière conjointe, les SCRSF pour pouvoir régler en ligne la QdS offerte par le réseau en fonction de la Qualité de Contrôle (QdC) du système contrôlé. Nous proposons des protocoles d'adaptation en ligne de la QdS du réseau qui prennent en compte la QdC du système contrôlé. Ces protocoles ont été validés par simulations et une implémentation réelle de chacun d'eux est proposée.

" Généralisation du lemme de Gronwall-Bellman pour la stabilisation des systèmes fractionnaires "
(Thèse Ibrahima N'DOYE)

Résumé :

Dans ce mémoire, nous avons proposé une méthode basée sur l'utilisation de la généralisation du lemme de Gronwall-Bellman pour garantir des conditions suffisantes de stabilisation asymptotique pour une classe de systèmes non linéaires fractionnaires. Nous avons étendu ces résultats dans la stabilisation asymptotique des systèmes non linéaires singuliers fractionnaires et proposé des conditions suffisantes de stabilité asymptotique de l'erreur d'observation dans le cas de l'étude des observateurs pour les systèmes non linéaires fractionnaires et singuliers fractionnaires.
Pour les systèmes non linéaires à dérivée d'ordre entier, nous avons proposé par l'application de la généralisation du lemme de Gronwall- Bellman des conditions suffisantes pour :
   - la stabilisation exponentielle par retour d'état statique et par retour de sortie statique,
   - la stabilisation exponentielle robuste en présence d'incertitudes paramétriques,
   - la commande basée sur un observateur.

Nous avons étudié la stabilisation des systèmes linéaires fractionnaires avec les lois de commande suivantes : retour d'état statique, retour de sortie statique et retour de sortie basé sur un observateur. Puis, nous avons proposé des conditions suffisantes de stabilisation lorsque le système linéaire fractionnaire est affecté par des incertitudes non linéaires paramétriques. Enfin, nous avons traité la synthèse d'un observateur pour ces systèmes. Les résultats proposés pour les systèmes linéaires fractionnaires ont été étendus au cas où ces systèmes fractionnaires sont singuliers.

La technique de stabilisation basée sur l'utilisation de la généralisation du lemme de Gronwall-Bellman est étendue aux systèmes non linéaires fractionnaires et aux systèmes non linéaires singuliers fractionnaires. Des conditions suffisantes de stabilisation asymptotique, de stabilisation asymptotique robuste et de commande basée sur un observateur ont été obtenues pour les classes de systèmes non linéaires fractionnaires et non linéaires singuliers fractionnaires.

Par ailleurs, une méthode de synthèse d'observateurs pour ces systèmes non linéaires fractionnaires et non linéaires singuliers fractionnaires est proposée. Cette approche est basée sur la résolution d'un système d'équations de Sylvester. L'avantage de cette méthode est que, d'une part, l'erreur d'observation ne dépend pas explicitement de l'état et de la commande du système et, d'autre part, qu'elle unifie la synthèse d'observateurs de différents ordres (observateurs d'ordre réduit, d'ordre plein et d'ordre minimal)

Composition du jury :

Président : M. Mohamed DAROUACH (CRAN, Nancy Université, Nancy)

Rapporteurs :

M. Abdellah BENZAOUIA (LAEP-U2RC, Université Cadi Ayyad de Marrakech)
M. Nour-Eddine EL ALAMI (LAII-EMI, Université Mohammed V de Rabat)
M. Alain OUSTALOUP (ENSEIRB-MATMECA, Université de Bordeaux I)

Examinateurs :

M. Mohamed DAROUACH (CRAN,  Nancy Université, Nancy)
M. Nour-Eddine RADHY (LP2MT, Université Hassan II Ain Chock, Casablanca)
M. Michel ZASADZINSKI (CRAN,  Nancy Université, Nancy)

Invités :

M. Azzedine BAALAL (LMACS, Université Hassan II Ain Chock, Casablanca)
M. Abdelhaq BOUAZIZ (ESTC, Université Hassan II Ain Chock, Casablanca)

" Conception sûre des systèmes mécatroniques intelligents pour des applications critiques "
(Thèse Hicham Belhadaoui)

Résumé :

La criticité des systèmes complexes programmables nécessite de garantir un niveau de fiabilité et de sécurité convenable. Des études de sûreté de fonctionnement doivent être menées tout au long du cycle de développement du système. Ces études permettent une meilleure maîtrise des risques et de la fiabilité. Les points faibles sont mis en évidence et permettent aux concepteurs de spécifier des stratégies de reconfiguration avant la phase de prototype réel et les tests réels. Les études de sûreté de fonctionnement doivent être menées au plus tôt dans la phase de conception, afin de réduire les coûts et le nombre de prototypes nécessaires à la validation du système.

Le travail présenté dans ce mémoire de thèse a pour objectif de définir une méthodologie de conception des systèmes complexes programmables dédiés à une application mécatronique, intégrant dès les premières phases du cycle de développement, les aspects sûreté de fonctionnement. L'apport d'une telle méthodologie doit permettre de faire face à un certain nombre de contraintes propres au domaine des capteurs intelligents (les exigences de cahier des charges, le respect des normes législatives en vigueur).

La méthodologie développée doit permettre de :

- Modéliser et simuler les comportements fonctionnels et dysfonctionnels des systèmes
- Estimer la fiabilité par modélisation
- Réaliser des mesures de sensibilité afin de connaître la contribution de chaque composant à la fiabilité du système
- Capitaliser la connaissance sur le système au cours des différentes phases d'évaluation (prévisionnelle, expérimentale et opérationnelle) pour affiner les estimations de fiabilité

Ce Travail introduit le concept d'information en sûreté de fonctionnement. Nous interprétons la défaillance de celle-ci comme étant le résultat de l'initiation et de la propagation d'informations erronées à travers l'architecture d'un capteur intelligent dédié à une application mécatronique. Cette propagation s'est accompagnée de contraintes (partage de ressources matérielles et informationnelles, modes dégradés d'information…) qui tendent à influencer fortement la crédibilité de cette information. Nous débutons sur un état de l'art pour montrer l'intérêt de l'approche flux informationnel sur un cas d'étude complexe. Ceci est lié à la présence d'une partie programmable (interaction matériel-logiciel) et évidement du système hybride (signaux mixtes analogique-numérique). Cette nouvelle approche distingue, les phénomènes d'apparition et de disparition d'erreurs (matérielles, logicielles et environnementales), ainsi que les séquences de propagation aboutissant à un mode de dysfonctionnement du système. Grâce à cette distinction nous expliquons les concepts mal traités par les méthodes conventionnelles, tels que la défaillance simultanée, la défaillance de cause commune et abordons d'une manière réaliste les problématiques des interactions

matériel-logiciel et celle des signaux mixtes.

Les séquences de propagation d'erreurs générées permettent à l'aide d'un modèle markovien non homogène, de quantifier d'une manière analytique les paramètres de la sûreté de fonctionnement du système (fiabilité, disponibilité, sécurité) et de positionner le capteur dans un mode de fonctionnement parmi les six que nous avons définis suivant les spécifications du cahier des charges.

La composition du jury est la suivante :

Rapporteurs  :

- Frédéric Kratz – (PR LVr, ENSI Bourges),  frederic.kratz@ensi-bourges.fr (a encadré des travaux sur l'analyse de sûreté de fonctionnement des systèmes complexes en phase de conception : application à l'évaluation des missions d'un réseau de capteurs de présence humaine).
- Zineb SIMEU-ABAZI – (MCf HDR - G-SCOP-UJF-INPG) zineb.simeu-abazi@g-scop.inpg.fr (a encadré des travaux sur l'évaluation de la SdF de systèmes électroniques embarqués avec Eurocopter

Examinateurs  :

L. Ebrard ( INess Université de Strasbourg) - Section 63 (laboratoire co contractant dans le projet CETIM)
José Ragot (CRAN ENSEM), jose.ragot@ensem.inpl-nancy.fr
Jean-François Aubry (CRAN, ENSEM), jean-francois.aubry@ensem.inpl-nancy.fr
Olaf Malassé (A3SI, Arts et Métiers ParisTech) olaf.malasse@ensam.eu

Invités  :

Jean-Claude Boehm (correspondant CETIM du projet)
Nicolas Hérault (Université de Corse)
Karim Hamidi (ingénieur , docteur, IRSN)

" Modélisation et estimation d'état pour la navigation de projectiles "
(Thèse Bertrand GRANDVALLET)

Résumé:

Ce travail de thèse est réalisé en collaboration entre le Centre de Recherche en Automatique de Nancy (CRAN) et l'Institut franco-allemand de recherche de Saint-Louis (ISL). La problématique s'inscrit dans le cadre du développement de munitions guidées, où dans le but de limiter les dommages collatéraux, de nouveaux concepts de projectiles intelligents sont à l'étude. Cette thèse traite du domaine de la navigation embarquée en utilisant des capteurs "bas-coûts", où nous mettons en oeuvre la théorie de l'estimation. Elle apporte une contribution tant sur le plan de la modélisation du système et des capteurs utilisés, que d'un point de vue théorique au travers de la synthèse de nouvelles méthodes de filtrage temps-réel, et ce notamment par la mise en oeuvre d'approches à horizons glissants. Une validation des concepts sur des mesures réelles est finalement effectuée, afin de pouvoir à terme réaliser un prototype opérationnel.

Mots-Clés:

Projectiles, Modélisation, Estimateurs non-linéaires, Filtre de Kalman étendu.

Jury:

M. Daniel Alazard (ISAE-ONERA, Université de Toulouse, rapporteur)
M. Rogelio Lozano (CNRS-HEUDIASYC, Université de Compiègne, rapporteur)
M. Mohamed Boutayeb (UHP-CRAN, Nancy-Université, Directeur de thèse)
M. Sébastien Changey (ISL, Saint Louis, co-encadrant)
Mme Eva Crück (DGA-DS-MRIS, Bagneux, invitée)
M. Michel de Mathelin (LSIIT-IRCAD, Université de Strasbourg, examinateur)
M. Olivier Sename (GIPSA-lab, INP-ENSE3, Grenoble INP, examinateur)
M. Ali Zemouche (UHP-CRAN, Nancy-Université, co-encadrant)

" Contribution à la modélisation d'un système de conduite interactive d'un procédé industriel "
(Thèse Anca Maria NAGY-KISS )

Résumé :
Cette thèse traite de l'analyse et de la synthèse de multimodèles pour la simplification de modèles, l'estimation d'état et le diagnostic des systèmes non linéaires caractérisés par une ou plusieurs échelles de temps. Ces travaux visent, dans un premier temps, à développer une procédure systématique de transformation d'un système non-linéaire en le récrivant sous une forme multimodèle, en évitant quelques inconvénients majeurs : la transformation est réalisée sans perte d'information, le choix de différents points de fonctionnement n'est plus nécessaire, le choix de variables de prémisse est réalisé d'une façon systématique. De plus, la méthode offre le choix entre différents multimodèles. Ce degré de liberté sera utilisé pour faciliter les études de contrôlabilité, d'observabilité et d'analyse de stabilité. Dans un deuxième temps, l'obtention de la forme à perturbations singulières d'un système non linéaire est proposée, en éliminant quelques contraintes structurelles et en rendant l'identification et la séparation des échelles de temps indépendante de la structure du modèle. Dans un troisième temps, la synthèse de plusieurs observateurs robustes vis-à-vis des perturbations, des erreurs de modélisation et des entrées inconnues a été réalisée afin de reconstruire l'état et l'entrée inconnue du système. La difficulté de cette étude provient du fait que le multimodèle utilisé dépend de variables de prémisse non mesurables, situation qui n'est pas intensivement étudiée, alors qu'elle est naturellement issue de l'approche par transformation système non linéaire - multimodèle. Ensuite, le diagnostic de défauts de systèmes est réalisé au moyen de bancs d'observateur à entrées inconnues permettant la génération et la structuration de résidus indicateurs de défauts. Finalement, tous les travaux proposés sont appliqués au modèle d'une station d'épuration, Activated Sludge Model No.1, qui est largement utilisé dans le domaine du traitement des eaux usées.

Jury :

Rapporteurs :
    Jean Philippe CASSAR        Professeur à l'Université des Sciences et Technologies de Lille
    Mohammed M'SAAD          Professeur à l'Université de Caen Basse-Normandie

Examinateurs :
    Denis DOCHAIN                Professeur à l'Université catholique de Louvain, Belgique
    José RAGOT                       Professeur à l'INPL ( Directeur de thèse
    Gilles MOUROT                  Ingénieur de Recherche à INPL ( Co-directeur de thèse )
    Benoît MARX                      Maître de conférences à l'INPL ( Co-encadrant de thèse
    Georges SCHUTZ               Chercheur à CRP Henri Tudor, Luxembourg

" Contribution à la modélisation d'un système de conduite interactive d'un procédé industriel "
(Thèse Dragos Dobre)

Résumé :

Les travaux présentés dans ce mémoire s'inscrivent dans le contexte de l'Ingénierie d'un Système Interactif d'Aide à la Conduite (SIAC) d'un procédé industriel. Nous défendons l'intérêt d'améliorer l'interactivité numérique entre un procédé et un agent (opérateur de conduite, rondier) qui applique des procédures de conduite.
L'originalité du SIAC consiste à encapsuler le système physique par un canal d'objets logiques afin de mieux équilibrer la distribution des rôles entre l'humain et le système technique de soutien. Ce SIAC fournit aux opérateurs et aux rondiers des services d'aide à la conduite tels que la localisation des équipements, l'autorisation des actions à exécuter et la validation des actions exécutées, de même que la gestion des contraintes d'exclusion et de dépendances entre actions, imposées par la physique du procédé.
La spécification de ce système sociotechnique interprète les travaux des « Problem Frames » en génie informatique pour proposer un procédé de modélisation itératif dans le cadre d'une Ingénierie Système Basée sur des Modèles (ISBM). Cette ISBM s'appuie sur le langage SysML, dont la syntaxe et la sémantique sont spécialisées pour supporter le procédé de modélisation proposé. Cette spécialisation met en correspondance les artéfacts clés extraits à la fois des bonnes pratiques de l'Ingénierie Système et des bonnes pratiques de SysML.

Jury :

Rapporteurs :
M. Pascal BERRUET   (Professeur à l'Université de Bretagne-Sud)
M. Bernard THIRION     (Professeur à l'Université de Haute Alsace)

Examinateurs :
Mme. Catherine DEVIC  (Responsable de groupe EDF R&D/STEP)
M. David GOUYON     (Maître de conférences à Université Henri Poincaré, Nancy I)

Directeur de thèse :
M. Gérard MOREL  (Professeur à l'Université Henri Poincaré, Nancy I)
Co-directeur de thèse :
M. Eddy BAJIC (Professeur à l'Université Henri Poincaré, Nancy I)

" Restauration et séparation de signaux polynômiaux par morceaux Application à la microscopie de force atomique "
(Thèse Junbo Duan)

Cette thèse s'inscrit dans le domaine des problèmes inverses en traitement du signal. Elle est consacrée à la conceptiond'algorithmes de restauration et de séparation de signaux parcimonieux et à leur application à l'approximation de courbes de forces en microscopie de force atomique (AFM), où la notion de parcimonie est liée au nombre de points de discontinuité dans le signal (sauts, changements de pente, changements de courbure). Du point de vue méthodologique, des algorithmes sous-optimaux sont proposés pour le problème de l'approximation parcimonieuse basée sur la pseudo-norme l0 : l'algorithme Single Best Replacement (SBR) est un algorithme itératif de type « ajout-retrait » inspiré d'algorithmes existants pour la restauration de signaux Bernoulli-gaussiens. L'algorithme Continuation Single Best Replacement (CSBR) est un algorithme permettant de fournir des approximations à des degrés de parcimonie variables. Nous proposons aussi un algorithme de séparation de sources parcimonieuses à partir de mélanges avec retards, basé sur l'application préalable de l'algorithme CSBR sur chacun des mélanges, puis sur une procédure d'appariement des pics présents dans les différents mélanges. La microscopie de force atomique est une technologie récente permettant de mesurer des forces d'interaction entre nanoobjets. L'analyse de courbes de forces repose sur des modèles paramétriques par morceaux. Nous proposons un algorithme permettant de détecter les régions d'intérêt (les morceaux) où chaque modèle s'applique puis d'estimer par moindres carrés les paramètres physiques (élasticité, force d'adhésion, topographie, etc.) dans chaque région. Nous proposons finalement une autre approche qui modélise une courbe de force comme un mélange de signaux sources parcimonieux retardées. La recherche des signaux sources dans une image force-volume s'effectue à partir d'un grand nombre de mélanges car il y autant de mélanges que de pixels dans l'image.

Jury :
Rapporteurs :
J. Mars Professeur à l'INP Grenoble, (GIPSA-LAB, Grenoble)
C. Heinrich Professeur à l'Université Louis Pasteur (LSIIT, Strasbourg)
Examinateurs :
R. Lengelle Professeur à l'Université Technologie de Troyes (UTT, Troyes)
D. Brie Professeur à l'Université Henri Poincaré, Nancy 1 (CRAN, Nancy)
C. Soussen MCF à l'Université Henri Poincaré, Nancy 1 (CRAN, Nancy)
J. Idier Directeur de recherche au CNRS (IRCCyN, Nantes)
Invité :
G. Francius Chargé de Recherche au CNRS (LCPME, Nancy)

" Qualité de service et qualité de contrôle d'un Système Discret Contrôlé en Réseau Sans Fil : proposition d'une approche de co-conception appliquée au standard IEEE 802.11 "
(Thèse Gilbert HABIB)

Résumé:

L'utilisation de la communication sans fil dans les applications de contrôle industriel offre de nombreux avantages comme la réduction des coûts de câblage, la souplesse de la mise en service, la reconfiguration ou encore la mobilité des dispositifs de contrôle. Toutefois, la communication sans fil souffre de nombreux inconvénients tels que la perte d'information, les phénomènes de gigue ou encore des délais de bout en bout aléatoires. Ces problèmes sont essentiellement induits par la caractéristique non déterministe du comportement de la communication sans fil qui peut avoir un impact négatif sur la stabilité, la performance en temps réel et la fiabilité du système de contrôle.

L'objectif de ce travail porte sur l'amélioration des performances de Systèmes Discrets Contrôlés via un Réseau Sans fil (SDCR sans fil). Ses systèmes sont caractérisés par une commande logique distribuée sur des automates programmables (API) et/ou des boîtiers d'entrées/sorties déportés communiquant via un réseau de communication sans fil au standard IEEE 802.11 (Wi-Fi).

L'approche proposée repose sur un processus de co-conception basé :

- sur une modélisation conjointe des comportements de la commande et du réseau au travers de modèles SED déterministes pour la commande et stochastiques pour le réseau, et sur la simulation pour évaluer les performances des SDCR sans fil et notamment leur temps de réponse

- la proposition d'un algorithme qui alloue dynamiquement les priorités définies par le standard IEEE 802.11e sur les trafics de communication en fonction des besoins et des états de la commande; cet algorithme est évalué sur un cas d'étude, pour lequel la communication sans fil induit des risques de collision entre des équipements d'une installation industrielle, en utilisant l'environnement de simulation précédemment défini. Les simulations montrent une amélioration de la performance du système surtout dans des cas où le réseau est très chargé, en particulier lorsque le système comprend un grand nombre d'équipements.

Membres des jurys:

P. LE PARC (LISyC, Université de Bretagne Occidentale, rapporteur)
A. TOGUYENI (LAGIS, Ecole centrale de Lille, rapporteur)
B. DENIS (Lurpa, ENS Cachan, examinateur)
P. MARANGE (Université Henri Poincaré, Nancy 1, CRAN, examinateur)
T. DIVOUX (Université Henri Poincaré, Nancy 1, CRAN, directeur de thèse)
J.-F. PÉTIN (Université Henri Poincaré, Nancy 1, CRAN, co-directeur de thèse)

" Pour une amélioration de la thérapie photodynamique appliquée à la cancérologie : Potentialités des dendrimères poly(amidoamines) et des Quantum Dots CdTe adressés par l'acide folique. "
(Thèse Vincent MOROSINI)

Résumé :

La thérapie photodynamique (PDT) est un traitement antitumoral reposant sur l'action conjuguée de lumière, de l'oxygène et de photosensibilisateurs (PSs). Les PSs, non toxiques à l'obscurité, vont produire sous l'effet d'une lumière visible de l'oxygène singulet (1O2), toxique pour les cellules. Aujourd'hui, le développement de nouveaux PSs est un enjeu important afin d'augmenter l'efficacité et la sélectivité de la PDT antitumorale. L'efficacité de la thérapie photodynamique est en effet confrontée à certains verrous : les PSs utilisés ne sont pas adaptés à la fenêtre thérapeutique de la PDT, ils subissent un photoblanchiment lors du traitement, et leur nature organique pose des problèmes en milieu biologique. Ils présentent également des problèmes de sélectivité envers les tissus tumoraux à traiter. Dans le cadre de cette thèse, trois approches visant une amélioration de la PDT anticancéreuse ont été développées : la vectorisation, l'adressage, et l'emploi de nouveaux PSs.

Dans un premier temps, la synthèse de structure PS/vecteur a permis de développer des structures hydrophiles capables de vectoriser des PSs hydrophobes. Des porphyrines ont ainsi été greffées asymétriquement sur des dendrimères polyamidoamine (PAMAM). La conservation des propriétés photophysiques des PSs après leur couplage au dendrimère a été mise en évidence par une étude de l'absorbance, de la fluorescence et de la production en 1O2 de ces structures.

Une étude a ensuite été menée sur l'utilisation de quantum dots (QDs) adressés par l'acide folique (AF). Les QDs sont des nanoparticules de semi-conducteurs qui, grâce à la modularité de leurs propriétés photophysiques et leur capacité à résister au photoblanchiment, peuvent être utilisés comme nouvelle classe de PSs. L'étude de la synthèse de ces QDs a permis d'élaborer des QDs monodisperses hydrophiles dont les propriétés photophysiques d'absorption vont être adaptées à la fenêtre thérapeutique de la PDT, c'est-à-dire situées dans la région proche infrarouge du spectre.

Ces QDs ont par la suite été couplé à l'AF via un bras espaceur de type polyéthylène glycol. Une étude préliminaire réalisée in vitro a tout d'abord été menée afin de mettre en évidence le caractère fluence-dépendant de l'activité photodynamique de ces QDs couplés à l'AF.

Des études in vitro réalisées dans une approche de plan d'expérience ont ensuite été réalisées. Cette approche mathématique a permis de mettre en évidence l'affinité accrue des QDs couplés à l'AF envers les cellules tumorales surexprimant le récepteur à l'AF, ainsi que de l'impact des différents facteurs expérimentaux (concentration en QDs, fluence, temps d'incubation, lignée cellulaire) sur la réponse cellulaire. Il a ainsi été possible de hiérarchiser ces différents facteurs expérimentaux selon leur influence sur l'activité photodynamique des QDs couplés à l'AF et ainsi déterminer les conditions expérimentales d'utilisations de ces QDs pour une efficacité optimale de la PDT dans le domaine expérimental étudié.

Membres du jury :

Rapporteurs : Stéphane ROUX, Institut UTINAM, Université de Franche-Comté

Marc VERELST, CEMES, Toulouse


Examinateurs : Muriel BARBERI-HEYOB, CRAN section IPS, CAV Brabois

Céline FROCHOT, LRGP-ENSIC, Nancy

Raphaël SCHNEIDER, LRGP-ENSIC, Nancy

Jean-Olivier DURAND, Institut Charles Gerhardt, Université de Montpellier

" Contribution à la maintenance proactive par la formalisation du processus de pronostic des performances de systèmes industriels "
(Thèse Pierre COCHETEUX)

Les contraintes des marchés et les attentes de la société vis-à-vis des systèmes industriels en termes économique, sécuritaire, environnementaux… requièrent de considérer les performances de ces derniers de façon globale sur l'ensemble de leur cycle de vie. Cela nécessite de mettre en synergie, par exemple avec des ingénieries couplées dès la conception, le système principal et ses systèmes contributeurs, et notamment celui de soutien avec son processus pivot de maintenance. Cette focalisation intégrative sur la maintenance a conduit à évoluer d'anciennes pratiques de maintenance vers de nouvelles plus proactives faisant émerger des stratégies prévisionnelles dont le processus clé est le pronostic. Cependant ce processus fait l'objet d'un réel manque de formalisation et les travaux existants restent principalement centrés sur les composants, sans prendre en compte les performances des systèmes. Ainsi notre contribution porte sur la proposition d'architectures génériques de pronostic système permettant d'obtenir les évolutions futures des dégradations/défaillances des composants et des performances de niveaux système/sous-systèmes/composants : soit directement par un pronostic adapté, soit par modélisation de la causalité dysfonctionnelle sous forme de relations logiques supportées par un réseau de neurones flou ANFIS. Une méthodologie est associée pour définir les indicateurs de dégradation et de performance, aboutissant à la réalisation des architectures. Enfin la faisabilité de cette approche est démontrée sur un système de déroulage/pressage de la plateforme TELMA.

Jury :

Rapporteurs :
M. Mustapha OULADSINE (Professeur à l'Université Paul Cézanne, Aix-Marseille III)
M. François PERES (Professeur à l'Ecole Nationale d'Ingénieurs de Tarbes)

Examinateurs :
M. Dimitris KIRITSIS (Professeur Assistant à l'EPFL (Suisse))
Mme Liliane PINTELON (Professeur à la Katholieke Universiteit Leuven (Belgique))
M. Nidhal REZG (Professeur à l'Université Paul Verlaine de Metz)
M. Alexandre VOISIN (Maître de conférences à Université Henri Poincaré, Nancy I)

Directeur de thèse :
M. Benoît IUNG (Professeur à l'Université Henri Poincaré, Nancy I)
Co-directeur de thèse :
M. Eric LEVRAT (Maître de conférences à l'Université Henri Poincaré, Nancy I)

" Localisation et caractérisation du déroulement de la crise d'épilepsie temporale "
(Thèse Hugo VELEZ-PEREZ)

Résumé :

L'épilepsie est une maladie chronique caractérisée par la une prédisposition cérébrale durable à générer des crises d'épilepsie. Ces crises résultent d'une synchronisation brutale et excessive d'une population de neurones plus ou moins
importante. Elle touche près de 50 millions de personnes dans le monde. Un traitement pharmacologique peut être la solution thérapeutique dans 80% des cas. En revanche pour les 20% de patients restant, la traitement chirurgical est à envisager comme
un traitement « curatif ». La localisation précise de la Zone Epileptogène (ZE) devient un problème crucial pour ce type de traitement. Les modalités pour le diagnostic de localisation sont très diverses : la sémiologie et les techniques électro-physiologiques (ECoG, MEG et EEG), l'imagerie (IRM, TEP, TEMP). Malgré des avancées technologiques et méthodologie de ces techniques, il est parfois nécessaire d'avoir recours à la Stéréo ElectroEncéphalographie (SEEG, électrodes de profondeur) technique invasive pour affiner la localisation de la ZE. Dans tous les cas et au préalable, une étude clinique des signaux
d'EEG de surface est menée pour caractériser la crise d'épilepsie et aider à définir les structures cérébrales d'origines. Cependant les signaux recueillis à la surface du scalp sont très perturbés pour le bruit et les artefacts oculaires et musculaires et fournissent des informations relativement diffuses et régionales.

Ce travail a pour objectif d'extraire des descripteurs des signaux d'EEG de surface qui peuvent conduire à la caractérisation de la dynamique spatio-temporelle des crises partielles du lobe temporal. La voie choisie est celle de l'étude des relations
multidimensionnelles inter-voies de surfaces. Des méthodes d'estimation de relations inter-voies éprouvées sur des signaux de profondeurs SEEG ont été adaptées sur des signaux de surface. Les méthodes appliquées sont paramétriques symétriques et non
symétriques telles que l'inter-spectre, la cohérence (C), la Directed Transfert Function (DTF) ou la Partial Directed Coherence (PDC). Les performances de ces méthodes sont évaluées en fonction du rapport signal sur bruit sur des signaux sources générés et pour différentes configurations de modèles de relations. Ces relations sont estimées sur des EEG réels contenant une crise. La détection de fortes relations inter-voies est exploitée pour latéraliser puis caractériser la crise. Toutes les méthodes sont appliquées sur des signaux EEG bruts et des signaux EEG prétraités. Après une étape de séparation de sources, et de débruitage le prétraitement consiste à discriminer automatiquement les différentes sources de signaux en 4 classes : les artefacts oculaires et musculaires, l'ECG et des sources électro-physiologiques cérébrales. L'EEG prétraité est alors reconstruit uniquement avec les sources de la classe dite ‘cérébrales'. Les rés!
ultats obtenus sur 51 crises montrent que le prétraitement améliore la détection et le taux de bonnes latéralisations.

Une méthode de couplage entre l'inter-spectre et les méthodes paramétriques directives permet d'augmenter la caractérisation des crises.

--------------------------

*Membres du Jury :*

*Rapporteurs :*
Catherine MARQUE, LBB, Université de Compiègne
Fabrice BARTOLOMEI, UFR Marseille

*Examinateurs : *
Valeriu VRABIE, UFR Sciences Exactes et Naturelles - Reims
Michel DUFAUT,  CRAN-INPL
Radu RANTA,  CRAN-INPL
Valérie LOUIS-DORR, CRAN-INPL
Louis MAILLARD (CHU de Nancy)

" Propositions de méthodes pour adapter le réseau aux contraintes d'applications temps-réel "
(Thèse Idriss DIOURI)

Résumé :

L'étude des Systèmes Contrôlés en Réseaux (SCR) supports d'applications collaboratives, distribuées et interconnectées par un réseau repose sur l'identification des exigences de fonctionnement de l'application appelées Qualité de Contrôle (QdC), et sur l'évaluation des performances du réseau pour obtenir son niveau de Qualité de Service (QdS). Par souci de simplification, les travaux sur les systèmes en réseau se repartissent selon deux approches : la première compense les perturbations générées par les communications au niveau de l'application (commande en réseau). La seconde adapte les performances du réseau en fonction des besoins applicatifs (commande de réseau). Cette thèse se positionne sur la deuxième approche avec une recherche axée sur la modélisation des mécanismes d'ordonnancement implémentés dans les équipements réseau et notamment dans des commutateurs Ethernet qui sont de plus en plus utilisés dans les applications industrielles. Ce travail de recherche étudie plus particulièrement comme paramètre de QdS, les délais induits par le réseau qui engendrent des perturbations sur le système à commander (stabilité, temps de réponse). Ce travail a débuté dans le cadre du projet Européen NeCST, et s'est poursuivi avec le projet ANR Safe_NeCS. Cette thèse propose deux modèles de Classification de Service reposant sur des ordonnanceurs WRR (Weighted Round Robin). La première modélisation suit une approche constructive en utilisant la théorie du calcul réseau. La seconde s'appuie sur une phase d'identification à partir de simulations numériques et de la logique floue.
Dans les deux cas, le but est de pouvoir offrir une bande passante suffisante pour le trafic contraint temporellement (messages de contrôle/commande) tout en maximisant la bande passante dédiée aux autres trafics (pour éviter des effets famine). L'approche calcul réseau permet de configurer le réseau « hors ligne » pour répondre à des contraintes temporelles strictes de systèmes contrôlés en réseaux. Cependant, le caractère pessimiste du calcul réseau se fait au détriment de la bande passante allouée aux trafics non contraints. La solution basée sur la logique floue autorise une commande dynamique de l'ordonnanceur pour ajuster « en ligne » le réseau en fonction des variations du trafic. Elle ne peut s'appliquer qu'à des systèmes contrôlés en réseaux ayant des contraintes de temps souples.

Jury :

P. FRAISSE   (Université Montpellier 2, LIRMM, rapporteur)
D. SIMON (INRIA Rhône-Alpes, rapporteur)
M. DAMBRINE (Université de Valenciennes et du Hainaut-Cambrésis, LAMIH,
examinateur)
V. BOMBARDIER (Université Henri Poincaré, Nancy 1, CRAN, examinateur)
J.-P. GEORGES (Université Henri Poincaré, Nancy 1, CRAN, examinateur)
E. RONDEAU (Université Henri Poincaré, Nancy 1, CRAN, directeur de thèse)

" Contributions à l'identification de modèles paramétriques non linéaires. Application à la modélisation de bassins versants ruraux. "
(Thèse Vincent LAURAIN)

Résumé :

La procédure d'identification consiste à rechercher un modèle mathématique adéquat pour un système dynamique étudié à partir de données expérimentales. Alors que l'identification de système est orientée majoritairement pour répondre aux problèmes industriels depuis les années 90, l'identification de systèmes naturels reste cruciale pour une meilleure compréhension de notre environnement. Cette thèse vise à apporter une solution au problème de modélisation de la relation pluie/débit dans un bassin versant rural.  Un bassin versant est défini comme la portion de territoire délimitée par des lignes de crête, dont les eaux alimentent un exutoire commun : cours d'eau, lac, mer, etc.
L'identification de la relation pluie/débit est un problème stimulant, de par la complexité à trouver une structure de modèle définissant le comportement du bassin dans son ensemble. De plus, dans les bassins ruraux, il y a une grande variabilité spatio-temporelle des propriétés du sol tant au niveau de la végétation, du type de sol ou de l'évapotranspiration et seulement une partie de la pluie totale ruisselle et contribue au débit à l'exutoire. Dans ce cas, les modèles linéaires ne sont pas adaptés et ne peuvent délivrer de modèle acceptable pour la relation pluie/débit. 
A cet effet, deux structures de modèles non-linéaires sont étudiées : les modèles Hammerstein et les modèles Linéaires à Paramètres variants (LPV). La contribution principale de cette thèse réside dans le développement de méthodes dédiées à l'estimation de ces modèles, à temps discret ou continu, opérant en boucle ouverte ou fermée, en se concentrant sur le cas réaliste où le bruit de sortie est coloré et indépendant du processus étudié : le cas Box--Jenkins (BJ). De plus, les méthodes proposées ont été conçues spécialement pour fournir des résultats utiles dans le cas réel où le modèle de bruit est inconnu ou mal évalué.
Finalement,  ces méthodes sont utilisées sur des données réelles, acquises sur un bassin versant rural situé à Rouffach, Alsace, France et un processus d'identification innovant est proposé pour la modélisation de la relation pluie/débit.

Jury :

M. Michel Gevers (Université de Louvain-la-neuve, rapporteur)
M. Qinghua Zhang (INRIA Rennes, rapporteur)
M. Lennart Ljung (Université de Linkoping, examinateur)
M. Luc Dugard (GIPSA, examinateur)
M. Hugues Garnier (UHP, directeur de thèse)
Mme. Marion Gilson (UHP, co-directeur de thèse)

" Commandes coopératives embarquées et tolérantes aux défauts "
(Thèse Kamel Menighed)

Résumé :

Le travail présenté dans ce mémoire de thèse porte sur la tolérance aux défauts dans le cas des systèmes linéaires. Les moyens de communication numériques sont utilisés dans le cadre de la mise en oeuvre d'une architecture de commande tolérante aux défauts pour des systèmes complexes. Une coopération entre les modules de commande/diagnostic assure la tolérance à certains types de défauts qui affectent le système. La commande des systèmes est traditionnellement réalisée à partir d'un calculateur central qui collecte l'ensemble des informations relevées sur le procédé, puis les traite pour élaborer un ensemble de commande qui est appliqué au procédé. Avec le
développement des systèmes commandés en réseaux (Networked Control System) et des systèmes embarqués, l'architecture des systèmes s'oriente vers une distribution des algorithmes de commande et de diagnostic. On se propose d'aborder le problème de la conception des stratégies de distribution de diagnostic/commande et de coopération des tâches de commande entre les sous-contrôleurs associés à chaque sous-système qui composent le système complexe et de prendre en compte les défauts des actionneurs et de capteurs affectant les sous-systèmes. Il s'agit alors d'élaborer une stratégie de commande coopérative visant à compenser les effets des défauts affectant le système. Les commandes locales sont des commandes prédictives à base de modèle (MPC : Model Predictive Control). Une analyse de stabilité a été faite en prenant en considération la défaillance du réseau de communication.

Mots-clés :
Commande tolérante aux défauts, Diagnostic du défauts, Commande coopérative, Structure distribué, Système complexe.

Directeur de thèse :
Christophe Aubrun, Professeur à l'Université Henri Poincaré, Nancy1
Co-directeur de thèse:
Joseph julien Yamé, MCF à à l'Université Henri Poincaré, Nancy1

Rapporteurs :
M.Ahmed El hajjaji, Professeur à l'Université Jules Verne, Picardie
M.Laurent Cauffriez, HDR à l'Université de Valenciennes et du Hainaut,Cambrésis


Examinateurs :
M. Didier Maquin, Professeur à Institut National Polytechnique de Lorraine, Nancy
Mme. Anne-Lise Gehin, MCF à l'Université de Lille, Lille

" Réconciliation de données en présence d'incertitudes de modèle. Application au convertisseur à oxygène. "
(Thèse Julien Francken )

Résumé :

Dans le domaine sidérurgique, l'ajustement des commandes de  préréglage de façon à atteindre les objectifs définis par le cahier  des charges est un problème courant. Les procédés de traitement par  lots (ou traitement batch) utilisant ce type de commande sont  essentiellement axés sur la transformation de matériaux bruts en  produits raffinés. L'objectif de ces systèmes de commande est  d'obtenir des produits de qualité imposée ; ceux-ci se révèlent  malheureusement sensibles aux conditions opératoires. De plus, on  observe fréquemment des variations de comportement d'un lot à  l'autre, ce qui nécessite de modifier les paramètres des modèles  employés pour les préréglages suivants. Cela est particulièrement  vrai pour le convertisseur à oxygène où les informations rassemblées  pendant une coulée spécifique servent à ajuster les points de  consigne de la coulée suivante. Jusqu'à présent, le mécanisme  d'adaptation des préréglages relevait d'une stratégie plus ou moins  expérimentale.

Dans cette thèse, nous présentons donc une méthode de validation de  données s'appuyant sur un modèle incertain. Cette approche est  originale en ce sens que, le plus fréquemment, les méthodes de  validation de données les plus courantes font l'hypothèse que le  modèle du système est connu parfaitement. Ici, les incertitudes  portant sur les mesures des variables et sur la connaissance des  paramètres du modèle sont simultanément prises en compte pour fournir  des estimées cohérentes qui pourront être mises à profit par le  système de contrôle-commande du convertisseur à oxygène, en  particulier lors du préréglage de celui-ci.
L'estimation paramétrique étant sensible à la présence de mesures  aberrantes, ce qui est fréquent dans ce type d'installation opérant  dans des milieux très perturbés, la méthode proposée a été rendue  robuste à la présence de ces informations erronées par la prise en  compte, dans la méthode d'estimation, de la notion de distribution  statistique contaminée. De façon à pouvoir discriminer les erreurs de  mesures des incertitudes paramétriques, l'estimation s'effectue sur  des horizons glissants permettant de régler différemment les facteurs  d'oubli relatifs aux estimations des variables et des paramètres.
Le modèle du convertisseur a été établi sur la base des principes de  conservation de masse et d'énergie, mais aussi sur des relations  d'équilibre chimique pour lesquelles certains paramètres sont assez  mal connus ce qui justifie pleinement l'approche utilisée. Les  estimations des variables et des paramètres fournissent une image  plus juste de l'état réel du système ce qui en facilite la conduite.  Appliquée au convertisseur à oxygène, cette méthode permet  l'actualisation du modèle de calcul de charge utile au préréglage. De  plus, le suivi de l'évolution de certains paramètres du modèle permet  d'évaluer un niveau de dégradation du système (par exemple,  l'endommagement du réfractaire de la poche)

" Analyses de sensibilité et d’identifiabilité globales. Application à l’estimation des paramètres en thérapie photodynamique "
(Thèse Simon DOBRE)

Résumé :

La thérapie photodynamique (PDT) est un traitement médical destiné en particulier à certains types de cancer. Elle utilise un agent photosensibilisant qui se concentre dans les tissus pathologiques. Cet agent est ensuite activé par une lumière d'une longueur d'onde précise produisant, après une cascade de réactions, des espèces réactives de l'oxygène qui endommagent les cellules cancéreuses. Cette thèse aborde la modélisation mathématique de la phase photocytotoxique du traitement et plus précisément les analyses d’identifiabilité et de sensibilité des paramètres du modèle dynamique non linéaire retenu.

Après avoir précisé différents cadres d’analyse d’identifiabilité, nous nous intéressons plus particulièrement à l’identifiabilité a posteriori, pour des conditions expérimentales fixées, puis à l’identifiabilité pratique qui prend en plus en compte les bruits de mesure. Pour ce dernier cadre, nous proposons une méthodologie d’analyse locale autour de valeurs particulières des paramètres. En ce qui concerne l’identifiabilité des paramètres du modèle dynamique de la phase photocytotoxique de la PDT, nous avons montré que les dix paramètres sont localement identifiables a posteriori mais que seulement l’un d’entre eux l’est en pratique. Néanmoins, ces résultats locaux demeurent insuffisants en raison des larges plages de variation possibles des paramètres du modèle et nécessitent d’être complétés par une analyse globale.

Le manque de méthode visant à tester l’identifiabilité globale a posteriori ou pratique, nous a orientés vers l’analyse de sensibilité globale de la sortie du modèle par rapport à ses paramètres. Une méthode d’analyse de sensibilité globale fondée sur l’étude de la variance a permis de mettre en évidence trois paramètres sensibilisants.

Il nous a alors paru opportun d’examiner les liens entre les analyses globales d’identifiabilité et de sensibilité des paramètres. Nous abordons ce point en employant une décomposition particulière de la variable de sortie du modèle sur une base de fonctions appropriée à cette analyse, appelée décomposition de Sobol’. Nous montrons alors que les liens suivants existent : une fonction de sensibilité totale nulle implique un paramètre non-identifiable; deux fonctions de sensibilité colinéaires impliquent la non-identifiabilité mutuelle des paramètres en question ; la non-injectivité de la sortie par rapport à un de ses paramètres peut aussi entrainer la non-identifiabilité du paramètre en question mais ce dernier point ne peut être détecté en analysant les fonctions de sensibilité uniquement. En somme, la détection des paramètres non globalement identifiables dans un cadre expérimental donné à partir de résultats d’analyse de sensibilité globale ne peut être que partielle. Elle permet d’observer deux (sensibilité nulle ou négligeable et sensibilités corrélées) des trois causes de la non-identifiabilité.

Jury :

Mme. Isabelle Queinnec (LAAS, rapporteur)
M. Claude Moog (IRCCyN, rapporteur)
M. Eric Bullinger (Université de Liège, examinateur)
M. Didier Wolf (INPL, examinateur)
M. Thierry Bastogne (UHP, directeur de thèse)
M. Alain Richard (UHP, co-directeur de thèse)
Mme. Muriel Barberi-Heyob (CAV, invitée)

" Safety and fault-tolerant control systems in nuclear power plants "

Prof. Jin JIANG, The University of Western Ontario, London, Canada - Professeur Invité à l'UHP, Nancy 1 ( http://www.eng.uwo.ca/people/jjiang/website/ts.htm)

Résumé:
In this talk, a brief introduction to control systems in existing nuclear power plants is presented first. The concept of safety and process control systems is clarified. In any safety-critical applications, such as a nuclear power plant, an important role that the safety control system plays is to maintain the safety of entire plant operation in the presence of system failures. A logic way to distinguish a safety-critical application from a non-safety- critical application is by the risks that they could potentially inflict if something has gone wrong during operation. Subsequently, a nature way to measure the effectiveness of a safety control system is in terms of its risk reduction capabilities. To
be an effective safety control system, its reliability has to be sufficiently high; and its availability has to be larger than the meantime to failure of the system components. The design process for safety control systems will be examined in terms of their fault- tolerance architecture and implementation techniques. Some international standards governing safety and fault-tolerant control systems will also be discussed in this talk. Finally, academic research in the area of fault-tolerant control systems is examined in relation to practical applications of safety control systems in safety critical applications.


" Contribution à la détection et à l'analyse des signaux EEG épileptiques : débruitage et séparation de sources "
(thèse Rebeca ROMO VAZQUEZ)

Résumé :

L'objectif principal de cette thèse est le pré-traitement des signaux d'électroencéphalographie (EEG). En particulier, elle vise à développer une méthodologie pour obtenir un EEG dit « propre » à travers l'identification et l'élimination des artéfacts extra-cérébraux (mouvements oculaires, clignements, activité cardiaque et musculaire) et du bruit. Après identification, les artéfacts et le bruit doivent être éliminés avec une perte minimale d'information, car dans le cas d'EEG, il est de grande importance de ne pas perdre d'information potentiellement utile à l'analyse (visuelle ou automatique) et donc au diagnostic médical.

Plusieurs étapes sont nécessaires pour atteindre cet objectif : séparation et identification des sources d'artéfacts, élimination du bruit de mesure et reconstruction de l'EEG « propre ». A travers une approche de type séparation aveugle de sources, la première partie vise donc à séparer les signaux EEG dans des sources informatives cérébrales et des sources d'artéfacts extra-cérébraux à éliminer. Une deuxième partie vise à classifier et éliminer les sources d'artéfacts et elle consiste en une étape de classification supervisée. Le bruit de mesure, quant à lui, il est éliminé par une approche de type débruitage par ondelettes. La mise en place d'une méthodologie intégrant d'une manière optimale ces trois techniques (séparation de sources, classification supervisée et débruitage par ondelettes) constitue l'apport principal de cette thèse.

La méthodologie développée, ainsi que les résultats obtenus sur une base de signaux d'EEG réels (critiques et inter-critiques) importante, sont soumis à une expertise médicale approfondie, qui valide l'approche proposée.

--------------------------

*Membres du Jury :*

*Rapporteurs :*

Sylvie CHARBONNIER (GIPSA-lab, St Martin d'Hères)

Christian VASSEUR LAGIS (Université des Sciences et Technologies de Lille)

*Examinateurs : *

Philippe DERAMBURE (Hôpital Roger Salengro, Lille)

Valérie LOUIS-DORR (CRAN, Nancy)

Didier MAQUIN (CRAN, Nancy)

Radu RANTA (CRAN, Nancy)

Louis MAILLARD (CHU de Nancy)

" Estimation et diagnostic des systèmes non linéaires décrits par des modèles de Takagi-Sugeno "
(Thèse Dalil ICHALAL)

Résumé :

Les modèles de type Takagi-Sugeno (T-S) constituent des outils privilégiés de représentation des systèmes non linéaires. La forme particulière de ces modèles, i.e. des modèles linéaires interconnectés par des fonctions non linéaires, permet d'exploiter les outils et méthodes mis au point dans le contexte des systèmes linéaires. En particulier, il est possible de construire des observateurs dont la structure est calquée sur celle des modèles. Le gain de ces observateurs est souvent calculé en résolvant des jeux d'inégalités matricielles issus de l'analyse de stabilité s'appuyant sur la seconde méthode de Lyapunov. Selon la modélisation utilisée, les fonctions non linéaires d'interpolation dépendent de variables de décision mesurables ou non mesurables.

Les travaux présentés dans cette thèse traitent le problème de l'estimation d'état des systèmes non linéaires décrits par des modèles de Takagi-Sugeno à variables de décision non mesurables (plus particulièrement l'état du système). Cette structure offre la possibilité d'obtenir une représentation exacte d'un modèle non linéaire en utilisant la transformation par secteurs non linéaires.

Après une brève introduction du problème d'estimation d'état des systèmes non linéaires et de la représentation T-S à variables de décision non mesurables, de nombreuses approches sont proposées pour la conception d'observateurs. Celles-ci sont classées en deux catégories selon les hypothèses de travail : observateurs lipschitziens et observateurs L2. Une extension de ces travaux est ensuite effectuée pour des systèmes affectés par des entrées inconnues.

Les observateurs développés sont ensuite utilisés à des fins de diagnostic. Trois approches sont proposées. La première utilise des observateurs à entrées inconnues afin de découpler l'effet de certaines grandeurs et permettre la détection et la localisation de défauts en exploitant un banc d'observateurs. La seconde approche repose sur l'estimation des défauts en utilisant des observateurs proportionnel-intégral (PI) et proportionnel-multi-intégral (PMI). Enfin, la troisième approche est basée sur le formalisme H_inf développé dans le cas des systèmes linéaires. Cette dernière approche consiste à générer des résidus sensibles aux défauts et insensibles aux perturbations. L'introduction d'un filtre linéaire dans le problème de diagnostic H_inf permet de transformer un problème d'optimisation min/max en un simple problème de minimisation. Ce filtre permet également de modeler la réponse aux défauts du générateur de résidus conduisant ainsi à la détection, l'isolation et l'estimation des défauts.

Enfin, une commande tolérante aux défauts est élaborée. Elle consiste à ajouter à la loi de commande, un terme dépendant des estimés de l'état et des défauts afin de suivre une trajectoire de référence représentant le comportement normal du système. L'estimation de l'état et des défauts est obtenue grâce à un observateur PI ou PMI.

--------
Mots clés :
Systèmes non linéaires, modèle de Takagi-Sugeno, estimation d'état, entrées inconnues, observateur, diagnostic, commande tolérante aux défauts

--------
Membres du Jury :

Rapporteurs :

Didier Georges, Professeur à INP-Grenoble Thierry-Marie Guerra, Professeur à l'Université de Valenciennes et du Hainaut Cambrésis

Examinateurs :

Mustapha Ouladsine, Professeur à l'Université d'Aix Marseille 3
Jean Pierre Barbot, Professeur à l'ENSEA
Didier Maquin, Professeur à l'INPL (directeur de thèse)
José Ragot, Professeur à l'INPL (co-directeur de thèse)
Benoît Marx, Maître de conférences à l'INPL (co-encadrant de thèse)

" Spectroscopie optique multi-modalités in vivo : instrumentation, extraction et classification diagnostique de tissus sains et hyperplasiques cutanés "
(Thèse Gilberto DIAZ-AYIL)

Résumé :

Les cancers cutanés font partie des cancers humains les plus fréquents et ce phénomène est en constante progression. Le diagnostic précoce et la caractérisation des stades précancéreux in vivo constituent donc un enjeu important. Dans ce cadre applicatif, nos travaux concernent le développement de méthodes optiques non invasives pour le diagnostic en  cancérologie. Notre approche multi-modalité en spectroscopie fibrée résolue spatialement vise à coupler des mesures d'AutoFluorescence (AF) et de diffusion multiple des photons dans les tissus qui portent des informations liées respectivement à l'activité biochimique et à la structure de ces derniers. Le travail est composé de trois parties principales : la construction et implémentation de l'instrumentation, le protocole expérimental et le traitement des données.

La première partie de nos travaux a consisté à développer une nouvelle instrumentation de spectroscopie bimodale fibrée résolue spatialement. 
Le bloc source de ce dispositif permet le réglage dynamique du pic central de la longueur d'onde d'excitation de fluorescence (350 < ? <  460 nm) et de la largeur de bande (entre 15 et 25 nm de largeur à mi-hauteur). Pour la diffusion élastique, les bandes spectrales s'étendent de 350 à 800 nm. La collecte des spectres tissulaires rétrodiffusés est réalisée au moyen d'une sonde à 37 fibres optiques  et d'un spectrographe imageant multivoies, muni d'un capteur CCD (Symphony 2048 x 512). Une interface dédiée à notre application a été développée en Visual C++.
Notre protocole d'étude expérimental a porté sur les stades précoces de cancers cutanés sur un modèle pré-clinique. Des états hyperplasiques et dysplasiques ont été obtenues par irradiation UV  chronique de souris de race SKH1 (albinos et sans poils). Pour la spectroscopie d'AF, 7 longueurs d'onde d'excitations ont été utilisées : 360, 368, 390, 400, 410, 420 et 430 nm. La spectroscopie de RD a été réalisée sur la bande spectrale 390-720 nm. En termes de résolution spatiale, 6 distances entre la fibre d'excitation et les fibres de réception ont été utilisées : deux à 271 µm et les autres à 536, 834,  1076, 1341 µm.
A partir des analyses histopathologiques, 4 classes (états) de référence de tissus cutanés ont été définies : Tissus Sain (S), Hyperplasie Compensatoire (HC), Hyperplasie Atypique (HA) et Dysplasie (D), menant à 6 combinaisons de paires histologiques à discriminer. D'abord un prétraitement des spectres bruts acquis (suppression des artefacts, moyennage, filtrage, etc.) a été réalisé. Suite à  l'extraction/sélection/réduction des caractéristiques spectroscopiques les plus discriminantes, plusieurs algorithmes de classification ont  été implémentés et leur performance comparées : k-plus proche voisins (k-NN), analyse discriminante linéaire (LDA) et support vector machine (SVM). Egalement les contributions de différentes modalités ont été comparées : mono-excitation d'AF, matrices d'excitation-émission en AF (EEMs), réflectance diffuse (RD), couplage EEMs – RD et couplage EEMs – RD résolue spatialement.
L'efficacité finale de notre méthode diagnostique a été évaluée en termes de sensibilité (Se) et de spécificité (Sp). Les meilleures résultats obtenus sont : Se et Sp ˜ 100% pour discriminer CH vs autres ; Sp ˜ 100%  et Se > 95% pour discriminer S vs AH ou D ; Sp ˜ 74% et Se ˜ 63% pour discriminer AH vs D.

Jury :

Prof. Anne HUMEAU (Université d'Angers, Rapporteur)
Prof. Pierre GOUTON (Université de Bourgogne, Rapporteur)
HDR Geneviève BOURG-HECKLY (Université Pierre et Marie Curie, Examinateur)
Prof. François GUILLEMIN (Université Henri Poincaré, Examinateur)
Prof. Yves GRANJON (Institut National Polytechnique de Lorraine, Directeur de thèse)
HDR Walter BLONDEL (Université Henri Poincaré, Co-Directeur de thèse)

" Approche basée sur les ontologies pour l'interopérabilité centrée sur le produit des systèmes d'entreprise de production "
(Thèse Angela TURSI)

Depuis quelques années, l'interopérabilité des applications est devenue le leitmotiv des développeurs et concepteurs en ingénierie système. Cette importance a donné lieu à d'innombrables travaux de recherche avec chacun une définition particulière plus au moins formelle de l'interopérabilité entre applications. La plupart des approches pour l'interopérabilité existant dans l'entreprise ont pour objectif principal l'ajustement et l'adaptation des types et structures de données nécessaire à la mise en œuvre de collaboration entre entreprises. Dans le domaine des entreprises manufacturières, le produit est une composante centrale. Des travaux scientifiques proposent des solutions pour la prise en compte des systèmes d'information issus des produits, tout au long de leur cycle de vie. Mais ces informations sont souvent non corrélées. La gestion des données de produit (PDM) est couramment mise en œuvre pour gérer toute l'information relative aux produits durant tout leur cycle de vie. La modélisation des processus de fabrication et de gestion est largement répandue et appliquée tant aux produits physiques qu'aux services. Cependant, ces modèles sont généralement des "îlots" indépendants ne tenant pas compte de la problématique d'interopérabilité des applications supportant ces modèles. L'objectif de cette thèse est d'étudier cette problématique d'interopérabilité appliquée aux applications utilisées dans l'entreprise manufacturière et de définir un modèle ontologique de la connaissance des entreprises relatives aux produits qu'elles fabriquent, sur la base des données techniques de produits, pour assurer l'interopérabilité des systèmes d'entreprise supports, basés sur un échange d'information centrée sur le produit. Le résultat attendu de ce travail de recherche concerne la formalisation d'une méthodologie d'identification des informations de gestion techniques des produits, sous la forme d'une ontologie, pour l'interopérabilité des applications d'entreprises manufacturières, sur la base des standards existants tels que l'ISO 10303 et l'IEC 62264.

 

" Théorie du contrôle et systèmes hybrides dans un contexte cryptographique "
(Thèse Phuoc VO TAN)

Résumé :

La thèse traite de l'utilisation des systèmes hybrides dans le contexte particulier des communications sécurisées et de la cryptographie. Ce travail est motivé par les faits suivants. L'essor considérable des communications qui a marqué ces dernières décennies nécessite des besoins croissants en terme de sécurité des échanges et de protection de l'information. Dans ce contexte, la cryptographie joue un rôle central puisque les informations transitent la plupart du temps au travers de canaux publics. Parmi les nombreuses techniques de chiffrement existants,le chiffrement par flot se distingue tout particulièrement lorsqu'on le débit d'une communication sécurisée est privilégié. Les chiffreurs par flot sont construits à partir de générateurs de séquences complexes décrits par des systèmes dynamiques et devant être synchronisés de part et d'autre du canal d'échanges. Les objectifs et les résultats de ce travail se déclinent en trois points. Tout d'abord, l'intérêt d'utiliser des systèmes hybrides en tant que primitives cryptographiques est motivé. Par la suite, une étude comparative est menée afin d'établir une connexion entre les algorithmes de masquage de l'information basés sur le chaos et les algorithmes de chiffrement usuels. L'étude porte exclusivement sur des considérations structurelles et repose sur des concepts de la théorie du contrôle, en particulier l'inversibilité à gauche et la platitude. On montre que la technique de masquage dite par inclusion, qui consiste à injecter l'information à protéger dans une dynamique complexe, est la plus efficace. De plus, on montre que sous la condition de platitude, un système de masquage par inclusion est structurellement équivalent à un chiffreur par flot particulier appelé auto-synchronisant. Enfin, des méthodes de cryptanalyse pour évaluer la sécurité du masquage par inclusion sont proposées pour une classe particulières de systèmes hybrides à savoir les systèmes linéaires à commutations. A nouveau, des concepts de la théorie du contrôle sont utilisés, il s'agit de l'identifiabilité paramétrique et des algorithmes d'identification. Des spécificités relatives au contexte particulier de la cryptographie sont prises en compte. En effet, contrairement à la plupart des cas rencontrés dans le domaine du contrôle où les variables des modèles dynamiques sont continues car relatives à des systèmes physiques, les variables prennent ici des valeurs discrètes. Les modèles dynamiques sont en effet décrits non plus dans le corps des réels mais dans des corps finis en vue d'une implémentation sur des machines à états finis tels ordinateur ou tout autre dispositif numérique.

Mots clés : systèmes hybrides, dynamiques complexes, synchronisation, chiffrement, cryptanalyse.

Composition du jury:

Rapporteurs :      Nacim RAMDANI Maître de Conférences HDR, LIRMM Université Montpellier 2, Montpellier
                         Krishna BUSAWON Professeur, NCRLab Northumbria University, Royaume-Uni

Examinateurs :   Mohammed MSAAD Professeur, GREYC Ensicaen, Caen
                         Philippe GUILLOT Maître de Conférences, LAGA Université Paris 8, Paris

Directeur de thèse : Gilles MILLERIOUX Professeur, CRAN Université Henri Poincaré - Nancy 1, Nancy

Co-directeur de thèse :  Jamal DAAFOUZ Professeur, CRAN Institut National Polytechnique de Lorraine, Nancy

"Sur les systèmes à commutation à deux échelles de temps: Une application au contrôle de guidage de bande dans un laminoir à chaud "
(Thèse Ivan MALLOCCI)

Résumé :

Dans cette thèse, on s'est attaché à résoudre un certain nombre de problèmes qui apparaissent lorsqu'on traite des problèmes concrets de contrôle: hénomènes à plusieurs échelles de temps, discontinuités de la commande lors du asculement d'un correcteur à un autre, nécessité de concevoir un nombre limité de correcteurs différents malgré une gamme très importante des produits traités.
Pour illustrer concrètement les résultats obtenus, nous nous sommes appuyés sur un exemple industriel concret, le contrôle de guidage de bande durant le processus de laminage dans un laminoir à chaud. D'abord, nous proposons une solution convexe au problème de commande optimale linéaire quadratique pour les systèmes linéaires à deux échelles de temps en temps discret. Ensuite, nous établissons des conditions suffisantes, formulées sous la forme d'inégalités matricielles linéaires, qui permettent de vérifier la stabilité d'un système à commutation à deux échelles de temps et de synthétiser des correcteurs stabilisants. Nous proposons aussi dans ce travail une méthode pour minimiser les discontinuités sur la commande dans le cadre des systèmes à commutation. Dans le contexte du contrôle de guidage de bande pour un laminoir à chaud, nous ne pouvons pas négliger l'influence des paramètres incertains, qui sont dus principalement au fait que ce genre de système traite une gamme de produits très large. Donc, dans la synthèse du correcteur, nous prenons en compte ces variations en divisant l'ensemble des produits en plusieurs familles et en synthétisant un correcteur différent pour chaque famille.

Jury :

Prof. Germain Garcia    (LAAS-CNRS, Toulouse, Rapporteur)
Prof. Jean Lévine       (Ecole de Mines de Paris, Rapporteur)
Prof. Alessandro Giua   (Università di Cagliari (Italia), Examinateur)
Ing.  Christian Moretto (ArcelorMittal R&D, Maizières-lès-Metz, Examinateur)
Prof. Jamal Daafouz     (ENSEM-INPL, Nancy Univeristé, Directeur de thèse)
Prof. Claude Iung       (ENSEM-INPL, Nancy Univeristé, Co-Directeur de thèse)

" Étude des propriétés structurelles d'observabilité et de diagnosticabilité des systèmes bilinéaires par approche graphique "
(Thèse Sébastien CANITROT)

Résumé :

L'automatique, partie intégrante des sciences de l'ingénieur, est une discipline qui traite entre autres de la commande et du diagnostic des systèmes industriels dans l'objectif de rendre ces derniers  quasiment ou totalement autonomes. Ce souhait d'autonomie fait qu'un système automatisé se doit d'être, dans la mesure du possible, sûr, fiable et performant. Une première étape à l'obtention de schémas de commande et de diagnostic est d'analyser aussi finement que possible les propriétés du système considéré afin de mieux en connaître ses limites et ses capacités. Les principales propriétés analysées sont la commandabilité, l'observabilité, la diagnosticabilité, la stabilité… Des critères, souvent basés sur des approches algébriques ou géométriques, permettent de caractériser ces propriétés.
En outre, des travaux publiés dans les années 1970 ont permis d'introduire une nouvelle représentation de systèmes à base de graphes orientés. Les résultats alors énoncés, fondés sur l'existence de chemins et de cycles dans ces graphes, ont montré l'intérêt que pouvait avoir une telle approche en termes de complexité algorithmique et d'interprétation des résultats. De ces travaux, il résulte que l'approche graphique fournit des solutions simples et est ainsi très bien adaptée pour analyser des systèmes de grande dimension et/ou incertains. Malheureusement, peu de travaux basés sur des méthodes graphiques traitent des systèmes non linéaires.
Par notre travail, nous avons souhaité combler ce manque en étudiant les propriétés d'observabilité et de diagnosticabilité des systèmes bilinéaires structurés à l'aide d'une approche graphique.
Dans la première partie de notre étude, nous avons tout d'abord analysé la propriété d'observabilité totale. Plus précisément, des conditions graphiques nécessaires et suffisantes d'observabilité totale de l'état d'un système sont formulées. Par la suite, et dans le cas où ces précédentes conditions ne sont pas vérifiées, le problème de placement de capteurs est abordé afin de recouvrer les propriétés d'observabilité totale.
La seconde partie de notre travail a consisté à étudier le problème d'observabilité partielle. Cette étude est intéressante à mener dès lors qu'un système n'est pas entièrement observable ou simplement  lorsque l'observation de l'ensemble de l'état n'est pas nécessaire. Comme pour la partie précédente, une étude de placement de capteurs est réalisée afin de recouvrer les conditions d'observabilité d'une  partie donnée de l'état d'un système.
Enfin, nous nous sommes focalisés sur la propriété de diagnosticabilité d'un système bilinéaire structuré. Après avoir donné une condition graphique nécessaire et suffisante de solubilité du problème de détection de défauts, nous avons étudié l'influence de la commande sur ce dernier. En effet, contrairement aux systèmes linéaires, dans le cas d'un système bilinéaire, la commande joue un rôle important dans la détection de défauts. Nous avons alors étudié différents cas particuliers de commande afin de donner des conditions de solubilité au problème de détection et de localisation de défauts.

Jury :

M. Guy Bornard (INPG, rapporteur)
M. Vincent Cocquempot (Ecole Centrale Lille, rapporteur)
M. Mustapha Ouladsine (Université Aix-Marseille, examinateur)
M. Gilles Millerioux (UHP, examinateur)
M. Frédéric Hamelin (UHP, directeur de thèse)
M. Taha Boukhobza (UHP, encadrant de thèse)

"Localisation des ganglions sentinelles au moyen de quantum dots. Application au cancer du sein "
(Thèse Emilie PIC)

Résumé :

Titre  : Localisation des ganglions sentinelles au moyen de quantum dots. Application au cancer du sein

 

Le statut ganglionnaire a la valeur pronostique la plus importante chez les patientes atteintes d'un cancer du sein, le taux de survie étant corrélé au nombre de ganglions envahis . Dans le traitement des cancers du sein opérables d'une taille inférieure à 3 cm, la technique du ganglion sentinelle (GS) remplace le curage ganglionnaire de stadification. Toutefois, cette technique nécessite l'emploi simultané de radioisotopes et de colorants physiologiques présentant divers effets secondaires. Ainsi, notre stratégie a été de tester, sur modèle pré-clinique de nouveaux traceurs fluorescents, les Quantum Dots (QDs), pour la technique du GS.

Une étude sur la détection in vivo du ganglion axillaire (GA) par spectrofluorimétrie fibrée après injection sous-cutanée (s.c.) de QDs émettant dans le rouge a été réalisée et leur quantification ex vivo a été effectuée par spectrofluorimétrie jusqu'à 24 h. Ce travail a montré l'accumulation rapide et sélective des QDs dans le GA chez la souris. Une étude sur la localisation in vivo de 2 ganglions régionaux par imagerie de fluorescence a été réalisée suite à l'administration s.c. de QDs émettant dans le proche infrarouge (PIR) ainsi qu'une étude de biodistribution ex vivo par spectrométrie de masse (ICP-MS). Les résultats obtenus ont montré que l'imagerie de fluorescence pouvait être utilisée après injection de QDs pour localiser et suivre leur accumulation dans les ganglions superficiels chez la souris saine. Pour se rapprocher de la clinique, le repérage in vivo du GS axillaire a été investi sur modèle tumoral murin de cancer du sein par imagerie de fluorescence après administration s.c. de QDs émettant dans le PIR. Deux techniques de détection des métastases ganglionnaires ont été utilisées puis comparées : l'histologie conventionnelle et la RT-PCR. Tous les GS axillaires ont été détectés in vivo par imagerie, sauf un GS qui était complètement envahi par les cellules tumorales et la meilleure incidence de métastases ganglionnaire a été observée avec la RT-PCR.

Ainsi, les QDs pourraient être utilisés comme substitut des marqueurs actuellement employés dans la technique du GS pour les cancers du sein.

 

Mots clés : cancer du sein, ganglion sentinelle, quantum dot, imagerie de fluorescence, proche infrarouge

 

Composition jury :

Rapporteurs :

Jean-Marc CLASSE Professeur, Nantes

Frédéric DUCONGE Chercheur CEA (HdR), Orsay

Examinateurs :

François GUILLEMIN Professeur, Nancy Directeur de thèse

Frédéric MARCHAL Professeur, Nancy

Pierre OLIVIER Professeur, Nancy

Benoît DUBERTRET Chargé de Recherche CNRS (HdR), Paris

Invité :

Jacques DIDELON Ingénieur INSERM, Nancy

" Contribution à la prise de décision dynamique en maintenance prévisionnelle par formalisation d'un principe d'opportunité "
(Thèse Edouard THOMAS)

RÉSUMÉ : Les besoins essentiels de produire « plus », « mieux » et « moins  cher» s'inscrivent aujourd'hui dans une crise financière qui conduit les entreprises industrielles à faire face à des enjeux économiques liés aux impératifs de gains de productivité, mais aussi à des enjeux sociaux liés aux impératifs de sécurité des hommes et des matériels, aux exigences de protection de l'environnement et de réduction des nuisances. Ces enjeux se déclinent au niveau des équipements par le concept de maintien en condition opérationnelle (MCO). La maintenance en est l'élément principal, et l'un des principaux leviers d'action sur la performance globale des systèmes de production lorsqu'elle est couplée à un processus de pronostic. On parle alors de stratégies de maintenance prévisionnelles. Ces nouvelles formes de maintenance posent de nombreux défis scientifiques et industriels, dont certains sont étudiés dans les présents travaux :
Quel est le « meilleur » instant pour réaliser une intervention de maintenance préventive donnée ? Comment regrouper deux actions de maintenance préventive ? Qu'est-ce qu'une opportunité pour la maintenance ?
Les réponses à ces questions mobilisent des outils mathématiques variés, allant de l'algorithme de Bruss en analyse stochastique aux relations d'équivalence en algèbre. Enfin, une application industrielle sur la plateforme TELMA est présentée.

Mots clés : Maintenance prévisionnelle ; Maintenance opportuniste ; Aide à la décision de maintenance ; Synchronisation maintenance-production ; Algorithme de Bruss ; Relations d'équivalence

Le jury est composé de :

Rapporteurs :
M. Pierre DEHOMBREUX, professeur à la Faculté polytechnique de Mons (Belgique)
M. Antoine GRALL, professeur à l'Université de technologies de Troyes

Examinateurs :
M. Basim AL-NAJJAR, professeur à l'Université de Växjö (Suède)
M. Thomas BRUSS, professeur à l'Université libre de Bruxelles (Belgique)
M. Thierry DIVOUX, professeur à l'Université Henri Poincaré de Nancy
M. Benoît IUNG, professeur à l'Université Henri Poincaré de Nancy
M. Éric LEVRAT, maître de conférence à l'Université Henri Poincaré de Nancy

" Propriétés photophysiques et photobiologiques des formes liposomales de la mTHPC "
(Thèse Dzmitry KACHATKOU)

Résumé :

Pour améliorer les paramètres pharmacologiques d'un photosensibilisateur de seconde génération, la méta-tétra(hydroxyphényl)chlorine (mTHPC), plusieurs formules liposomales commerciales ont été élaborées, parmi elles le Foslip, qui correspond à la mTHPC dans des liposomes conventionnels. L'objectif de ce travail est d'étudier les caractéristiques photophysiques et photobiologiques du Foslip.
L'exposition des suspensions de Foslip à de petites doses de lumière (10 mJ) a conduit à une baisse significative de la fluorescence, qui a cependant été restaurée après destruction des liposomes. Nous attribuons cette caractéristique au quenching de fluorescence photoinduite. Cet effet a été mis en évidence uniquement pour les concentrations locales élevées de mTHPC dans des bicouches lipidiques. Les résultats ont été interprétés en supposant une migration d'énergie entre les molécules rapprochées de mTHPC avec sa dissipation consécutive par les molécules du photoproduit se comportant comme des pièges d'énergie. Le quenching de fluorescence photoinduite ainsi que les techniques de polarisation et de chromatographie liquide ont été appliquées successivement pour estimer le taux de redistribution des molécules de mTHPC des liposomes vers les protéines du plasma et les membranes lipidiques. Les processus de redistribution de la mTHPC après injection intratumorale de mTHPC dans un modèle de récidive de cancer du sein sont en corrélation avec les résultats obtenus dans une étude in vitro de la redistribution du Foslip dans les liposomes DPPC. Il a été démontré que le phénomène de quenching de fluorescence photoinduite doit être pris en compte lors de l'utilisation de techniques optiques pour l'étude des applications in vivo et in vitro des formulations liposomales de mTHPC.

Composition du jury :

Rapporteurs :
Dr Patricia Vicendo (IMRCP, Toulouse)
Pr Herbert Schneckenburger (Fachhochschule, Aalen)
Jury:
Dr Lina Bezdetnaya-Bolotine (CAV CRAN UMR CNRS 7039)
Pr François Guillemin (CAV CRAN UMR CRNS 7039)
Pr Vladimir ZORIN, Minsk, Biélorusse (BSU, Minsk)
Pr Serguei MELNOV, Minsk, Biélorussie (BSU, Minsk)

" Optimisation des architectures IP/MPLS de transport mutualisé "
(Thèse Olivier FERVEUR)


Résumé :
Avec l'accélération de l'utilisation d'Internet, on assiste à la convergence des secteurs de la téléphonie fixe et mobile, des données et du monde audiovisuel. Les réseaux supportant ces différents services sont historiquement séparés et leurs interactions ne sont possibles que par l'intermédiaire de passerelles centrales. Cependant, la mutualisation en cours des infrastructures physiques maintient une séparation entre les différents protocoles. Ce nouveau modèle engendre une complexi?cation de la gestion des coeurs de réseaux. En effet, ceux-ci restent soumis à des contraintes contradictoires de disponibilité, de qualité ou de flexibilité. La problématique pour les opérateurs réside alors dans l'optimisation de leurs architectures de cœur de réseau. Ce problème peut être traité d'une part avec une gestion des topologies et d'autre part avec une gestion protocolaire spécifique aux divers besoins. Les travaux de recherche actuels se focalisant sur l'étude de la topologie tendent à améliorer la disponibilité, à contrario les études protocolaires sont axées sur la gestion de la qualité de service. Cependant, ces deux approches ne prennent pas complètement en considération la flexibilité, eu égard à la diversité des flux transportés (Audio/visuel, Internet, Téléphonie, Données privées). Notre travail de thèse porte sur l'étude des réseaux de transport mutualisés. Nous avons proposé de réconcilier ces deux approches contradictoires en recherchant de nouvelles méthodes de régulation protocolaires permettant l'amélioration de la flexibilité du réseau. Après une  étude de la problématique de gestion de la bande passante et un état de l'art des approches existantes, nous avons développé une propre approche originale appelé TDCN (Tunneling Differentiation on Congestion Notification). La validation de cette proposition a été réalisée par le biais d'une modélisation et d'une maquette.

Mots Clefs :  TDCN, MPLS, Provisioning réseau, Réseau de coeur

Composition du jury :
Rapporteurs :         
Pr. Didier Georges  Professeur, Institut National Polytechnique de Grenoble (INPG)
Pr. Zoubir Mammerri Professeur, Institut de Recherche en Informatique de Toulouse (IRIT)
Examinateurs :
Pr. Hugues Mounier Professeur, Institut d'Electronique Fontamentale (IEF, Paris Sud XI )
Pr. Francis Lepage Professeur, UHP Nancy I (Directeur de thèse)
Dr. Eric Gnadinger Maître de Conférence, ESSTIN-UHP Nancy I (Codirecteur de thèse)
Mr. René Kopp Responsable du département Architectures (TDF)
Pr. Gilles Millerioux Professeur, ESSTIN-UHP Nancy I

" Transmission d'images sur les réseaux de capteurs sans fil sous la contrainte de l'énergie"
(Thèse Cristian Duran-Faundez)

Résumé :

Parmi les nombreuses applications potentielles des réseaux de capteurs sans fil, celles utilisant des capteurs d'image sont appréciables pour tout ce qui concerne la détection, la reconnaissance et la localisation d'objets par la vision. Des capteurs de petite taille, peu gourmands en énergie et dotés d'une caméra existent déjà au stade de prototype, mais des algorithmes de traitement et de compression de données, ainsi que des protocoles de communication de faible complexité et peu coûteux en énergie doivent être développés pour que ces applications puissent être envisagées en pratique.

La contribution de cette thèse porte principalement sur deux aspects.
Premièrement, nous avons proposé un protocole de transmission d'images semi-fiable pour réduire la consommation d'énergie des noeuds relayant les paquets jusqu'au collecteur. Les économies d'énergie sont obtenues en préparant à la source des paquets de différences priorités, grâce à une transformée en ondelettes de l'image, puis en conditionnant l'acheminement des paquets, saut par saut, suivant leur priorité et l'état de charge des batteries. Deuxièmement, nous avons étudié plus profondément les aspects de traitement et codage d'images à la source, et nous avons proposé un nouvel algorithme de compression d'images de faible complexité, combiné avec une technique d'entrelacement de pixels basée sur les automorphismes toriques. Des expérimentations sur une plate-forme réelle de réseau  de capteurs d'images ont été réalisées afin de démontrer la validité de nos propositions, en mesurant des aspects telles que la quantité de mémoire requise pour l'implantation logicielle de nos algorithmes, leur consommation d'énergie et leur temps d'exécution, ainsi que la qualité des images reconstituées au récepteur en présence de pertes de paquets.

Mots clefs : Réseaux de capteurs sans fil, communication d'images, conservation de l'énergie.

Composition du jury :

Rapporteurs  :
Mme. Christine Fernandez-Maloigne  Professeur, Université ´de Poitiers - Xlim-SIC
M. David Simplot-Ryl  Professeur, Université Lille 1 - INRIA Futurs

Examinateurs :
M. Christophe Chassot Professeur, INSA de Toulouse - LAAS
M. Jean-Marie Moureaux Professeur, UHP Nancy 1 - CRAN
M. Francis Lepage Professeur, UHP Nancy 1 - CRAN (Dir. thèse)
M. Vincent Lecuire Maître de conférences, UHP Nancy 1 - CRAN (Co-Dir. thèse)

" Contribution à la formalisation unifiée des connaissances fonctionnelles et organisationnelles d'un système industriel en vue d'une évaluation quantitative des risques et de l'impact des barrières envisagées"
(Thèse Aurélie LEGER)

Résumé :

Depuis la révolution industrielle, l'Homme développe des systèmes industriels pour satisfaire ses exigences de production. Mais l'exploitation de telles installations n'est pas sans risques pour ses utilisateurs et son environnement. L'analyse de ces risques s'est par ailleurs considérablement développée durant ces dernières décennies. En effet, si dans les années 1970, les études étaient focalisées sur les défaillances technologiques, différents accidents majeurs ont mis en évidence l'importance du facteur humain et des dysfonctionnements organisationnels dans leur occurrence. Si bien qu'à partir des années 1980, différentes méthodes consacrées à l'identification de ces facteurs ont émergées. La prise en compte de ces ressources dans les analyses de risques semble aujourd'hui incontournable pour les installations classées. Ces études, impliquant des disciplines différentes, étaient jusqu'alors conçues et conduites indépendamment les unes des autres. Cet état de fait amène à une sectorisation des analyses et ne permet pas d'avoir une vision globale de la situation étudiée. Ce n'est que récemment qu'ont émergées des méthodologies proposant une intégration de ces dimensions dans la démarche d'analyse de risques. Cependant les travaux existants sont pour la plupart partiels et spécifiques à un domaine d'activité. Le manque d'intégration dans la démarche d'analyse constitue aujourd'hui une problématique, à la fois scientifique et industrielle, pour les exploitants de systèmes critiques. Ainsi, notre contribution porte sur le développement d'une méthodologie permettant l'analyse de risques de systèmes socio-techniques en exploitation. Ce type d'analyse a comme objectif de probabiliser le risque étudié à des fins d'aide à la décision. C'est pourquoi, nous proposons une démarche de formalisation, d'intégration et de représentation des connaissances fonctionnelles, dysfonctionnelles, comportementales et organisationnelles du système. La démarche de modélisation s'appuie sur le formalisme des réseaux bayésiens qui permet de combiner des données quantifiées et qualifiées dans un même modèle.
Il devient alors possible d'identifier, pour un scénario d'accident donné, l'ensemble des causes menant à son occurrence, en considérant à la fois les données techniques du système mais également les données liées aux opérateurs et à l'organisation.

Jury :

M. Patrick Millot (LAMIH, rapporteur)
M. Daniel Noyes (ENIT, rapporteur)

M. Enrico Zio (Politecnico di Milano, examinateur)

M. Benoît Iung (CRAN, directeur de thèse)

M. Eric Levrat (CRAN, co-encadrant)
M. Philippe Weber (CRAN, co-encadrant)

Mme Carole Duval (EDF R&D, co-encadrante)

M. Regis Farret (INERIS, co-encadrant)

" Corrélation entre les performances physiques mesurées des détecteurs et la qualité diagnostique de l'image en mammographie numérique "
(Thèse Hector PEREZ-PONCE )

Résumé :

En mammographie numérique, il existe deux approches pour évaluer la qualité de l'image. Dans la première approche, une méthode visuelle basée sur un observateur humain permet la détectabilité des lésions en radiographie mammographique. Malheureusement, cette approche de qualité nécessite d'importantes ressources humaines et du temps lors de son implémentation, et elle est affectée par la variabilité inter-évaluateurs. Dans une deuxième approche, des paramètres objectifs et indépendants de l'observateur humain, présentant une relation avec la résolution et le contraste de l'image (MTF et NPS), sont utilisés pour une évaluation de la performance des détecteurs. Cependant, il n'existe pas de relation directe entre ces paramètres et la détectabilité des lésions. Une méthode permettant d'avoir une approche de la qualité de l'image, à la fois  indépendante de facteurs humains et présentant  une relation directe avec la détectabilité des lésions, permettrait d'utiliser l'équipement mammographique de manière optimale. Ce travail de thèse présente le développement d'une telle méthode, consistant à générer par ordinateur des images virtuelles à partir d'un modèle « Source à rayons X/Détecteur numérique », qui prend en compte les valeurs mesurées de la MTF et du NPS des équipements mammographiques en conditions cliniques d'utilisation. De par les résultats obtenus dans notre travail, nous avons contribué à établir le lien entre les caractéristiques physiques des détecteurs et la qualité clinique de l'image dans les conditions habituelles d'exposition. De plus, nous suggérons que notre modèle de création d'images virtuelles puisse être utilisé pour déterminer rapidement les conditions optimales en mammographie. Il s'agit, en effet, d'un aspect essentiel à considérer pour la radioprotection des patientes, particulièrement dans le cadre du dépistage de masse organisé, et qui est habituellement un processus expérimental long et fastidieux à mettre en œuvre.

Mots-clés : mammographie numérique, qualité de l'image, performances physiques des détecteurs

Membres du jury:

Pr. Alain BLUM                                                  CHU, Nancy                                                        Invité

Pr. Hilde BOSMANN                                        Leuven, (Be)                                                      Membre             

Dr. Christian DAUL                                           INPL-CRAN, Nancy                                          Co-directeur de thèse

Pr. François GUILLEMIN                                CAV, Nancy                                                        Invité                   

Dr. Serge MULLER                                            GEMS, Paris                                                        Rapporteur

Dr. Alain NOEL                                                   CAV, Nancy                                                        Directeur de thèse

Dr. Joseph  STINES                                           CAV, Nancy                                                        Invité

Dr. Francis VERDUN                                        IURA, Lausanne (Ch)                                      Rapporteur

Pr. Didier WOLF                                                INPL-CRAN, Nancy                                          Membre.

 

" Evaluation par simulation de la Sûreté de Fonctionnement de systèmes en contexte dynamique hybride "
(Thèse Gabriel Antonio PEREZ CASTANEDA )

 

Résumé :

La recherche de solutions analytiques pour l'évaluation de la fiabilité en contexte dynamique n'est pas résolue dans le cas général. Un état de l'art présenté dans le chapitre 1 montre que des approches partielles relatives à des hypothèses particulières existent. La simulation de Monte Carlo serait le seul recours, mais il n'existait pas d'outils performants permettant la simulation simultanée de l'évolution discrète du système et de son évolution continue prenant en compte les aspects probabilistes. Dans ce contexte, dans le chapitre 2, nous introduisons le concept d'automate stochastique hybride capable de prendre en compte tous les problèmes posés par la fiabilité dynamique et d'accéder à l'évaluation des grandeurs de la sûreté de fonctionnement par une simulation de Monte Carlo implémentée dans l'environnement Scilab-Scicos. Dans le chapitre 3, nous montrons l'efficacité de notre approche de simulation pour l'évaluation de la sûreté de fonctionnement en contexte dynamique sur deux cas test dont un est un benchmark de la communauté de la Sûreté de Fonctionnement. Notre approche permet de répondre aux problèmes posés, notamment celui de la prise en compte de l'influence de l'état discret, de l'état continu et de leur interaction dans l'évaluation probabiliste des performances d'un système dans lequel en outre, les caractéristiques fiabilistes des composants dépendent eux-mêmes des états continu et discret. Dans le chapitre 4, nous donnons une idée de l'intérêt du contrôle par supervision comme moyen de la sûreté de fonctionnement. Les concepts d'automate observateur et de contrôleur ont été introduits et illustrés sur notre cas test afin de montrer leur potentialité.

 

Composition du jury

Rapporteurs : Christophe Bérenguer Professeur à l'Université Technologie de Troyes

Dimitri Lefebvre Professeur à l'Université du Havre

Examinateurs : Ramine Nikoukhah Directeur de Recherches à l'INRIA

Yves Dutuit Professeur Emérite à l'Université de Bordeaux

Jean-François Aubry Professeur à l'INPL

Nicolae Brinzei Maître de Conférences à l'INPL

" Proposition d'un cadre de modélisation multi-échelles d'un Système d'Information en entreprise centré sur le produit . "
(Thèse Jean-Philippe AUZELLE)

Résumé  :

Notre thèse porte sur la Modélisation d'Entreprise et plus particulièrement sur une vision Ingénierie Système de celle-ci afin de faciliter son application « à minima » en entreprise. Alors que la modélisation d'entreprise arrive à maturité scientifique et technologique, force est de constater que sa pratique est encore trop peu courante. En outre, il n'existe pas à proprement parler de tâche de modélisation, de maintenance et de gestion de modèles dans l'entreprise. La question s'est alors posée de la relation d'interopération entre les systèmes, d'un Système-Entreprise évolutif, le plus souvent composé de façon ad-hoc de sous-systèmes ( COTS ) , qui ont pour particularité d'encapsuler leur propre Savoir-Faire et leurs Ingénieries respectives, en incluant le Système-Produit (son besoin, son projet, …) à la source de chaque recomposition « à la demande » du Système-Entreprise . Un des objectifs de nos travaux est donc de faciliter l'interopération entre les ingénieries de ces systèmes interopérants (autour du produit A Faire) et l'Ingénierie du Système-Projet d'Entreprise (Pour Faire). Nous nous sommes alors inspirés de la proposition de Kuras pour formaliser notre Système-Entreprise (en fait son Ingénierie) dans d'une sorte de «  Système de Systèmes d'Information  » (SdSI) en tenant compte de ses aspects récursifs et multi-échelles dans un contexte organisationnel évolutif. De plus, en nous appuyant sur la théorie des patterns, nous avons identifié puis dérivé le «  composite - pattern »  pour mieux décrire la nature « Tout et Partie » de l'Holon Système-Entreprise utilisé par Kuras pour extraire le patron de conceptualisation le plus adéquat. Parmi tous les points de vue d'un système, cette dérivation nous permet de représenter ceux du Système A Faire et ceux du Système Pour Faire avec son contenu d'Ingénierie associée guidée par le cadre de modélisation de Zachman . Nous avons outillé notre proposition de cadre d' Ingénierie Système Basée sur des Modèles (ISBM) en étendant le méta-modèle de l'outil « MEGA Modelling Suite »  ainsi qu'en développant les interfaces utilisateurs nécessaires et nous l'avons appliqué à l'Ingénierie d'un Système de Traçabilité d'un Produit dans le contexte d'un scénario PLM  plausible entre l'AIPL et DIMEG.

COTS : Commercial Off The Shelf

PLM : Product Life cycle Management

AIPL : Atelier Inter-établissements de productique de Lorraine

DIMEG : Dipartimento di Ingegneria Meccanica e Gestionale – Politecnico di Bari, Italie

Mots clefs  : modélisation d'entreprise, interopération, intégration, systèmes d'information, système de systèmes, récursivité, multi-échelles, Zachman, ingénierie système, ingénierie basée sur les modèles, pattern.

 

Rapporteurs : M. David Chen Professeur, Université Bordeaux 1

M. Angel Ortiz Bas Professeur, Université Polytechnique de Valencia (Espagne)

Examinateurs : M. Dominique Luzeaux HDR, Directeur adjoint de l'UM ESIO

à la Délégation Générale de l’Armement

M. Gérard Morel Professeur, UHP Nancy I (Directeur de thèse)

M. Hervé Panetto Professeur, UHP Nancy I (Codirecteur de thèse)

Mme Frédérique Mayer Maître de conférences, INPL (Codirectrice de thèse)

Invité :

M. François Vernadat Professeur, Université de Metz et Chef de service infrastructure IT,
Direction Informatique et Télécommunications,
Cour des Comptes Européenne (Luxembourg)

" Pilotage des cycles limites dans les systèmes dynamiques hybrides. Application aux alimentations électriques statiques. "
(Thèse Diego Alejandro PATINO GUEVARA)

Rapporteurs :

Mazen Alamir Directeur de Recherche au CNRS Gipsa-lab, INPG
Jean Buisson Professeur, SUPELEC,Rennes


Examinateurs :

Jean Pierre Barbot Professeur, ECS - ENSEA, Cergy-Pontoise

Ulf Jonsson Associated Professor, Royal Institute of Technology (KTH), Stockholm, Suède
Jean Marie Rétif Professeur, INSA, Lyon
Pierre Riedinger Maître de Conferences, INP Lorraine (co-directeur de thèse)
Claude Iung Professeur, INP Lorraine (directeur de thèse)



RESUME:

Cette thèse s'intéresse au pilotage des cycles limites pour une classe particulière de systèmes hybrides: les systèmes commutés cycliques. La thématique des systèmes hybrides est née du constat d'insuffisance des modèles dynamiques classiques pour décrire la complexité des comportements notamment lorsque des aspects évènementiels interviennent dans l'évolution de processus continus. Une classe particulièrement importante de systèmes dynamiques hybrides (SDH) en termes d'applications est formée par celle qui présente un régime permanent cyclique (moteur à explosion, convertisseur de puissance, etc.). Ces systèmes se caractérisent par des points de fonctionnement non auto-maintenable: il n'existe pas de commande qui maintienne le système sur le point de fonctionnement désiré. Le maintien n'est alors assuré qu'en valeur moyenne, en effectuant un cycle dans un voisinage du point de fonctionnement par commutation des différents sous systèmes.
L'établissement d'une loi de commutation pour cette classe de systèmes non linéaires doit répondre aux objectifs classiques de stabilité, de performance dynamique et de robustesse mais doit également garantir la satisfaction de critères liés à la forme d'onde du régime permanent (harmonique, oscillations, etc.). A l'heure actuelle, peu de méthodes prennent en compte directement le caractère cyclique du système lors de la phase de synthèse.

Les travaux de cette thèse ont pour objectif de développer des méthodes génériques, performantes et robustes pour piloter cette classe de systèmes. Les algorithmes proposés doivent également pouvoir être implémenté en temps réels. On modélise le système commuté comme un système non - linéaire affine à la commande dont la loi de commande (loi de commutation) apparait explicitement dans le modèle. Ce type de modélisation nous permet d'envisager deux types de synthèse : l'une à base de commande prédictive et l'autre à base de commande optimale. La commande prédictive est bien adaptée au problème de poursuite et de suivi de trajectoire. Elle sera donc privilégiée pour maintenir le
système sur son cycle limite.

Les outils de la commande optimale permettent d'apporter des solutions performantes lors des grands mouvements des phase de ralliement. L'importance jouée par les arcs singuliers dans cette synthèse est
clairement mis en évidence. Ce travail est validé par une partie d'application importante sur des manipulations développées au Cran et dans des laboratoires partenaires du réseaux d'excellence européen Hycon dans le cadre duquel s'est déroulé cette étude.

" Synthèse de Méthodes d'Accommodation Fondée sur l'Information du Second Ordre "
(Thèse Brian Manuel GONZALEZ-CONTRERAS)

Résumé

Le travail présenté dans ce mémoire de thèse concerne la synthèse de méthodes d'accommodation fondée sur l'information du second ordre (ISO) dans le contexte de la tolérance aux défauts présents au sein des systèmes linéaires. La contribution majeure de ces travaux de recherche concerne l'exploitation de cette information dans l'analyse de la reconfigurabilité (aptitude du système à s'affranchir des défauts) et dans le développement des stratégies d'accommodation de défauts permettant de retrouver les performances nominales en fonction du comportement dynamique et garantissant une information du second ordre donnée.

Dans un premier temps, on propose des approches pour mesurer l'information du second ordre à partir des grandeurs entrée/sortie des systèmes linéaires. Dans une première approche, la réponse (données de sortie) à la condition initiale est considérée. Une alternative intéressante à cette approche, en considérant le problème comme un d'identification et basée sur la réponse impulsionnelle (paramètres de Markov), est proposée afin d'évaluer l'information du second ordre indirectement mais en-ligne en utilisant des grandeurs entrée/sortie. Un indice résultant de cette évaluation est proposé afin de contribuer à l'étude de la reconfigurabilité en ligne d'un système défaillant. Cette estimation en temps réel de l'information du second ordre est étendue aux systèmes commandés en réseau afin d'évaluer l'impact de retards sur la reconfigurabilité du système.

Dans un deuxième temps, des stratégies permettant l'accommodation de défauts du type perte d'efficacité des actionneurs sont proposées, approches considérées dans le contexte de la synthèse de l'information du second ordre par retour d'état. On aborde le cas des systèmes à une entrée, approche proposée et basée sur la méthode de la pseudo inverse modifiée. Ensuite on considère le cas multivariable, approche basée sur la méthode de la pseudo inverse. Des exemples se présentent pour illustrer l'application des approches proposées.

Les éléments développés au cours du mémoire sont illustrés à travers une application couramment étudiée dans la commande de procédés : le système hydraulique des trois cuves. Les simulations effectuées mettent en relief les résultats obtenus et l'apport des méthodes développées.

---------------------------------------------------------------------------------------------------------

Mots clés : information du second ordre, reconfigurabilité, tolérance aux défauts, défauts actionneurs, systèmes linéaires, identification.

---------------------------------------------------------------------------------------------------------

Membres du Jury :

Rapporteurs

Mme. Suzanne LESECQ, Professeur des Universités, UJF, GIPSA-Lab, Grenoble
M. Antoine FERREIRA, Professeur des Universités, Institut PRISME, ENSI, Bourges

Examinateurs :

M. Efrain ALCORTA-GARCIA, IMLS-LAPS (Bordeaux), UANL (Mexique)
M. Gérard BLOCH, Professeur à Nancy-Université, CRAN, ESSTIN
M. Dominique SAUTER, CRAN (directeur de thèse)
M. Didier THEILLIOL, CRAN (directeur de thèse)

 

"Diagnostic de fonctionnement par analyse en composantes principales : Application à une station de traitement des eaux usées "
(Thèse Yvon THARRAULT)

Résumé :

L'objectif de cette thèse était de valider l'ensemble des informations délivrées par les capteurs utiles à la commande d'une station de traitement des eaux usées. Pour cela, l'analyse en composantes principales (ACP) a alors été utilisée pour effectuer la détection et localisation de défauts de capteurs de la station de traitement des eaux usées. Afin de construire un modèle ACP, nous avons eu recours à une matrice de données constituée de l'ensemble des mesures disponibles (obtenues lors du fonctionnement normal de la station de traitement des eaux usées) dans l'installation. Cependant, afin d'appliquer l'ACP, nous avons rencontré plusieurs difficultés :

1. Présence dans les données de valeurs aberrantes (valeurs obtenues durant des périodes de démarrage, d'arrêt, de fonctionnement dégradé, erreurs de mesure, ...) perturbant la construction d'un modèle ACP.

2. Présence de défauts multiples, ce qui entraîne une explosion combinatoire des scénarii de défauts à considérer

Afin de résoudre le premier point, on s'intéresse aux variantes robustes de l'ACP. L'estimateur robuste MCD (Minimum Covariance Determinant), méthode de référence pour ses performances, nécessite un temps de calcul important, et une connaissance a priori de la quantité de valeurs aberrantes présente dans les données (inconnue). C'est la raison pour laquelle nous avons proposé une nouvelle méthode robuste, basée sur l'utilisation de MM-estimateur, nommée MMRPCA (MM-estimator Robust
Principal Component Analysis). Pour le second point, une méthode d'analyse du modèle en terme de capacité de détection et de localisation est effectuée afin de réduire le nombre de défauts à considérer. Les différentes méthodes développées ont été appliqué avec succès afin de valider les mesures issues des différents capteurs d'une station d'épuration des eaux usées.

--------
Membres du Jury :

- T. Doenoeux, Professeur à l'Université Technologique de Compiègne
- J.P. Steyer, Directeur de recherche INRA au Laboratoire de
Biotechnologie de l'Environnement (Narbonne)
- S. Gillé, Responsable de l'unité 'Modélisation et Simulation' au
Centre de Recherche Public Henri Tudor (Luxembourg)
- M.-N. Pons, Directeur de recherche CNRS au Laboratoire des Sciences du
Génie Chimique (Nancy)
- M. Batton Hubert, Maître-Assitant à l'ENSM de St-Etienne
- J. Ragot, Professeur à l'INPL (directeur de thèse)
- G. Mourot, Ingénieur de recherche à l'INPL (co-directeur de thèse)

"Étude des concepts de filtrage robuste aux méconnaissances de modèle et aux pertes de mesures. Application aux systèmes de navigation"
(Thèse Vincent SIRCOULOMB)

Résumé :
La résolution d'un problème d'estimation de l'état d'un système nécessite de disposer d'un modèle  régissant l'évolution des variables d'état et de mesurer de manière directe ou indirecte l'ensemble ou une partie de ces variables d'état. Les travaux exposés dans ce mémoire de thèse portent sur la problématique d'estimation en présence de méconnaissances de modèle et de pertes de capteurs. La première partie de ce travail constitue la synthèse d'un dispositif d'estimation d'état pour systèmes non linéaires. Cela consiste à sélectionner un estimateur d'état et convenablement le régler, puis à concevoir algorithmiquement, à partir d'un critère introduit  pour la circonstance, une redondance matérielle  visant à compenser la perte de certains capteurs. La seconde partie de ce travail porte sur la conception, à l'aide de la variance d'Allan, d'un sous-modèle permettant de compenser les incertitudes d'un modèle d'état, ce sous-modèle étant utilisable par un filtre de Kalman. Ce travail a été exploité pour tenir compte de dérives gyroscopiques dans le cadre d'une navigation inertielle hybridée avec des mesures GPS par un filtre de Kalman contraint. Les résultats obtenus, issus d'expériences sur deux trajectoires d'avion, ont montré un comportement sain et robuste de l'approche proposée.

Mots clés :
Estimation d'état, filtrage de Kalman, robustesse, méconnaissances de modèle, perte de capteurs, navigation inertielle, gyroscopes résonnants hémisphériques, variance d'Allan, filtrage sous contraintes.

Jury :
José RAGOT, Professeur à l'INPL, Nancy (Directeur de thèse)
Houcine CHAFOUK, Enseignant-Chercheur, HDR à l'ESIGELEC (co-Directeur de thèse)
Ghaleb HOBLOS, Enseignant-Chercheur à l'ESIGELEC
Dominique SAUTER, Professeur à l'Université Henry Poincaré, Nancy,
Vincent COCQUEMPOT, Professeur à l'Université de Lille I,
Félix MORA-CAMINO, Professeur à l'ENAC, Toulouse,
Xavier BISSUEL, ingénieur expert en techniques inertielles de SAGEM Défense-Sécurité, Eragny sur Oise,
Jean-Paul ISRAEL, ingénieur expert en navigation du LRBA, Vernon

"Approche méthodologique pour  l'intégration des systèmes contrôlés par le produit dans un environnement de juste-à-temps: Application à l'entreprise TRANE"
(Thèse Hind EL HAOUZI)

Résumé :

L'objet de cette thèse est de proposer une méthodologie pour l'intégration et le développement de Systèmes Contrôlés par le Produit (SCP). Celle-ci a vocation de permettre d'implémenter une architecture de contrôle par kanbans et/ou produits« actifs », adaptable aux systèmes de production d'une entreprise. Cette architecture doit permettre de résoudre les problèmes de synchronisation entre flux physiques de produits, d'une part, et entre flux physiques et flux d'informations nécessaires au pilotage de ceux-ci, d'autre part. Cette thèse aété réalisée dans le cadre d'un partenariat entre le CRAN et l'entreprise TRANE. Le premier chapitre de la thèse décrit le procédé de fabrication de l'entreprise, l'organisation de ses ateliers suivant la méthode du juste à temps DFT (Demand Flow Technology) et les différents modes de pilotage dans l'entreprise. A l'issue de ce chapitre émerge la problématique industrielle : le problème de synchronisation entre flux physiques et celui de la synchronisation entre flux physiques et flux d'informations. Le second chapitre présente une étude bibliographique relative aux stratégies existantes de pilotage de flux et apportant donc des éléments de réponse aux problèmes précédemment cités. Après avoir montré l'apport des systèmes contrôlés par le produit dans la résolution de ceux-ci, ce chapitre montre le besoin de méthodes d'ingénierie pour concevoir un SCP adapté « au plus juste » au système industriel étudié. Le troisième chapitre est donc consacré à la définition de la problématique scientifique qui fait suite aux problèmes induits par le contexte industriel mais également aux lacunes mises en évidence dans les travaux de recherche sur les méthodes utiles pour la conception et l'implémentation, à l'échelle industrielle, de tels systèmes de pilotage. Ce chapitre présente donc l'état de l'art sur les approches existantes et utilisables pour la construction de SCP. En réponse à cette problématique scientifique, la proposition d'une méthodologie de conception et d'intégration des systèmes contrôlés par le produit est présentée dans le quatrième chapitre. Cette méthodologie s'appuie sur l'approche d'ingénierie système « six-sigmas », en particulier, sur la démarche DFSS (Design for Six-Sigmas) pour piloter le projet de conception du SCP par des indicateurs issus des besoins des utilisateurs. L'enrichissement de l'approche six-sigmas par la simulation événementielle permet, dans un premier temps, de concevoir l'architecture la plus pertinente au regard des indicateurs de performance retenus et, dans un deuxième temps, de valider a priori l'intégration du SCP ainsi conçu dans son environnement. Le dernier chapitre a pour objectif d'illustrer l'approche sur des cas réels d'application et de présenter les travaux de développement qui ont été réalisés lors de cette thèse.

Mots-clés : Synchronisation des flux, systèmes contrôlés par le produit, six-sigmas, simulation à événements discret.

Jury :

RAPPORTEURS :

PR D. TRENTESAU - UNIVERSITE DE VALENCIENNES ET DU HAINAUT-CAMBRESIS
PR H.PIERREVAL - INSTITUT FRANÇAIS DE MECANIQUE AVANCEE


EXAMINATEURS :

PR. V. THOMSON - MAC GILL UNIVERSITY MONTRÉAL (CANADA)
MDC  F.OUNNAR - UNIVERSITE  D'AIX-MARSEILLE
PR. A. THOMAS - UNIVERSITE HENRI POINCARE (DIRECTEUR DE  LA THESE)
MDC, HDR. J.F PÉTIN - UNIVERSITE HENRI POINCARE (CO-DIRECTEUR)

INVITE :
S. HACQUARD  RESPONSABLE INDUSTRIALISATION TRANE

" Contribution à l'évaluation de la sûreté de fonctionnement des systèmes instrumentés de sécurité intégrant de l'intelligence "
(Thèse Abdelhak MKHIDA)

Résumé:

Dans ce travail, la modélisation et l'évaluation des performances relatives à la sûreté de fonctionnement des systèmes instrumentés de sécurité (SIS) sont traitées pour des structures intégrant de l'intelligence dans les instruments de terrain. Ces systèmes deviennent des Systèmes Instrumentés de Sécurité à Intelligence Distribuée (SISID). La contribution de l'incorporation de fonctionnalités propres aux instruments intelligents est ensuite évaluée.
L'approche dynamique utilisant les réseaux d'activité stochastiques (SAN : Stochastic Activity Network) qui sont une extension des réseaux de Petri stochastiques (SPN) est proposée. L'introduction d'indicateurs de performances permet de mettre en évidence l'effet de l'intégration des niveaux d'intelligence dans les applications de sécurité. Les paramètres utilisés pour l'évaluation de la sûreté de fonctionnement des SIS se réfèrent à deux modes de défaillances mentionnées par les normes de sécurité relatives aux systèmes instrumentés de sécurité CEI 61508 et CEI 6151. Ces modes sont le mode de défaillances et dangereuses et le mode de défaillances sûres.

MOTS-CLES :
Instruments Intelligents, Systèmes d'Automatisation à Intelligence Distribuée, Système Instrumenté de Sécurité, Probabilité de défaillances dangereuses, Probabilité de défaillances sûres, SAN (Réseaux à activité stochastique), Indicateurs de performances.

Membre du jury :
Rapporteurs :
Pr. Mireille Bayart(LAGIS,Lille)
Pr. Yvon Voisin (Le2i,Auxerre)
Examinateurs :
Pr. Jean-François Aubry (CRAN,Nancy)
Pr. Jean-Marc Thiriet (Gipsa-Lab,Grenoble)
Pr. Michel Robert(CRAN,Nancy)
Mc. Frédéric Kratz(LVR,Bourges)

" Estimation de l'état des systèmes non linéaires à temps discret. Application à une station d'épuration "
(Thèse Boulaïd BOULKROUNE)

Résumé :

Ce sujet de recherche revêt, d'une part, un caractère théorique puisqu'il aborde le problème d'estimation des systèmes singuliers linéaires et non linéaires à temps discret pour lesquels très peu de résultats sont disponibles et, d'autre part, un aspect pratique, car le modèle utilisé est d'une station d'épuration.

Dans la partie théorique, nous nous sommes intéressés au début à l'estimation d'état des systèmes singuliers linéaires en se basant sur l'approche d'estimation à horizon glissant. Deux estimateurs optimaux, au sens des moindres carrés et au sens de la variance minimale, ont été présentés. L'analyse de la convergence et de la stabilité des estimateurs est abordée. Ensuite, nous avons présenté une approche d'observation pour la classe des systèmes lipschitziens à temps discret. En supposant que la partie linéaire de la classe de systèmes choisie est variante dans le temps, le problème de l'estimation d'état d'un système non linéaire est réduit à un problème d'estimation d'état d'un système partiellement LPV. La condition de stabilité de l'observateur proposé est exprimée en terme d'inégalités matricielles linéaires (LMI).
Enfin, dans la partie pratique, les résultats obtenus sont validés par une application à un modèle d'une station d'épuration à boues activées.

Le jury sera composé de :

Directeur de Thèse : Mohamed DAROUACH, Professeur à l'Université Nancy I Henri Poincaré
Co-encadrant : Michel ZASADZINSKI, Professeur à l'Université Nancy I Henri Poincaré.
Rapporteur : Mohammed M'SAAD, Professeur à l'ENSICAEN.
Rapporteur : Denis DOCHAIN, Professeur à l'Université Catholique de Louvain, Belgique
Examinateur : Didier MAQUIN, Professeur à l'Institut National Polytechnique de Lorraine.
Examinateur : Serge GILLE,  Docteur au Centre de recherche Public Henri Tudor,  Luxembourg.

" Pour une Meilleure Approche du Management des Risques : De la Modélisation Ontologique du Processus Accidentel au Système Interactif d'Aide à la Décision "
(Thèse Mohamed-Habib MAZOUNI)

Résumé :

Le management des risques a été développé au début des années 40. C'est aujourd'hui la pierre angulaire du Système de Management de la Sécurité (SMS) dans de nombreuses industries.

Malheureusement, la pratique du management des risques accuse une mauvaise compréhension ainsi que de nombreux problèmes d'ordre méthodologique, terminologique, technique ou organisationnel.

Dans une démarche de résolution des problèmes constatés, nous proposons, comme alternative à l'Analyse Préliminaire de Risque, la méthode Management Préliminaire des Risques (MPR). Cette méthode originale est basée sur un processus accidentel générique permettant de canaliser les mécanismes de capitalisation et d'exploitation des connaissances relatives aux scénarios d'accident (causalité, entités, situations, événements, etc.). La méthode MPR, se rattache au Système de Management de la Sécurité (SMS) sur un point d'ancrage essentiel qu'est la gestion des processus techniques et organisationnels.

Notre objectif est triple, d'abord montrer les 10 problèmes majeurs que nous avons constatés en matière de management des risques, ensuite présenter la méthode MPR, basée sur un processus accidentel générique, que nous proposons pour résoudre ces difficultés dans le but d'exploiter efficacement l'échange de savoir-faire en matière de management des risques relatifs à différents systèmes issus de différents domaine, et enfin développer un Système Interactif d'Aide à la Décision (SIAD) permettant d'automatiser cette méthode et apporter des éléments d'aide à la décision en matière de management des risques à travers une interface graphique et ergonomique.

"Observateurs et commande basée sur un observateur pour les systèmes bilinéaires"
(Thèse Benjamin GERARD)

Résumé :

La commande et l'estimation des systèmes bilinéaires restent un problème ouvert en automatique du fait de la nature non linéaire des systèmes. Même si ces systèmes semblent «  proches » des systèmes linéaires, leur étude nécessite une approche différente. En effet, les entrées peuvent générer des singularités qui doivent être explicitement prises en compte dans la synthèse de lois de commande et des observateurs. Cette spécifité du rôle des entrées dans les propriétés des systèmes bilinéaires nous a amené à traiter le problème de l'observation à partir de deux approches principales :
  - une approche de type LPV  (Linear Parameter Varying, Linéaire à Paramètres  Variants) s'appuyant explicitement sur le modèle,
  - une approche basée sur l'analyse structurelle des systèmes bilinéaires en exploitant différemment les parties uniformément observables et non uniformément observables.
L'une des contributions de mon travail de recherche réside dans l'utilisation de l'approche LPV pour la prise en compte des entrées de commande afin de concevoir un observateur pour les systèmes bilinéaires. L'approche Hinfini pour le filtrage des perturbations a été étudiée pour deux types d'observateurs, l'observateur à grand gain, spécialement adapté aux systèmes uniformément observables et l'observateur fonctionnel. Des approches LMI permettent la synthèse et/ou l'optimisation de ces filtres.
En s'appuyant sur cette approche, différentes commandes saturées basées sur ces observateur ont été proposées:
  - la commande bang-bang,
  - la commande quadratique,
  - la commande linéaire,
  - l'utilisation couplée de différentes commandes.
Une autre partie de mon travail a consisté à exploiter la structure des systèmes bilinéaires afin de relaxer le conservatisme dans le traitement des entrées lors de la synthèse d'un observateur. Nous avons ainsi conçu des observateurs à deux étages afin de séparer les dynamiques uniformément observables et elles  qui ne le sont pas afin d'y appliquer différents types d'observateurs LPV. Cette approche montre en outre les possibilités d'association de divers types d'observateurs pour les systèmes de grandes dimensions.
En s'appuyant sur la décomposition structurelle évoquer si dessus, nous avons étudié le couplage de diverses commandes et divers observateurs pour les systèmes bilinéaires.


  --------
  Mots clés :
  Systèmes non linéaires, Systèmes bilinéaires, approche LPV, LMI, grand gain, observateur, commande basée observateur

  --------
  Membres du Jury :

  Rapporteurs :

  Professeur Germain GARCIA, LAAS CNRS
  Professeur Mondher FARZA, Laboratoire GREYC, Ensicaen



  Examinateurs :

  Professeur Michel FLIESS, Laboratoire Lix-Ecole Polytechnique
  Professeur Alain Richard, CRAN
  Professeur Michel ZASADZINSKI, CRAN,(directeur de thèse)
  Harouna SOULEY ALI, Maître de Conférence, CRAN

" Le kanban actif pour assurer l'intéropérabilité décisionnelle centralisé/distribué
Application à un industriel de l'ameublement "

(Thèse Thomas KLEIN)

Résumé :

Pour faire face à la compétition toujours plus grande, les entreprises industrielles doivent gagner en flexibilité pour être capables de répondre aux diverses demandes des clients. Il leur faut également être réactives, afin de les satisfaire rapidement. Enfin, l'entreprise dans sa globalité doit devenir agile, capable de se reconfigurer en fonction des évolutions de son environnement ou de son marché. Ces deux impératifs de satisfaction client et de productivité sont souvent abordés par des solutions difficilement compatibles : planification globale à l'aide des progiciels de gestion industrielle dans le premier cas et décision locale dans le deuxième.

Les travaux présentés dans ce mémoire résultent d'un partenariat entre le Centre de Recherche en Automatique et Nancy et la société Parisot Meubles. Pour répondre aux objectifs antagonistes propres à la production des meubles en kits que sont l'optimisation de l'utilisation de la matière et la performance des machines, l'entreprise a déjà mis en ouvre deux modes de pilotage différents : un ordonnancement centralisé, ne donnant pas satisfaction du point de vue de l'exécution, puis une gestion Kanban, plus proche du flux mais ne permettant pas l'optimisation de l'utilisation des ressources.

Une phase de modélisation a permis d'identifier les points forts de chacune des deux approches, afin de proposer une architecture centrée sur le kanban actif, celui-ci permettant d'une part de diffuser sur le terrain les informations pertinentes pour la prise de décisions de pilotage à même le flux en cohérence avec un cadre fixé de façon centrale, et d'autre part d'assister la prise de décision sur le terrain en jouant un rôle actif dans les processus décisionnels.

Une architecture de validation basée sur un modèle de simulation à événements discrets et sur le concept d'émulation permet d'évaluer la maturité de l'architecture de pilotage proposée et de mesurer ses performances. Enfin, un plan d'expériences a permis de comparer les performances du pilotage par
kanbans actifs aux deux modes précédemment employé, dans différentes situations, et de montrer un intérêt au pilotage par kanbans actifs, tant en terme de productivité que de temps d'écoulement.

--------
Membres du Jury :

Rapporteurs :

Pierre Castagna, Professeur à l'université de Nantes
Bernard Grabot , Professeur à l'école nationale d'ingénieurs de Tarbes

Examinateurs :

Sophie D'amours, Professeur à l'université de Laval, Québec, Canada
Philippe Torineau, Groupe Parisot, Saint Loup sur Semouse
André Thomas, Professeur à l'université de Nancy (Directeur de Thèse)
Gérard Morel, Professeur à l'université de Nancy (Co-directeur de thèse)

" Gestion dynamique des topologies sans fils"
(Thèse Issam JABRI)

Résumé : La problématique de la qualité de service dans les réseaux locaux sans fils IEEE 802.11 demeure l'un des défis délicats à surmonter par la communauté scientifique. L'étude et l'évaluation des approches apportés pour le support de QoS dans ce type de réseaux que ce soit par des simulations, des modèles analytiques ou des mesures réelles montrent que ces approches sont toujours insuffisantes pour apporter des vraies garanties de qualité de services aux utilisateurs sans fils. Suite à des travaux effectués au CRAN qui ont porté sur l'équilibrage des charges dans les réseaux Ethernet industriels nous avons opté pour une méthode d'équilibrage de charges dans le contexte des réseaux Hotspots 802.11. L'objectif de cette approche est d'équilibrer les charges des points d'accès pour satisfaire aux besoins en termes de qualité de service de l'ensemble des applications sans fils. Ces besoins sont exprimés en termes de disponibilité, de délais, de bande passante, etc. Nous avons alors définis un algorithme d'équilibrage de charges pouvant établir dynamiquement des associations optimales entre les utilisateurs présents dans un Hotspot et les points d'accès en service. Un protocole d'échanges entre les stations sans fils et les points d'accès et entre ces derniers et le serveur d'équilibrage de charges a été établi. Le fonctionnement de ce protocole a été vérifié et simulé en utilisant les outils SDL et MSC. Pour l'évaluation de la performance de l'approche d'équilibrage par rapport à la méthode d'accès de base du protocole, nous avons effectué une ensemble de simulations sur OPNET et montré que cette approche permet d'améliorer un ensemble de paramètres de qualité de service perçu par les utilisateurs d'un réseau Hotspot. Dans le futur, nous continuerons à travailler sur l'évaluation de cette approche couplée avec les nouvelles recommandations du standard IEEE 802.11e et à trouver les solutions techniques nécessaires à son implémentation.

-----------------------

Mots-clés : IEEE 802.11, Qualité de Service, Equilibrage de charges, Protocoles, Simulations.

---------------------------

Directeurs de thèse : M. Thierry Divoux, Professeur à l'Université Henri Poincaré, Nancy1M. Salem Nasri, Professeur à l'Ecole Nationale d'Ingénieurs de Monastir

Rapporteurs : M. Thierry Val, Professeur à l'Université de Toulouse II le Mirail M. Habib Youssef, Professeur à l'Institut Supérieur de l'Informatique et des Technologies de la Communication (Hammam Sousse)

Examinateurs : M. Mohamed Adel Alimi, Professeur à l'Ecole Nationale d'Ingénieurs de Sfax M. Nicolas Krommenacker (co-encadreur), Maître de conférences à l'Université Henri Poincaré, Nancy 1

"Contribution à l'estimation d'état et au diagnostic des systèmes représentés par des multimodèles"
(Thèse Rodolfo ORJUELA)

Résumé :

Nombreux sont les problèmes classiquement rencontrés dans les sciences de l'ingénieur dont la résolution fait appel à l'estimation d'état d'un système par le biais d'un observateur. La synthèse d'un observateur n'est envisageable qu'à la condition de disposer d'un modèle à la fois exploitable et représentatif du comportement du système. Or, la détermination du modèle et la synthèse de l'observateur sont des tâches d'autant plus difficiles à accomplir qu'il est bien souvent nécessaire d'avoir recours à des modèles de représentation non linéaires. Face à ces difficultés, l'approche multimodèle peut être mise à profit.

Les travaux présentés dans cette thèse portent sur les problèmes soulevés par l'identification, l'estimation d'état et le diagnostic de systèmes non linéaires représentés à l'aide d'un multimodèle découplé.
Ce dernier, composé de sous-modèles qui peuvent être de dimensions différentes, est doté d'un haut degré de généralité et de flexibilité et s'adapte particulièrement bien à la modélisation des systèmes à
structure variable. Il se démarque ainsi des approches multimodèles plus conventionnelles qui utilisent des sous-modèles de même dimension.

Après une brève introduction à l'approche multimodèle, le problème de l'estimation paramétrique du multimodèle découplé est abordé. Puis sont présentés des algorithmes de synthèse d'observateurs d'état robustes vis-à-vis des perturbations, des incertitudes paramétriques et des
entrées inconnues affectant le système. Ces algorithmes sont élaborés à partir de trois types d'observateurs différents dits à gain proportionnel, à gain proportionnel-intégral et à gain multi-integral.
Enfin, les différentes phases d'identification, de synthèse d'observateurs et de génération d'indicateurs de défauts sont illustréesà partir d'un exemple académique de diagnostic d'un bioréacteur.

--------
Mots clés :
Systèmes non linéaires, approche multimodèle, multimodèle découplé, estimation d'état, entrées inconnues, observateur, identification paramétrique, diagnostic

--------
Membres du Jury :

Rapporteurs :

Dominique Bonvin, Professeur à l'EPFL
Gildas Besançon, Maître de conférences HDR à l'INPG

Examinateurs :

Ali Zolghadri, Professeur à l'Université de Bordeaux 1
Noureddine Manamanni, Professeur à l'Université de Reims
Didier Maquin, Professeur à l'INPL (directeur de thèse)
José Ragot, Professeur à l'INPL (co-directeur de thèse)
Benoît Marx, Maître de conférences à l'INPL (co-encadrant de thèse)

" Optimisation automatique des incidences des faisceaux par l'algorithme du simplexe et optimisation des contrôles qualité par la Maîtrise Statistique des Processus (MSP) en Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) "
(Thèse Karine GERARD)

Résumé :

La Radiothérapie Conformationnelle par Modulation d'Intensité (RCMI) est aujourd'hui reconnue comme une technique de référence permettant d'augmenter le contrôle local de la tumeur tout en réduisant la dose reçue par les organes à risques avoisinants. Cependant, son développement est freiné par l'étape de préparation du traitement du patient qui nécessite une charge de travail considérable. Dans le but d'augmenter l'efficience de la mise en œuvre d'un traitement, deux axes de travail ont été déterminés.

Le premier axe concernait l'optimisation automatique des incidences des faisceaux. Nous avons pour cela mis en œuvre un algorithme (le simplexe) qui a été intégré dans le système de planification de traitement. Il permet, à partir des objectifs dosimétriques fixés par l'utilisateur, de déterminer automatiquement les incidences de faisceaux optimales : irradiant suffisamment le volume cible tout en épargnant les organes à risques avoisinants. En plus d'un gain en temps, les résultats du simplexe ont montré – sur trois patients atteints d'un cancer de l'oropharynx – un gain en qualité par rapport à une sélection manuelle des faisceaux. En effet, pour une couverture du volume cible équivalente voire meilleure, il permet de réduire la dose reçue par les organes à risques.

Le second axe concernait l'optimisation des contrôles pré-traitement. Nous avons pour cela utilisé une méthode industrielle : la Maîtrise Statistique des Processus (MSP) afin d'analyser rétrospectivement les résultats des contrôles de la dose absolue effectués avec la chambre d'ionisation au Centre Alexis Vautrin (CAV). Cette étude a montré l'intérêt de la MSP pour renforcer la sécurité des traitements grâce à la mise en place de cartes de contrôle. Elle a également montré que notre processus de délivrance de la dose était stable et statistiquement capable pour les traitements de la prostate, ce qui implique qu'une réduction du nombre de contrôles peut être envisagée pour ce type de traitement au CAV.

Membres du jury :

Dr. Pierre ALETTI (Centre Alexis Vautrin, Nancy) - Directeur de thèse
Pr. Philippe GIRAUD (Hôpital Georges Pompidou, Paris) - Rapporteur
Dr. Jean-Pierre GRANDHAYE (ERPI-INPL, Nancy)
Pr. François GUILLEMIN (Centre Alexis Vautrin, Nancy)
Dr. Hanna KAFROUNI (DOSISOFT s.a, Cachan)
Dr. Dimitri LEFKOPOULOS (Institut Gustave Roussy, Villejuif) - Rapporteur
Dr. Alain NOEL (Centre Alexis Vautrin, Nancy)
Pr. Didier PEIFFERT (Centre Alexis Vautrin, Nancy)
Pr. Maurice PILLET (SYMME, Polytech'Savoie, Annecy)
Pr. Pierre SCALLIET (Hôpital Universitaire St Luc, Bruxelles (B))

"Contribution au traitement et à l'analyse des signaux issus de processus physiologiques"
(Thèse Fabien LAUER)

Résumé : 

La thèse s'intéresse à trois problèmes de modélisation non-linéaire : la classification (ou reconnaissance de formes), la régression (ou approximation de fonctions) et l'identification de systèmes hybrides. Parmi les approches existantes dans la littérature, les machines à vecteurs de support (Support Vector Machines, SVMs) fournissent un cadre général pour la classification et la régression non-linéaires. Ces méthodes récentes, issues de la théorie de l'apprentissage statistique, permettent d'obtenir des modèles boîtes noires, conduisant à de bonnes performances en généralisation, par optimisation convexe. L'étude se concentre dans un premier temps sur l'évolution de ces modèles vers des modèles de type boîte grise, permettant de bénéficier à la fois de la capacité d'approximation universelle des modèles boîtes noires et de connaissances disponibles a priori.  Dans ce cadre, la thèse propose une approche générale, permettant d'inclure un grand nombre de connaissances diverses dans l'apprentissage SVM pour la régression, tout en conservant un apprentissage par optimisation convexe. La dernière partie de la thèse propose ensuite d'étendre les SVMs à l'identification de systèmes hybrides (systèmes commutant entre plusieurs modes de fonctionnement). Dans ce contexte, les problèmes de classification et de régression sont liés de manière indissociable. Une méthode basée sur l'optimisation non-convexe est proposée pour résoudre simultanément ces problèmes. Celle-ci permet notamment d'identifier des systèmes hybrides possédant des non-linéarités arbitraires et inconnues.
--  Mots clés : Identification, systèmes non-linéaires, systèmes hybrides, classification, régression,  machines à vecteurs de support (SVM)
--  Membres du Jury :
Stéphane Canu (rapporteur)
Joos Vandewalle (rapporteur)
Gérard Dreyfus
Alain Richard
Christoph Schnörr
René Vidal
Gérard Bloch (directeur de thèse)

"Contribution au traitement et à l'analyse des signaux issus de processus physiologiques"
(HDR Valérie LOUIS-DORR)

Résumé

Les travaux présentés dans ce mémoire concernent le traitement et l'analyse des signaux issus de processus physiologiques. La difficulté de traiter ces signaux réside dans la connaissance du processus lui même. En effet, ces systèmes sont souvent modélisés sous l'aspect fonctionnel. Or, il s'avère que les processus vivants requièrent une représentation organisationnelle, structurale, fonctionnelle, mais aussi
géométrique et topologique. L'étape de modélisation est d'un enjeu majeur pour définir la méthodologie de traitement des signaux recueillis. Etant donné les nombreuses interactions que présentent ces systèmes, les étapes de prétraitement et de mises en relations multidimensionnelles des signaux disponibles sont généralement incontournables. Les principales contributions présentées visent la détection précoce du glaucome, la phonotentérographie dans le cadre de l'analyse fonctionnelle digestive et enfin l'épilepsie via la caractérisation des crises au travers des signaux EEG. Les perspectives de ce travail se situent dans la continuité des travaux menés en neurophysiologie. De ce contexte, deux axes principaux sont dégagés : l'étude des mécanismes physiopathologiques qui sous-tendent les crises d'épilepsie portant sur l'identification des réseaux épileptiques et leurs relations avec les réseaux cognitifs normaux et l'identification des réseaux neuronaux qui sont mis en jeu au cours des processus mnésiques physiologiques (encodage, stockage, restitution).

Mots-clés : processus physiologiques, débruitage, modélisation, analyse multidimensionnelle, glaucome, phonoentérographie, EEG, épilepsie, cognition.

"Systèmes Embarqués Communicants Tolérants Aux Fautes dans le cadre du Contrat de Plan Etat-Région MISN 3S - Projet SECTAF "

PROGRAMME
08h45-09h00 Présentation du Projet SECTAF
Didier THEILLIOL & Abbas DANDACHE
09h00-09h45 Sûreté des systèmes embarqués et Simulation des systèmes
hétérogènes
François PECHEUX - LIPSIS Paris VI
09H45-10h30 Modèle Environnemental intégré à la boîte à outils «TrueTime»
Fabrice MONTEIRO - LICM
10h30-10h45 Pause
10h45-11h30 Réseaux de Communication et Applications de Contrôle-Commande
Guy JUANOLE - LAAS CNRS
11h30-12h15 Pont roulant : Du modèle à la commande multivariable dans un
environnement communicant
Joseph YAME - CRAN, Nancy-Université, CNRS
12h15-14h00 Repas
14h00-14h45 Contrôle en boucle fermée à travers un réseau
Jean Pierre RICHARD - EC Lille, LAGIS CNRS et ALIEN INRIA
14h45-15h30 Tolérance aux fautes appliquée à la plateforme de simulation SECTAF
Jean Philippe GEORGES & Didier THEILLIOL - CRAN, Nancy-Université, CNRS
15h30-16h00 Bilan
Didier THEILLIOL & Abbas DANDACHE

"Segmentation, recalage reconstruction 3D de données. Traitement d'images médicales et industrielles."
(HDR Chrisitian DAUL)

Résumé
------
Le travail de recherche relaté dans ce manuscrit présente mes activités en traitement d'images que j'ai menées successivement dans trois organismes, à savoir le Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT, UMR CNRS/Université Louis Pasteur de Strasbourg), l'"Institut für Techno- und Wirtschaftsmathematik'' (Fraunhofer Institut, Kaiserslautern, Allemagne) et le Centre de Recherche en Automatique de Nancy (CRAN, UMR CNRS/Nancy Université). D'un point de vue scientifique, mes principales  activités en traitement d'images concernent la segmentation d'images dont le contenu, relativement complexe, requiert des algorithmes utilisant des connaissances a priori liées aux objets à segmenter (contours actifs, méthode s'inspirant de la transformée de Hough, etc.). Le recalage de donnée 2D ou 3D et monomodales ou multimodales est un autre aspect scientifique caractérisant le travail décrit ici. Ces thèmes de recherche, ainsi que des méthodes de reconstruction et/ou de superposition de données 3D ont conduit à des solutions originales dans le cadre de problèmes industriels (reconstruction 3D de pièces manufacturées pour une mesure dimensionnelle et classification de surfaces en fonction de leur teinte et texture) ou médicaux (diagnostic précoce du cancer du sein via la reconstruction du foyer de microcalcifications, positionnement de patients en radiothérapie intra-crânienne par recalage 3D multimodal, aide au diagnostic de maladies cardio-vasculaires par la superposition de données multimodales et détection du cancer de la vessie par mosaïquage d'images).

Mots clés :
------------
segmentation d'images, recalage de données monomodales et
multimodales, reconstruction/superposition 3D de données,
classification selon la couleur, mesure dimensionnelle, mammographie
numérique, endoscopie, coronarographie, medecine nucléaire,
radiothérapie.

Composition jury
----------------
Rapporteurs : Mireille Garreau (Prof., Rennes 1), Joachim Weickert
(Prof. Université de la Saar, Saarbrücken, Allemagne) et Michel
Paindavoine (Prof., Université de Bourgogne, Dijon).
Examinateurs : Ernest Hirsch (Prof., Université Louis Pasteur de
Strasbourg), François Guillemin (PUPH, UHP) et Didier Wolf (parrain
scientifique)

"Contribution à la vérification d'exigences de sécuité : Application au domaine de la machine industrielle"
(Soutenance de Dominique EVROT)

L'introduction des nouvelles technologies de l'information et de la communication dans les systèmes automatisés entraîne un accroissement de la complexité des fonctions qu'ils supportent (commande, surveillance, maintenance voire gestion technique). Des études ont montré que cet accroissement de la complexité a un impact sur la disponibilité, la sûreté de fonctionnement et la sécurité des systèmes. En effet, leurs propriétés ne sont plus réductibles aux propriétés de leurs constituants pris isolément (composants logiciels de commande, circuits électromécaniques ou électropneumatiques, actionneurs et capteurs, etc.) mais émergent d'un réseau d'interactions entre ces constituants qui peut être à l'origine de comportements néfastes et difficiles à prévoir (Chapurlat 2007). Dans le domaine de la sécurité des machines industrielles, cible applicative de l'INRS, cette évolution se traduit par le transfert des applications de commande intégrant des fonctions de sécurité traditionnellement réalisées en logique câblée vers des Automates Programmables Industriels de Sécurité (APIdS). Dans le cadre d'études prospectives visant à anticiper les besoins et trouver de nouvelles méthodes de conception, l'INRS a souhaité approfondir les mécanismes de preuve du code embarqué dans les APIdS.
Notre conviction est que le développement sûr de ces systèmes doit combiner des approches pragmatiques orientées « système », qui tiennent compte du facteur d'échelle réel d'une automatisation pour appréhender le fonctionnement global du système et son architecture, avec des approches plus formelles qui permettent de s'assurer que les propriétés intrinsèques des constituants contribuent efficacement au respect des exigences « système » formulées par les utilisateurs. Ce constat est renforcé par les référentiels normatifs dans le domaine de la sûreté de fonctionnement des systèmes embarquant du logiciel ou de l'électronique, tels que le standard IEC 61508, qui fournissent un certain nombre de recommandations relatives à :

  • la nécessité de tenir compte de l'environnement de la commande afin d'appréhender les propriétés de sécurité au travers des différents constituants (partie opérative, interface avec l'opérateur, partie commande câblée, partie commande programmée, ?)  sollicités par les dispositifs de protection (barrière immatérielle, dispositifs de commande sécurisée, arrêts d'urgence, ?),
  • l'utilisation de composants logiciels tels que les composants sur étagère (COTS) permettant d'augmenter la lisibilité de l'application et de faciliter leur validation, en particulier pour les composants supportant une fonction de sécurité,
  • l'utilisation de méthodes formelles de développement notamment pour les applications critiques.
Pour les aspects sécurité des machines en phase de conception, la Directive Machine 98/37/CE a été déclinée en un référentiel normatif, notamment ISO 12100 et CEI 62061, qui donne la démarche à suivre et reprend les deux premières recommandations énoncées ci-dessus. Dans ce contexte, le problème initial de vérification de code posé par l'INRS, a été élargi dans le cadre des processus techniques de l'ingénierie « système » , notamment des processus de définition du système et de validation & vérification afin de mieux prendre en compte l'analyse et la définition des exigences de sécurité préalablement à toute activité de vérification (IEEE 1220). Le travail présenté dans ce mémoire a donc pour objectif de définir une approche méthodologique permettant l'identification, la formalisation et la structuration d'exigences globales relatives à un système, puis leur projection, sous forme de propriétés invariantes, sur une architecture de composants. Cette approche devra intégrer des outils plus ou moins formels maîtrisables par les ingénieurs travaillant dans le domaine de la machine. La vérification a priori des exigences, notamment de sécurité, repose alors, d'une part, sur un raffinement prouvé des exigences « système » permettant d'établir leur équivalence avec un ensemble de propriétés intrinsèques relatives à chacun des composants en interactions, et d'autre part, sur la vérification formelle de ces propriétés intrinsèques.

-------------------

Membres du Jury

Direction de Thèse :
Jean-François Pétin (HdR)
Gérard Morel (Professeur)

Encadrement INRS
Pascal Lamy

Rapporteurs
Vincent Chapurlat (HdR)
Bernard Riera (Professeur)

Examinateurs
Jean-Marc Faure (Professeur)
Lothar Litz (Professeur)

" Modélisation du soudage MIG/MAG en mode short-arc "
(Soutenance de Jean-Pierre PLANCKAERT)

Résumé

**

Il existe aujourd'hui de nombreux procédés de soudage répondant à la très grande variété d'assemblage à réaliser et aux caractéristiques des métaux utilisés. Le premier chapitre décrit les différentes sources d'énergie utilisées en soudage. Suite à cela, une explication plus détaillée du soudage à l'arc électrique est donnée. Enfin nous présentons la conception d'une plateforme d'essai de soudage.
Il est possible, bien sûr, d'utiliser une approche empirique pour optimiser un procédé. Néanmoins il y a des avantages à choisir une approche analytique puisqu'on peut en attendre des avancées significatives dans la compréhension
des interactions dynamiques présentes dans l'arc. C'est pourquoi nous présentons dans le chapitre 2 les connaissances théoriques de la physique quant au comportement du métal liquide transféré en soudage MIG/MAG.
Ce travail comporte donc également un aspect expérimental nécessaire à l'élaboration des bases de données utilisées pour la construction des modèles. Les différents enregistrements ont été effectués au CTAS sur une plate formeéquipée d'un système d'acquisition de données pour les mesures de tension, courant, vitesse fil et d'un système de vidéo rapide. Le chapitre 3 présente notre recherche d'une méthode de segmentation permettant d'obtenir le suivi de variables pertinentes. Nous y proposons un capteur logiciel basé sur la théorie des contours actifs et montrons de bons résultats obtenus sur des vidéos expérimentales.
Une étape d'ajustement de certains paramètres est indispensable. Elle est donnée dans le chapitre 4. Le simulateur créé permet d'interpréter certains phénomènes importants en soudage, de réaliser une étude de sensibilité « sans risque » et de donner les signatures théoriques de défauts.


Mots clés: soudage MIG/MAG , modélisation physique, contours actifs dynamiques.

Directeurs de thèse:

    -Pr. David BRIE
    -Dr. El-Hadi DJERMOUNE

*Membres du jury*

Rapporteurs:

    -Pr. Régis LENGELLE
    -Pr. Suzanne LESECQ

Examinateurs:

    -Pr. Gérard GISSINGER
    -Dr. Francis BRIAND

"Modélisation Expérimentale des Systèmes Dynamiques Interconnectés - Applications en Biologie Systémique"

(Soutenance de Sophie MARCHAL)

Résumé

Le but de cette thèse est de développer une stratégie pro-apoptotique à partir des paramètres pouvant moduler l'apoptose photoinduite par le Foscan® dans des modèles précliniques d'adénocarcinome humain.

La PDT avec le Foscan® a été appliquée /in vitro/ sur lignées cellulaires où une apoptose modérée a été obtenue /via/ l'implication indirecte de la voie mitochondriale.

La modulation de l'apoptose photoinduite par l'oxygénation a été démontrée sur sphéroïde, modèle de micro-tumeur non vascularisée. Une irradiance faible, garantissant le maintien de l'oxygénation du sphéroïde, favorise l'activation de la caspase-3 photoinduite par le Foscan®. Le deuxième paramètre favorisant l'apoptose photoinduite est l'accroissement du temps d'incubation du photosensibilisateur avec les cellules MCF-7, ce qui modifie sa localisation subcellulaire. Après 3h d'incubation, le Foscan® est essentiellement localisé dans le réticulum endoplasmique (RE) et l'appareil de Golgi. Après irradiation, le stress oxydant du RE évalué par l'induction de la protéine chaperone GRP78 suivie de la réponse apoptotique mitochondriale et de l'activation des caspases a été observée. Après 24h d'incubation avec le Foscan®, la localisation dans le RE est renforcée ainsi que l'expression photoinduite de GRP78 corrélée avec une augmentation de l'activation de la caspase-7 indépendamment de la réponse mitochondriale. Après PDT /in vivo/, l'estimation par immunohistochimie sur coupe tissulaire de l'activation de la caspase-7 et de la caspase-3 montre une activation prédominante de la caspase-3 ce qui suggère une apoptose majoritairement dépendante de la caspase-3 dans les tumeurs d'adénocarcinome colique HT29 traitées par Foscan®-PDT.

*Mots clés*: Thérapie photodynamique, Foscan® (m-THPC), apoptose, caspases

"Modélisation Expérimentale des Systèmes Dynamiques Interconnectés - Applications en Biologie Systémique"

(Soutenance de Thierry BASTOGNE)

Les travaux présentés concernent le développement d'outils et de méthodes pour la modélisation expérimentale des systèmes dynamiques interconnectés par des représentations modulaires. Contrairement aux approches boîtes-noires, les approches modulaires ne visent pas seulement à décrire le comportement dynamique d'un système dans sa globalité mais aussi à représenter sa structure interne, c.-à-d. ses composants et leurs interactions. Le problème de la modélisation expérimentale des systèmes dynamiques interconnectés est multiple. Il concerne aussi bien la formalisation mathématique des représentations modulaires, leur identifiabilité pratique et l'estimation des paramètres et de leur incertitude.
Le projet de recherche présenté s'inscrit dans le cadre de l'Ingénierie en Biologie Systémique. Il est dans la continuité des travaux précédents et se focalise sur la modélisation expérimentale de systèmes dynamiques interconnectés en cancérologie. Ce projet concerne d'une part la modélisation de la thérapie photodynamique et d'autre part l'identification de réseaux métaboliques. La thérapie photodynamique peut être vue, à plusieurs niveaux, comme un ensemble de systèmes dynamiques interconnectés. Après une présentation des fondements de cette thérapie, trois problèmes de modélisation expérimentale appliqués à la thérapie photodynamique sont posés. Cette modélisation a pour but ultime de répondre à deux questions. La première concerne la maîtrise et la reproductibilité des réponses thérapeutiques et la seconde traite de la caractérisation de l'efficacité de nouveaux agents photosensibilisants. Les problèmes d'automatique associés à ces deux questions traitent d'identifiabilité, d'estimation de paramètres et de stratégie de commande. Les méthodes et outils de planification d'expériences sont proposés en perspective pour aborder tous ces problèmes sous un même angle.

 

"Analyse structurelle par approche graphique des propriétés d'observabilité et de diagnostic des systèmes linéaires et bilinéaires"

(Soutenance de Taha BOUKHOBZA)

Les travaux présentés concernent le développement d'outils d'analyse par approche graphique de propriétés structurelles liées à l'observabilité et à la problématique du diagnostic pour les systèmes linéaires et bilinéaires.
L'originalité des approches graphiques est de fournir des résultats de faible ordre de complexité et très aisément interprétables. Ainsi, les méthodes proposées sont applicables à des systèmes de grande taille et ce dès la phase de conception car ne nécessitant pas la connaissance exacte des paramètres physiques caractérisant le modèle du système considéré. En effet, seule la connaissance de la structure des systèmes est nécessaire pour la mise en ?uvre des outils d'analyse proposés. Ainsi diverses propriétés liées à l'observabilité et à la détection et localisation de défauts ont été caractérisées graphiquement pour des systèmes linéaires standards ou singuliers ainsi que pour des systèmes bilinéaires. Des algorithmes de placement de capteurs pour le recouvrement de la propriété d'observabilité totale ou partielle ont aussi été proposés. Par ailleurs, la majorité de ces résultats et certains autres concernant les systèmes linéaires ont été implémentés et regroupés dans un logiciel ouvert développé sur plateforme libre.

Quelques idées pour l'extension de ces résultats à des structures de systèmes plus complexes sont proposées comme perspectives à ces travaux.

"Influence des fautes transitoires sur la fiabilité des systèmes commandés en réseau "

(Soutenance de thèse Rony GHOSTINE)

Résumé:
Ce travail s'inscrit dans le cadre de l'évaluation de la sûreté de fonctionnement des systèmes commandés en réseau. La problématique se trouve à l'intersection de plusieurs axes de recherche : les problèmes de modélisation et d'évaluation, notamment l'évaluation de la sûreté de fonctionnement, et le domaine des réseaux de communications. L'étude de la Sdf des systèmes commandés en réseau n'a longtemps été que partielle. On a pu distinguer deux types
d'approches : les approches orientées "automatique" où le réseau de communication est totalement ignoré et les approches centrées "réseau" où la performance du réseau est utilisée sans prise en compte de l'application. Une difficulté de ce type d'étude est que les fautes n'ont pas toujours le même effet ; par exemple dans une boucle fermée distribuée autour d'un réseau la perte des messages dans la phase transitoire n'a pas le même effet qu'en régime
permanent. Nous nous trouvons dans une situation de « fiabilité dynamique » puisque la relation entre la défaillance du système et la défaillance des composants change au cours du temps. La capacité des systèmes de commandes à
compenser les effets de certaines défaillances de composants (comme le réseau) amène à redéfinir le concept de défaillances du système. La conséquence est que l'évaluation de la fiabilité prévisionnelle du système est dépendante de l'évaluation fonctionnelle et devient très difficile voire impossible avec les méthodes traditionnelles de la sûreté de fonctionnement. Pour surmonter ces difficultés, une approche basée sur la modélisation en vue de la simulation est
proposée. Nous avons choisi les Réseaux d'activités stochastiques (SAN) largement connus dans la modélisation des protocoles de communication ainsi que dans les études de la sûreté de fonctionnement.
Dans un premier temps, nous avons cherché à identifier l'incidence de deux types de défaillances fugitives : la perte d'un échantillon d'une part et le retard d'un échantillon dans la boucle de régulation (sans considérer la présence d'un
réseau) d'autre part. Aprés, nous simulons le comportement en présence des deux types de perturbations simultanément, mettant en évidence des effets cumulatifs. Cependant, contrairement à ce que l'on a coutume de dire dans les systèmes statiques, la probabilité de non défaillance du système n'est pas le produit des probabilités de non occurrence des défaillances. Cette relation ne peut en l'état actuel des connaissances qu'être évaluée par simulation. Si on tient compte maintenant du fait que l'origine des pertes ou retards est due à la présence du réseau, il faut l'introduire dans le modèle. Le caractère aléatoire n'est plus associé directement à la défaillance mais plutôt à la cause qui est susceptible de la produire. On introduit alors dans le modèle global du système la représentation SAN d'un réseau CAN et l'injection des défaillances dans celui-ci. On a recours à la méthode de Monte Carlo pour estimer les indicateurs de sûreté de fonctionnement et on montre l'influence de certains facteurs comme la charge du réseau par exemple.
Nous n'avons pas la prétention de résoudre le problème de l'évaluation de la fiabilité d'un SCR. Ce problème est loin d'être résolu par des approches analytiques tant sa complexité est importante. Nous avons proposé une méthode et les outils associés pour approcher cette évaluation par simulation et ainsi apporter une aide à la conception des systèmes satisfaisant à des exigences critiques sur certains paramètres de performance.

Mots Clés : Fiabilité, systèmes commandés en réseau, réseau d'activité stochastique (SAN), méthode de Monte-Carlo, Controller Area Network (CAN), Modélisation et simulation.

Directeurs de thèse:

Pr. Jean-François Aubry (CRAN, Nancy)
Pr. Jean-Marc Thiriet (Gipsa-Lab, Grenoble)

Membre du jury :

Rapporteurs :
Pr. Jean-Marc Faure  (Lurpa ENS Cachan, Paris)
MC-HDR. Laurent Cauffriez (LAMIH, Valenciennes)

Examinateurs :
Pr. Jean-François Aubry (CRAN, Nancy)
Pr. Jean-Marc Thiriet (Gipsa-Lab, Grenoble)
Pr. Eric Rondeau (CRAN, Nancy)
Mc. Pavol Barger (Heudiasyc, Compiègne)

"Analyse des propriétés structurelles d'observabilité de l'état et de l'entrée inconnue des systèmes linéaires par approche graphique"

(Soutenance de thèse Sinuhé Martinez Martinez)

Le travail de thèse présenté traite de l'analyse de différentes propriétés liées à l'observabilité des systèmes à entrée inconnue par approche graphique dont la simplicité de mise en ?uvre permet de se défaire des difficultés numériques inhérentes aux approches géométrique et algébrique. Parmi les propriétés encore non abordées, nous nous sommes intéressés aux propriétés relatives à l'observabilité des variables d'état d'un système pour toute valeur d'entrée ainsi que l'observabilité conjointe de l'état et de l'entrée. Ces propriétés plus fortes que l'observabilité simple ou que l'isolabilité des défauts nous ont paru utiles et pertinentes à étudier. En effet, les outils d'analyse développés peuvent s'avérer importants dans le cadre de la synthèse d'observateurs ou d'estimateurs d'entrées utiles à la synthèse de lois de commandes tolérantes aux défauts ou robustes, ou encore quand il s'agit de vérifier si la propriété d'observabilité d'un système n'est pas altérée lorsqu'il est soumis à des perturbations, voire à des défauts. La première partie de la thèse aborde l'analyse graphique de l'observabilité de tout ou d'une partie de l'état et de l'entrée. La seconde partie consiste à étudier le problème du placement des capteurs afin de recouvrer des propriétés d'observabilité forte abordées précédemment. La troisième partie traite de l'implémentation des résultats établis dans une boîte à outils ( lisa) d'analyse structurelle des systèmes linaires et bilinéaires. lisa , qui est dédiée principalement aux propriétés d'observabilité et de diagnosticabilité, est basée sur l'association de certains algorithmes de base ayant tous des ordres de complexité polynomiaux. Elle est en cela adaptée à l'analyse des systèmes de grande taille.

Mots clés: Systèmes linéaires, systèmes structurés, observabilité forte, observabilité de l'entrée inconnue, théorie de graphes, graphes orientés.

Directeurs de thèse:

    -Pr. Frédéric HAMELIN
    -Dr. Taha BOUKHOBZA

Membres du jury

Rapporteurs:

    -Pr. Olivier SENAME
    -Dr. Mohamed DJEMAI

Examinateurs:

    -Pr. Efrain ALCORTA GARCIA
    -Pr. Didier MAQUIN

"Modèles Probabilistes de Séquences Temporelles et Fusion de Décisions. Application à la Classification de Défauts de Rails et à leur Maintenance"
(Soutenance de thèse Abdeljabbar Ben Salem)

Résumé: Au-delà des performances économiques classiques, les entreprises sont confrontées aussi aujourd'hui à des exigences plus sociétales liés à la sécurité des hommes et des matériels, à la protection de l'environnement et à la réduction des nuisances... afin de faire face efficacement aux impératifs du marché et des réglementations, aux besoins des clients mais aussi aux nécessités du développement durable. La maîtrise simultanée de ces performances, considérées comme contradictoires, et donc très difficiles à gérer, est ainsi devenue un enjeu stratégique pour améliorer la performance globale de l'entreprise. Cet enjeu se décline concrètement au niveau opérationnel du système industriel par le concept de maintien en conditions opérationnelles (MCO)dont la finalité est d'assurer principalement le bon fonctionnement du système tout au long de la phase d'exploitation.
Par rapport aux différentes composantes du MCO, notamment le soutien technique et le soutien logistique, ces travaux de thèse, initiés dans le cadre d'un partenariat avec l'INRETS, se restreignent au contexte du processus pivot du soutien technique: le processus de maintenance.  Ce processus est considéré actuellement comme l'un des principaux leviers d'action sur la performance globale des systèmes industriels avec cependant encore de nombreuses problématiques scientifiques à résoudre pour en garantir son optimisation.
Par conséquent les propositions défendues scientifiquement dans cette thèse, et qui s'adossent au contexte industriel du MCO des rails à la RATP, portent globalement sur une contribution au processus de maintenance en se focalisant plus précisément sur les sous processus complémentaires de diagnostic et d'aideà la décision. En effet, une première contribution a pour objet de proposer le développement d'un système de diagnostic (de détection de rails cassés) basé sur une nouvelle approche permettant de fusionner des connaissances a priori avec des résultats du traitement des mesures réelles issues de capteurs. Une deuxième contribution propose une approche originale d'aide la décision en maintenance des systèmes à n-composants permettant de réduire le coût global de possession (Life Cycle Cost: LCC) d'un système complexe à partir d'une modélisation de la dégradation des composants, et en intégrant simultanément plusieurs types de dépendances telles que les dépendances fonctionnelles et économiques. Cette  dernière approche porte sur la politique de maintenance préventive, et plus particulièrement sur la maintenance conditionnelle.

Mots Clés: Maintenance conditionnelle, Séquences temporelles, Aide à la décision, Processus décisionnels de Markov factorisés, IO-HMM

Directeurs de thèse:
      - Benoît IUNG (Professeur, UHP Nancy I)
      - Patrice AKNIN (Directeur de recherche à l'INRETS)

Co-encadrement:
      - Philippe WEBER (CRAN)
      - Laurent BOUILLAUT (INRETS)

Membres du jury :

   * Rapporteurs:

    - Philippe LERAY(Professeur, École Polytechnique de l'Université de  Nantes)
    - Christophe BERENGUER (Professeur, Universite de Technologie de Troyes)

   * Examinateurs:

    - Didier THEILLOL (Professeur, UHP Nancy I)
    - Pierre-Henri  WUILLEMIN (Maître de conférence, LIP6)

"Contribution méthodologique à la maîtrise conjointe de la qualité d'un produit et de ses processus de production par une modélisation des concepts qualité"
(Soutenance de thèse Salah DEEB)

Résumé :

La qualité est devenue aujourd'hui un véritable outil stratégique, pour faire face aux nouveaux enjeux économiques et sociaux de l'entreprise, grâce à son impact sur la maîtrise conjointe de la qualité du produit et des processus supports à sa production. Cette maîtrise est directement liée à l'organisation cohérente d'un ensemble d'activités qualité qui se positionnent sur les différents niveaux structurels de l'entreprise.
Un des challenges majeurs est donc de faire du processus qualité un processus au sens système, c'est-à-dire un processus intégrant, de façon efficace, les différentes activités qualité sur les différents niveaux et avec les autres processus de l'entreprise. Relativement à ce challenge, plusieurs méthodologies et méthodes qualité supportent tout ou partie de la modélisation du processus qualité, mais leur manque de formalisation nuit à l'efficacité et à l'efficience de leur application.
En réponse à ce double constat d'intégration et de manque de formalisation, notre contribution porte sur la proposition d'une approche qualité générique permettant de formaliser un processus qualité au niveau tactique en lien avec les autres niveaux de l'entreprise. Cette approche se positionne en cohérence avec le TQM dans l'objectif de maîtriser et d'améliorer conjointement la qualité du produit/processus de production. Elle se veut utilisable, par son automatisation avec l'outil MEGA, de la conception à l'exploitation du processus de maîtrise de la qualité.
L'originalité de ces travaux réside dans une première unification, sous la forme de méta-modèles, des concepts qualité sur la base de l'approche processus définit dans la norme ISO9000:2000, de la fonction «management de qualité» telle que prônée par la norme IEC/ISO62264, des méthodes qualité, et finalement de la modélisation d'indicateurs pertinents. La faisabilité de cette approche est montrée sur un cas d'application de type processus manufacturier.

Mots Clés : Processus Qualité, ISO9000:2000, Méta-modélisation, Maîtrise de la qualité, Amélioration de la qualité, Méthodes qualité, TQM.

Directeurs de thèse: Professeur Benoît IUNG


Membre du jury :

Rapporteurs:
    - Maurice PILLET ( Professeur, Université de Savoie)
    - Abdessamad KOBI ( Professeur, Université d'Angers)
Examinateurs:
    -
Olivier SÉNÉCHAL ( Professeur, Université de Valenciennes)
    - Thierry DIVOUX ( Professeur, UHP Nancy I )
    - Hervé PANETTO ( Maître de conférence, HDR, UHP Nancy I)
    - Benoît IUNG  (Professeur, UHP Nancy I )

"Proposition d'une approche intégrée basée sur les réseaux de Petri de haut niveau pour simuler et évaluer les systèmes contrôlés en réseau"
(Soutenance de thèse Belynda BRAHIMI)

Résumé :

L'étude des systèmes en réseau supports d'applications collaboratives, distribuées et interconnectées par un réseau repose sur l'identification des exigences de fonctionnement de l'application appelées Qualité de Contrôle (QdC), et sur l'évaluation des performances du réseau pour obtenir son niveau de Qualité de Service (QdS). « Cette thématique comporte d'importants verrous de nature fondamentale relevant du domaine de l'automatique, de la robotique, des capteurs, de la théorie de l'information, des réseaux. Par souci de simplification, les travaux sur les systèmes en réseau se repartissent selon deux approches: la première compense les perturbations générées par les communications au niveau de l'application (« control over network »). La seconde adapte les performances du réseau en fonction des besoins applicatifs (« control of network »). L'objectif de nos travaux de thèse est donc de proposer un environnement de modélisation intégré permettant de représenter le comportement des SCRs. Nous avons choisi les Réseaux de Petri de haut niveau qui possède un fort pouvoir d'expression, de formalisation et dont la modularité permet d'ajouter et/ou de faire évoluer les modèles qui sont développés dans ce travail. Dans un premier temps, nous avons proposé un modèle Ethernet Commuté gérant des mécanismes d'ordonnancement. Le choix de ce réseau a été guidé par le fait qu'il est de plus en plus utilisé dans les SCRs. Ensuite, le modèle d'un  SCR a été proposé, et modélisé par des Réseaux de Petri de haut de niveau, en intégrant au modèle Ethernet Commuté, l'environnement applicatif : Contrôleur, Process,.. Enfin, des stratégies pour commander le réseau de façon à adapter sa Qualité de Service en regard de la Qualité de Contrôle requise par l'application, ont été mises en oeuvre. Pour cela, des ordonnanceurs à priorité stricte et de type WRR sont utilisés. Les résultats de simulation montrent clairement que des dispositifs de compensation du réseau pour améliorer les performances du système de communication, permettent aussi d'améliorer les performances du système à commander.

 Mots clés :

Systèmes contrôlés en réseau (SCR), réseau de Petri de haut niveau (RDPHN), qualité de service (QdS), qualité de contrôle (QdC), contrôle du réseau, modélisation intégrée, ordonnanceur Weighted Round Robin, ordonnanceur à priorité stricte.

Directeurs de thèse:

Pr. Eric RONDEAU
Pr. Christophe AUBRUN

Membre du jury :

Rapporteurs :
Pr. Sylviane GENTIL  (INPG, Grenoble)
Pr. Guy JUANOLE (LAAS, Toulouse)

Examinateurs :
Pr. Janan ZAYTOON (CReSTIC, Reims)
Pr. Ye-Qiong SONG (LORIA, Nancy)
Pr. Eric RONDEAU (CRAN, Nancy)
Pr. Christophe AUBRUN (CRAN, Nancy)

" Amélioration de la mesure de la bande passante dans un réseau basé sur IP"
(Soutenance de thèse Ahmed AIT-ALI)

Résumé :

Les travaux menés dans cette thèse s'intéressent particulièrement à la mesure de la bande passante disponible qui est un paramètre très important pour le bon fonctionnement de plusieurs applications réseaux et dont la détermination avec précision reste jusqu'à aujourd'hui un défi à relever. Ces travaux visent donc à améliorer les techniques de mesure de ce paramètre en proposant un nouveau
modèle déterministe basé sur la technique de la paire de paquets. Ce dernier est implémenté dans un nouvel outil de mesure appelé IGMPS.
L'évaluation de performances de cette outil ont montré que ce dernier permet de mesurer la bande passante disponible avec une très grande précision. Par ailleurs, une analyse de sensibilité et un calcul des incertitudes sur les modèles étudiés ont montré que les erreurs dues à l'estampillage des paquets sondes au niveau de l'émetteur et du récepteur sont principalement à l'origine de l'imprécision des mesures fournies par les différents outils de mesure de la bande passante disponible.

Mots-clés :
Réseaux de communication, Qualité de service, Métrologie réseaux, Bande passante
disponible, Analyse de sensibilité.

Directeur de thèse :
Francis Lepage, Professeur à l'Université Henri Poincaré, Nancy1

Rapporteurs :
M. Philippe Owezarski,  HDR Chargé de recherche au CNRS-LAAS, Toulouse
Mme. Véronique Vèque, Professeur à l'Université Paris Sud, Orsay

Examinateurs :
M. Olivier Festor, Directeur de recherche INRIA au LORIA, Nancy
M. Bernard Thirion, Professeur à l'Université de Haute Alsace, Mulhouse
M. Thierry Divoux, Professeur à l'Université Henri Poincaré, Nancy1

"Stabilité et commande robuste des systèmes à commutation"
(Soutenance de thèse Laurentiu HETEL)

Résumé :

Les travaux de cette thèse portent sur l'analyse de stabilité et la synthèse de commandes robustes pour les systèmes linéaires à commutation en temps discret avec des incertitudes polytopiques et des incertitudes sur la loi de commutation. On considère des lois de commutations arbitraires et on montre que l'utilisation des fonctions de Lyapunov commutées dépendant de paramètres permet de déterminer des critères de stabilité et de stabilisation robuste moins conservatifs. Ensuite, des conditions de stabilité robuste pour les systèmes en temps discret avec une loi de commutation incertaine sont présentées en termes de temps minimum de séjour. Les résultats obtenus s'avèrent utiles dans le contexte de la commande numérique des systèmes continus en présence d'imprécisions sur les instants d'échantillonnage et d'application des commandes. Nous montrons comment une modélisation à base d'évènements permet de ramener le problème original à un problème spécifique aux systèmes à commutation avec des incertitudes polytopiques. Les résultats sont étendus au cas des systèmes à commutation continus commandés par des correcteurs numériques.


Composition du jury :

Rapporteurs :

Jean-Pierre Richard, Professeur, EC Lille

Bernard Brogliato, Directeur de Recherche, INRIA Rhone-Alpes


Examinateurs :

Janan Zaytoon, Professeur, URCA

Maurice Heemels, Professeur, TU Eindhoven

Thierry Divoux, Professeur, UHP - Nancy 1

Hervé Guéguen, Professeur, Supelec, Rennes

Jamal Daafouz, Professeur, INP Lorraine (directeur de thèse)

Claude Iung, Professeur, INP Lorraine (co-directeur de thèse)

" Diagnostic des systèmes linéaires en boucle fermée"
(Soutenance de thèse Emilie PERY)

L'objectif de ce travail de recherche est le développement, la mise au point et la validation d'une méthode de spectroscopie multi-modalités en diffusion élastique et autofluorescence pour caractériser des tissus biologiques in vitro et in vivo . Ces travaux s'organisent en quatre axes. La première partie des travaux présente l'instrumentation : développement, réalisation et caractérisation expérimentale d'un système de spectrométrie bi-modale multi-points fibrée permettant l'acquisition de spectres in vivo (distances variables, acquisition rapide). La deuxième partie porte sur la modélisation des propriétés optiques du tissu : développement et validation expérimentale sur fantômes d'un algorithme de simulation de propagation de photons en milieux turbides et multi-fluorescents. La troisième partie propose une étude expérimentale conduite ex vivo sur des anneaux artériels frais et cryoconservés. Elle confirme la complémentarité des mesures spectroscopiques en diffusion élastique et autofluorescence et valide la méthode de spectroscopie multi-modalités et l'algorithme de simulation de propagation de photons. Les résultats originaux obtenus montrent une corrélation entre propriétés rhéologiques et optiques. La quatrième partie développe une seconde étude expérimentale in vivo sur un modèle pré-clinique tumoral de vessie. Elle met en évidence une différence significative en réflectance diffuse et/ou en autofluorescence et/ou en fluorescence intrinsèque entre tissus sains, inflammatoires et tumoraux, sur la base de longueurs d'onde particulières. Les résultats de la classification non supervisée réalisée montrent que la combinaison de différentes approches spectroscopiques augmente la fiabilité du diagnostic.

" Diagnostic des systèmes linéaires en boucle fermée "
(Soutenance de thèse Hamid BAIKECHE)

Dans la majeure partie des travaux effectués dans le domaine de la surveillance des systèmes, les outils servant à la détection et à la localisation des défauts sont synthétisés à partir d'une représentation en boucle ouverte du système. La génération de résidus indicateurs de défauts en boucle ouverte s'appuie exclusivement sur l'analyse de la cohérence des signaux d'entrées et de sorties du système en les comparant à ceux issus d'un modèle. Or, la réalité des applications industrielles fait que les systèmes sont souvent, pour ne pas dire toujours, insérés dans une boucle de régulation ou d'asservissement. Dans ce contexte, la tâche de diagnostic s'avère particulièrement délicate pour différentes raisons. D'une part, le contrôleur peut atténuer l'effet des défauts ce qui rend difficile leurs détection. D'autres parts, les entrées du système étant corrélées avec les sorties à cause du bouclage engendre une difficulté pour la localisation.
De plus, un rapide examen des rôles de la commande d'un système et de la surveillance de son fonctionnement révèle des objectifs contradictoires : en effet, l'une des caractéristiques d'une commande performante est de minimiser (voire annuler) les effets des perturbations et des défauts sur les sorties du système tandis que le diagnostic a pour fin de souligner la présence de ces défauts.
Les travaux présentés dans cette thèse s'appuient essentiellement sur l'analyse de la sensibilité des différents signaux de la boucle de régulation par rapport aux défauts. En effet, contrairement au diagnostic des systèmes à base d'un modèle en boucle ouverte où seules les sorties sont utilisées par la procédure de diagnostic, d'autres signaux s'avèrent intéressant pour la surveillance des systèmes bouclés. L'analyse systématique des fonctions de sensibilité des différents signaux par rapport aux défauts permet de sélectionner les points de mesures qui contiennent le plus d'information sur les défauts dans les basses, moyennes et hautes fréquences. Il été montré également que l'analyse des fonctions de sensibilité dans les différentes plages de fréquences constitue une base localisation des défauts.
Dans la dernière partie du mémoire, une méthode de détection et de localisation de défauts des systèmes linéaires en boucle fermée soumis à des défauts additifs est présentée. Le principe de la méthode consiste à découpler les défauts. La méthode présentée utilise la théorie de découplage des systèmes linéaires multivariables (notion de degrés relatifs) et s'appuie sur le calcul d'une commande qui permet d'aiguiller chaque défaut vers une seule sortie afin de faciliter sa localisation. Enfin, cette méthode permet d'accomplir la synthèse de correcteur pour satisfaire les objectifs de commande sans nuire au découplage des défauts.

"Construction rapide d'images panoramiques applicables à l'exploration cystoscopique et à l'endoscopie de fluorescence en cancérologie "
(Soutenance de thèse Yahir HERNANDE-MIER)

Cette thèse propose un algorithme de mosaïquage pour la construction d'images panoramiques des parois internes de la vessie. Le temps de construction de ces images correspondant aux parties intéressantes de la vessie doit être infèrieur à la durée d'un examen clinique standard. La méthode de mosaïquage doit être robuste vis-à-vis des variabilités inter-examen liées aux patients et aux instruments. Ces images panoramiques pourront être utilisées par le clinicien comme réfernce pour guider des examens ultérieurs, pour l'archivage des données et pour suivre l'évolution des lésions. La première étape de l'algorithme est le pré-traitement des images cystoscopiques consistant en l'atténuation des inhomogénéités d'illumination et du motif de fibres optiques visible dans les images acquises par un fibroscope. La deuxième étape est le recalage des images. La solution retenue consiste en la corrélation par les transformées de Fourier des images qui fournit des translations initiales à un algorithme itératif basé sur la différence d'intensité entre les images. Ce dernier délivre les paramètres de la transformation perspective reliant deux images en utilisant des transformations globales calculées avec les résultats des recalages. Nous utilisons un moyennage pondéré des intensités des pixels pour atténuer les bords visibles lors de la projection. Les résultats quantitatifs obtenus avec un fantôme et des résultats qualitatifs calculés pour des séquences réelles montrent que notre approche automatique de mosaïquage est robuste et rapide (temps compatible avec la durée d'un examen cystoscopique clinique). Nos tests ont également prouvé que l'algorithme de recalage trouve des transformations géométriques plus grandes que celles rencontrées typiquement entre images d'une séquence vidéo (90% de recouvrement entre images consécutives pour ces dernières).

"Evaluation des paramètres de sûreté de fonctionnement en présence d'incertitudes et aide à la conception : application aux Systèmes Instrumentés de Sécurité"
(Soutenance de thèse Mohamed SALLAK)

Dans une société de plus en plus sensible aux notions de sécurité et de développement durable, les entreprises ont le souci d'éviter les dangers pouvant induire incendies, explosions et autres rejets de matières dangereuses, sources de dommages pour les personnes, l'environnement ou les biens. Les moyens à mettre en oeuvre pour réduire les risques sont nombreux et variés. Il existe différents types de sécurité : les sécurités passives (confinement, rétention, etc.), les sécurités actives présentes sur le procédé (soupapes, etc.) et enfin les sécurités actives instrumentées. Ces dernières appartiennent au Systèmes Instrumentés de Sécurité (SIS, Safety Instrumented Systems). Les principales normes et standards en termes de sécurité (IEC 61508 , IEC 61511, etc.)   peuvent être utilisés pour les concevoir. Les méthodes que proposent ces normes sont basées sur une estimation de la réduction nécessaire du risque que doit permettre d'atteindre le SIS. Ces normes définissent un critère important pour caractériser les SIS : le PFD avg (Average Probability of Failure on Demand). La valeur du PFDavg représente la probabilité moyenne de défaillance du SIS lors de sa sollicitation. Les méthodes usuelles de calcul du PFD avg des SIS sont des méthodes probabilistes. Ces méthodes issues des études traditionnelles de sûreté de fonctionnement où les données de fiabilité relatives aux composants peuvent être connues avec précision et validées par le retour d'expérience. On peut cependant s'interroger sur leur adaptation à des systèmes hautement fiables pour lesquels les défaillances sont très rares comme les SIS rarement sollicités. Dans ce cas, le retour d'expérience est insuffisant pour valider avec précision les taux de défaillances. En outre, certaines bases de données de fiabilité fournissent les bornes inférieures et supérieures, les valeurs moyennes et les facteurs d'erreurs des taux de défaillance des composants. Des méthodes autres que les approches probabilistes classiques (ensembles flous, théorie de l'évidence, etc.) peuvent utiliser avantageusement ces valeurs pour prendre en compte l'imprécision (qu'on appelle aussi incertitude de type épistémique) liée à ces taux de défaillance et estimer les probabilités de défaillance des composants ainsi que les PFDavg des SIS.

Cette thèse aborde d'abord la problématique de la prise en compte des incertitudes relatives aux données de fiabilité des composants pour l'évaluation de la sûreté de fonctionnement des SIS. Dans un premier temps, nous modélisons les imprécisions des taux de défaillances des composants par des nombres flous, puis nous évaluons les probabilités floues de défaillance des composants à partir de ces taux de défaillance imprécis. Dans un second temps, nous proposons l'utilisation du formalisme des arbres de défaillance flous pour évaluer le PFDavg du SIS et le SIL du SIS à partir des probabilités de défaillance floues.  L'introduction de deux nouveaux facteurs d'importance flous inspirés des facteurs d'importance classiques permettra de mettre en évidence les composants contribuant le plus à la défaillance du SIS et ceux contribuant le plus à l'incertitude entachant le SIL et de la réduire efficacement.

Le second objectif de la thèse est d'introduire une méthodologie d'aide à la conception des SIS en optimisant le choix des composants et la structure des SIS pour le respect du SIL exigé. L'intérêt de cette nouvelle approche basée sur les réseaux de fiabilité et les algorithmes génétiques réside dans le fait qu'elle peut être appliqué à la conception optimale de tout type de structure complexe en couches pouvant être modélisée par des réseaux de fiabilité. Cette méthode sera étendue par la suite à la conception des SIS avec des composants ayant des taux de défaillances imprécis.

" Apport de la modulation d'intensité et de l'optimisation pour délivrer une dose adaptée aux hétérogénéités biologiques "
(Soutenance de thèse Fleur KUBS)

Les progrès récents en imagerie fonctionnelle par Tomographie d'Emission de Positons (TEP) ouvrent de nouvelles perspectives dans la délimitation des volumes cibles en radiothérapie. L'information fonctionnelle est capitale, on peut envisager d'adapter les doses d'irradiation sur l'activité tumorale (AT) et de réaliser une escalade de dose.
Nos objectifs étaient caractériser la détectabilité en TEP, en quantifiant les incertitudes de contour du volume cible en fonction de la taille des lésions et du seuillage appliqué, de mettre en place la géométrie appropriée pour réaliser une forte irradiation hautement précise basée sur l'AT, d'évaluer l'impact dosimétrique de ce nouveau protocole et de vérifier la bonne délivrance de cette irradiation.
Trois fantômes originaux ont été spécialement conçus pour satisfaire aux contraintes rencontrées, ainsi que deux fantômes virtuels contenant les 3 niveaux de dose recherchés (niveau3=AT). Nos résultats ont montré l'importance de l'effet seuil-volume sur la planification en radiothérapie. Afin d'utiliser cette méthode d'irradiation, le diamètre de 1cm pour le 3ème niveau a pu être atteint. Une escalade de 20Gy a été possible entre le 2ème (70Gy) et  le 3ème niveau (90Gy). L'impact dosimétrique évalué sur deux cas réels était satisfaisant (augmentation de COIN de 0,6 à 0,8 et diminution de NTCP d'un facteur 5). En dosimétrie absolue et relative, les tolérances cliniques ont été respectées.
Ainsi toute la chaîne de traitement, allant du diagnostic, avec la TEP pour déceler l'AT, au traitement du patient effectué au préalable sur fantôme, en passant par la balistique et le calcul de dose, a été évaluée et validée selon notre objectif d'adapter l'irradiation aux hétérogénéités biologiques. Cependant de telles hautes doses doivent être évaluées avec précaution avant d'être prescrites en clinique, et des progrès sont aussi attendus en imagerie, puisque la taille minimale que l'on peut irradier est à la limite de la résolution TEP.

Mots-clefs : optimisation biologique, activité tumorale, dosimétrie, RCMI, TEP

" Contribution au Système d'Information d'un Produit "Bois". Appariement automatique de pièces de bois selon des critères de couleur et de texture"
(Soutenance de thèse Emmanuel SCHMITT)

Nos travaux portent sur l'étude d'un capteur flou adapté à l'identification couleur d'avivés. La méthode proposée a pour objectif notamment de prendre en compte la subjectivité de la perception des couleurs par l'être humain et de délivrer ses résultats dans le vocabulaire de l'utilisateur. Le domaine d'applications (industrie du bois) impose certaines contraintes. En effet, les classes de couleurs ne sont pas disjointes (frontières non strictes) et sont représentées par peu d'échantillons. Il en résulte alors des imprécisions et incertitudes dans la définition des classes de sortie. Après un état de l'art sur les techniques de traitement d'images, de reconnaissance de formes et sur la structure des capteurs intelligents, nos travaux sont exposés suivant deux axes : du capteur aux mesures, et des mesures à la décision. Tout d'abord, nous avons évalué et corrigé les perturbations lié à l'environnement ambiant du capteur (température, vieillissement, ?). Ensuite, nous avons déterminé l'espace colorimétrique le plus discriminant,et élaboré le vecteur caractéristique composé d'attributs interprétables permettant d'identifier les couleurs. A partir de ces données, nous avons développé le Fuzzy Reasoning Classifier basé sur un mécanisme de règles linguistiques floues agrégeant des règles conjonctives suivant le modèle de Larsen. Enfin, un opérateur flou de fusion de données est utilisé pour des systèmes multi-capteurs. L'exploitation de ce capteur flou a montré le bon comportement du système face aux contraintes temps-réel industrielles ainsi qu'une amélioration des taux de reconnaissance d'environ 10%.

" Evaluation et Pilotage des Flux Manufacturiers: Réflexions et Propositions "
(Soutenance de thèse Khaled ALKASSEM)

Cette thèse aborde le thème de la maîtrise des flux physiques dans les systèmes manufacturiers. Le mémoire présente dans un premier temps quelques réflexions et premières analyses sur les flux en général. Deux éléments particuliers y sont discutés : la nature et l'échelle d'observation des flux. Dans un second temps, deux approches pour le contrôle des flux sont présentées : la première classique est celle du contrôle par les activités et la seconde, plus récente est celle du contrôle par le produit. L'approche proposée dans cette thèse est ensuite positionnée par rapport aux deux approches précédentes.
La partie bibliographique du mémoire expose des définitions courantes et les principes généraux utilisés pour l'étude des flux, puis deux approches particulières : l'approche énergétique et la théorie du trafic. Sur ces bases est ensuite proposée une liste de variables pouvant qualifier un flux à trois niveaux différents et considérés comme complémentaires (les produits dans le flux, les supports du flux et le flux lui-même).
Sur les bases des analyses bibliographiques menées, des propositions de différents ordres sont ensuite faites. La première d'entre elles se concentre sur la définition de variables ou concepts pouvant qualifier un flux hétérogène d'objets discrets. La seconde est une adaptation du tétraèdre de Paynter aux flux manufacturiers. Enfin, un macro-modèle de simulation des flux manufacturiers est proposé.
Ces propositions sont partiellement validées par simulation.

" Transport à fiabilité partielle d'images compressées sur les réseaux à commutation de paquets"
(Soutenance de thèse Thomas HOLL)

Bien que les données qui transitent sur l'Internet et les contraintes inhérentes à leur transmission soient de natures variées, ces transmissions reposent presque toujours sur TCP ou UDP. L'adoption d'une approche de bout en bout impose d'agir sur le service de transport pour s'adapter aux besoins des données en fonction de la qualité de service offerte par le réseau. Les données multimédias en général sont tolérantes aux pertes, elles peuvent alors faire l'objet d'une compression et d'un transport avec pertes tout en conservant 
une bonne qualité de l'information reconstruite si les informations perdues sont parfaitement contrôlées. Cela suppose que les applications multimédias puissent compter sur un service de transport adapté à leurs besoins, associant les principes de fiabilité partielle et le contrôle d'erreur déterministe.

Dans cette thèse, nous définissons un service de transport à fiabilité partielle de ce type, utilisé pour la transmission d'images fixes compressées sur les réseaux de type \og best-effort \fg. Les travaux portent sur la conciliation du transport à fiabilité partielle avec les données compressées ainsi que la recherche d'un gain de temps de service et d'une dégradation acceptable. Un protocole de transport appelé 2CP-ARQ est proposé à cet effet. Sa compatibilité avec le transport d'images codées selon le standard JPEG2000 est d'abord étudiée. Les résultats de cette étude nous conduisent à élaborer un schéma de compression et d'organisation des données plus approprié à l'utilisation d'un système de transport à fiabilité partielle basé sur 2CP-ARQ. Les résultats montrent que le réseau peut bénéficier de l'utilisation de ce service de transport, qui se traduit par une moindre sollicitation des ressources du réseau, tout en satisfaisant les contraintes de l'application en termes de qualité des images reconstruites.

"Proposition d'un environnement de modélisation et de test d'architectures de pilotage par le produit"
(Soutenance de thèse Rémi PANNEQUIN)

Le développement des technologies infotroniques, qui permettent de faire porter numériquement des données par le produit afin de lui conférer un rôle actif dans la boucle cybernétique, conduisent à remettre en question l'organisation conventionnelle des systèmes de pilotage, pour s'orienter vers un pilotage par le produit. Il existe un large
consensus sur l'intérêt de cette approche dans la prise de décision tant centralisée que distribuée. Cependant, peu de travaux portent sur l'évaluation de l'efficience du pilotage par le produit dans l'interaction entre des systèmes d'information centralisés de niveau business (ERP) et des systèmes distribués de niveaux process (MES).

Notre contribution porte sur un outil de modélisation et de simulation de systèmes de pilotage contrôlés par le produit afin d'évaluer différentes topologies d'organisation combinant décisions centralisées et/ou distribuées en comparant certains critères de productivité.

Nous présentons d'abord la définition, le développement et la validation d'un environnement d'évaluation orienté composants, basé sur un outil d'émulation et un système multi-agents, permettant d'analyser les performances d'un système de pilotage par le produit et de le comparer avec des approches classiques.

Nous présentons ensuite l'application du pilotage par le produit à partir d'une série d'expériences réalisées à l'aide de l'environnement développé. Ces expériences, menées sur un cas industriel ainsi que sur une plateforme d'expérimentation de laboratoire permettent d'éprouver et de valider la faisabilité du concept de pilotage par le produit en terme d'impact décisionnel et en terme de contraintes techniques.

"Spécifications de fonctions pour un système d'aide à la génération automatique de gamme d'usinage : Application aux pièces aéronautiques de structure, prototype logiciel dans le cadre du projet RNTL USIQUICK "
(Soutenance de thèse Ramy Farid HARIK)

Notre travail de thèse se place dans le cadre du projet RNTL USIQUICK (www.usiquick.com) dont l'objet  est de répondre aux besoins des industries aéronautiques dans le domaine de la fabrication de pièce de complexité moyenne à forte (pièce de structure). Il s'agit d'assurer l'automatisation de l'élaboration des posages, de la gamme et des programmes d'usinage de ce type de pièce. Notre contribution se trouve dans l'étude du Transformateur qui est le module de transformation de la géométrie pièce en une géométrie adaptée à la fabrication. Ce Transformateur doit fournir les informations nécessaires aux 2 modules avales d'USIQUICK : le module Préparation et le module Calcul de Trajectoire.

Les fonctions générales nécessaires à l'enrichissement du modèle CAO afin de lui adjoindre les informations nécessaires aux étapes de Préparation et de Calcul de trajectoire sont définies. L'enchaînement des étapes permettant le calcul de ces fonctions est déterminé. Il comporte une 1ère étape de caractérisation de la géométrie afin notamment :

- de distinguer les faces planes et réglées qui ne s'usinent pas de la même manière que les autres faces,

- les congés ou fillets qui sont des entités de raccordement entre faces « fonctionnelles » et qui seront usinés simultanément avec ces dernières,

- de caractériser les arêtes dont la forme (droite, circulaire, quelconque) et la jonction à leurs faces adjacentes influencent directement le mode d'usinage.

Lors de la deuxième étapes l'exploitation de ces informations permet de typer les faces, c'est à dire de déterminer leur mode potentiel d'usinage : UEB (usinable en bout), UEF (usinable en flanc), UQ (autre). Ce typage est complété par le calcul des directions d'usinage nécessaires et des masques qui exclut des faces UEB et UEF les zones non accessibles à l'outil. Les directions d'usinage calculées peuvent entraîner un usinage imparfait des voisinages de congés, les epsi-masques permettent de caractériser qualitativement les arêtes affectées.

La troisième étape analyse le graphe de la géométrie enrichie et détermine les faces pouvant être enchaînées simultanément.

Ces étapes Transformateur sont implémentées dans un Démonstrateur dont la validité est présentée sur quelques exemples. Son degré de robustesse est évalué.

Le mémoire se termine par une synthèse des fonctions qui devraient être implémentées dans le logiciel CATIA afin que le Transformateur  devienne un produit industriel.

Rapporteurs        

M. Bernard ANSELMETTI, Professeur, Ecole Normal Supérieur de Cachan
M. Dominique DENEUX, Professeur, Université de Valenciennes

Examinateurs      

M. Alain BERNARD, Professeur, Ecole Centrale de Nantes
M. Thierry DIVOUX, Professeur, UHP Nancy I (Directeur de Thématique)
M. Patrick MERLAT, Directeur R&D DELMIA, Dassault Systèmes
M. Gabriel RIS, Professeur, UHP Nancy I (Directeur de thèse)
M. Roland MARANZANA, Professeur, ETS Montréal
M. Christian ROUCHON, Chef de projet USIQUICK, Dassault Aviation

Invités                 

M. Jean DUNAT, DG Entreprises, Ministère de l'économie, des Finances et de l'industrie
M. Jean-Marc GRILLET, DG Opérations Industrielles, Dassault Aviation
M. Bernard GOEMAERE, Expert Préparateur, Dassault Aviation

"DEPNET: Une approche support au processus de gestion de conflits basée sur la gestion des données de conception "
(Soutenance de thèse Mohamed Zied OUERTANI)

Résumé :
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.

C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche *DEPNET* (product *D*ata d*EP*endencies *NET*work identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.

Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en ?uvre des apports de ce travail de recherche est présentée au travers du prototype logiciel *DEPNET*. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.



Jury :

Rapporteurs :
Michel Bigand MdC HDR à l'Ecole Centrale de Lille
Abdelaziz Bouras Professeur à l'Université Lumière - Lyon 2

Examinateurs :               
Gérard Morel Professeur à Nancy Université  
Michel Tollenaere Professeur à l'INP-Grenoble
Sandor Vajna Professeur à l'Otto-von-Guericke-Universitaet Magdeburg-Allemagne
Gabriel Ris Professeur à Nancy Université
Lilia Gzara Maître de Conférences à Nancy Université

"Validation de données débitmétriques issues de réseaux d'assainissement"
(Soutenance de thèse Farida HAMIOUD)

L'objectif de ce mémoire de thèse est de valider les mesures débimétriques issues des réseaux d'assainissement. Des défaillances techniques dans les capteurs de mesure ou l'existence des phénomènes perturbateurs produisent des anomalies sur ces mesures. Notre travail consiste à proposer une procédure de diagnostic hors ligne capable de détecter et de localiser les défauts de mesures. Cette procédure est à base de modèles analytiques.
Nous avons établi dans un premier temps, un ensemble de modèles linéaires pour générer des résidus. Ces derniers ont permis d'établir la matrice des signatures des défauts expérimentales. Ensuite, une première technique de diagnostic a été considérée. Elle consiste à combiner le test de Page pour la détection des défauts et le calcul de distance Euclidienne entre les signatures des défauts théoriques et la signature expérimentale de chaque défaut pour la localisation des capteurs en défauts. Puis, deux autres techniques ont été proposées. Elles sont basées sur l'analyse conjointe des résidus générés et des symptômes des défauts. L'une est appelée DMP (Model Diagnostic Processor) et l'autre est à base de concepts de la logique floue. A la fin, les performances de ces techniques ont été calculées pour pouvoir les comparer. Nous avons amélioré les performances de la dernière technique en proposant un nouvel opérateur d'agrégation et en considérant la persistance des défauts.

Mots clés: défaut, détection, diagnostic, floue, localisation, redondance, réseau d'assainissement, résidu.

Composition du jury :
Belkacem Ould Bouamama, Professeur, USTL, Villeneuve d'Ascq
Patrice Chatellier, Sous-Directeur Développement et Valorisation, LCPC, Paris
Claude Joannis, Ingénieur, LCPC, Bouguenais
Michel Robert, Professeur, ESSTIN, Vandoeuvre
José Ragot, Professeur, ENSG, Vandoeuvre

"Contribution à la modélisation et à la commande des systèmesélectrohydrauliques"
(Soutenance de thèse Abdelfettah HOCINE)

Ce travail concerne la détection de défaut sur les systèmes sujet à des changements de mode de fonctionnement. Nous avons choisi de modéliser le système réel par un système à commutation markovienne qui est représenté par un ensemble de modèles de fonctionnement (fonctionnements normaux et anormaux) et par une matrice de probabilité de transition de Markov qui contient les probabilités de passage d'un modèle de fonctionnement à un autre. La représentation du système étant fixé, celle-ci offre un cadre idéal à l'application de l'estimation multi-modèle. L'intérêt d'utiliser ce type d'estimateurs réside dans le fait qu'en plus de l'estimation de l'état du système, les estimateurs multi-modèle procurent la probabilité d'occurrence ou d'activation de chaque modèle de fonctionnement. Ces probabilités peuvent être utilisées pour la détection de défaut. Dans ce travail, nous avons utilisé les spécificités de l'estimation multi-modèle afin de procéder à la détection et l'isolation des défauts qui peuvent affecter un système linéaire. Cependant, plusieurs améliorations et aménagements ont été apportés à cet estimateur dans le but d'augmenter les performances du diagnostic.

Rapporteurs :
Michel Vergé, ENSAM Paris Dimitri Lefebvre, Université le Havre

Examinateurs :
Mustapha Ouladsine, LSIS Marseille Didier Theilliol, CRAN, UHP Didier Maquin, CRAN, INPL José Ragot, CRAN, INPL


"Contribution à la modélisation et à la commande des systèmesélectrohydrauliques"
(Soutenance de thèse Mohamed TAFRAOUTI)

Ce mémoire est dédié à la modélisation et à la commande linéaire et non linéaire des systèmes à fluide sous pression et plus particulièrement des actionneurs électrohydrauliques.

Le premier chapitre de ce mémoire est donc dédié à la modélisation des actionneurs électrohydrauliques. Nous y rappelons les notions fondamentales de la mécanique classique, de la mécanique des fluides et les propriétés des fluides hydrauliques usuels pour en déduire les modèles de connaissance des actionneurs électrohydrauliques utilisés pour l’asservissement de position. Les caractéristiques technologiques des pré-actionneurs généralement utilisés en boucle fermée, sont passées en revue afin d’établir leurs modèles statiques et dynamiques. Les modèles obtenus sont des équations différentielles non linéaires seulement continues (c’est-à-dire non dérivables) et décrivent, d’une part, l’évolution de la pression dans chaque chambre du vérin et, d’autre part, les équations de mouvement de l’ensemble charge et vérin.
Nous proposons également un nouveau modèle de dimension réduite qui tient compte de la dynamique de la pression différentielle. Ce modèle de la pression différentielle est moins restrictif que ceux présentés dans la littérature. Les modèles incluant la dynamique du ou des distributeurs, représentée par une équation différentielle linéaire du
premier ordre, sont également proposés. Ces modèles seront utilisés dans les chapitres suivants pour la synthèse des lois de commande.

Le deuxième chapitre est consacré à l’étude de l’ensemble d’équilibre des modèles non linéaires, à l’analyse de la stabilisabilité et de la détectabilité des modèles inéaires obtenus par approximation au premier ordre (au voisinage d’un point d’équilibre) et à la synthèse de lois de commande linéaire des actionneurs hydrauliques. L’analyse de la stabilisabilité et de la détectabilité locale est effectuée pour les différents modèles proposés et montre que ces propriétés dépendent du point de fonctionnement choisi et de la configuration du système. Nous avons montré, plus particulièrement que, dans le cas le plus défavorable, c’est-à-dire pour la position d’équilibre y0=0, il existe un mode stable non observable et non commandable lorsque le pré-actionneur est commandé à travers un distributeur. Dans le cas de deux distributeurs, ce mode est non observable mais commandable. La partie suivante consiste à synthétiser les lois de commande linéaire lorsque le point de fonctionnement est choisi dans ce cas le plus
défavorable. Nous y abordons dans un premier temps la commande par rétroaction de la position en utilisant des correcteurs de type PID.

Nous passons ensuite en revue les différentes façons pour améliorer l’amortissement du système soit en introduisant des éléments dissipatifs comme les fuites par exemple, soit en introduisant des boucles de rétroactions secondaires (rétroaction de la pression différentielle, de l’accélération ou de la vitesse). La dernière partie de ce chapitre concerne la synthèse de correcteur par retour d’état statique de la forme u=-Kx. Les stratégies proposées sont la commande par placement de pôles, la commande optimale et la commande proportionnelle intégrale par retour d’état. Les différentes lois de commande sont simulées sur le modèle non linéaire pour différentes consignes et ne tiennent pas compte de la dynamique du distributeur. Les résultats que nous présentons dans ce chapitre ont un caractère local. Ces résultats ne sont pas toujours satisfaisants lors d’un changement de point de fonctionnement ou lorsque, pour des raisons économiques, un distributeur proportionnel ou un servodistributeur (moins performants que les servovalves) est utilisé pour actionner le vérin.

Le troisième chapitre aborde la commande non linéaire par retour d’état des actionneurs hydrauliques commandés respectivement à travers un ou deux pré-actionneurs. La première partie est consacrée à la stabilisation d’un vérin commandé à travers deux distributeurs. Dans un premier temps, nous proposons un résultat sur la commande par ajout d’intégrateur pour les systèmes dont le champ de vecteur est seulement continu. Il s’agit d’une amélioration des résultats présentés dans la littérature. La première phase de l’application de ces résultats aux systèmes électrohydrauliques consiste à synthétiser une loi de commande stabilisant le système sans la dynamique des distributeurs. Cette loi de commande est obtenue en appliquant une stratégie de type Jurdjevic-Quinn. Ensuite nous déduisons une loi de commande par ajout d’intégrateur qui tient compte de la dynamique des distributeurs et ceci sans effectuer aucune linéarisation. La deuxième partie aborde la stabilisation des actionneurs lectrohydrauliques commandés par un distributeur en utilisant le nouveau modèle réduit proposé au premier chapitre. La démarche adoptée est similaire au cas de deux distributeurs. Notons que les fonctions de Lyapunov, nécessaires à la synthèse de ces lois de commande, sont construites à partir des intégrales premières du système non commandé. Nous avons finalement montré en simulation que les performances des lois de commande proposées sont très peu sensibles aux variations de la dynamique des distributeurs et aux changements de points de fonctionnement. Notons que ces résultats peuvent êtres également transposés à la stabilisation des actionneurs électropneumatiques.

 

"Estimation de l'état et des entrées inconnues pour une classe de systèmes non linéaires"
(Soutenance de thèse Estelle CHERRIER)

Résumé :

Les systèmes chaotiques constituent une classe de systèmes non linéaires dont le comportement est très complexe. Ils sont si sensibles aux conditions initiales, bien qu'étant régis par des lois rigoureuses et parfaitement déterministes, que toute prévision de leur comportement est impossible : il s'agit du fameux effet papillon . Pourtant, en 1990, la capacité de synchronisation des systèmes chaotiques a été mise en évidence. Par la suite, ce problème de synchronisation a été relié au problème standard d'estimation d'état non linéaire, ce qui a ouvert la voie à des recherches intensives, motivées par les applications potentielles. Parmi celles-ci, les cryptosystèmes (ou systèmes de transmission sécurisée d'information) chaotiques exploitent les propriétés fondamentales des systèmes chaotiques et leur capacité de synchronisation. L'aspect aléatoire des signaux chaotiques est mis à profit pour noyer l'information à transmettre. Par un processus de synchronisation, le récepteur est capable d'estimer l'état de l'émetteur, puis d'effectuer le décryptage du message crypté. L'étape de synchronisation est cruciale : elle permet au récepteur d'estimer les signaux utiles pour la restauration du message, en l'occurrence les états de l'émetteur, sans aucune connaissance sur l'état initial de l'émetteur.
Cette thèse présente une étude fondamentale sur le problème de conception de systèmes de transmission sécurisée d'information exploitant les propriétés des systèmes chaotiques et leur capacité de synchronisation. La conception d'un cryptosystème chaotique passe par trois étapes principales, à savoir le choix de l'émetteur, le développement du récepteur, et la mise au point du processus de transmission de l'information. Le cryptosystème proposé s'inspire du principe de transmission à deux voies : deux signaux sont transmis au récepteur, ce qui permet de découpler totalement les phases de synchronisation et de cryptage.
L'émetteur retenu est un système chaotique comportant un retard. Des récepteurs spécifiques ont été concus sous forme d'observateurs non linéaires. La synchronisation est établie après l'envoi d'un premier signal chaotique. La transmission de l'information repose sur une technique de masquage par modulation de la phase d'un second signal chaotique, en fonction du message. Une analyse de la sécurité de ces deux phases a été menée. La sécurité du processus de cryptage repose sur l'existence d'un clé secrète, qui induit les propriétés de confusion et de diffusion du cryptosystème proposé. Une nouvelle classe de systèmes chaotiques est présentée, ainsi que la synthèse d'observateurs correspondants, dans le but de renforcer la sécurité du processus de synchronisation, sécurité liée à la complexité des signaux transmis au récepteur. Cette méthode s'appuie sur le principe des multimodèles, et définit des multimodèles chaotiques. Le problème de la robustesse du cryptosystème vis-à-vis de bruits de transmission a été abordé.

Rapporteurs :
Geneviève Dauphin-Tanguy, professeur Ecole Centrale de Lille Mohammed M'Saad, professeur Ensicaen

Examinateurs :
Mohamed BOUTAYEB, professeur LSIIT, Illkirch Fabrice HEITZ, professeur LSIIT, Illkirch Gilles MILLERIOUX, professeur, CRAN, Vandoeuvre José RAGOT, professeur, CRAN, Vandoeuvre

Invité :
Moulay A. AZIZ-ALAOUI, professeur LMAH, Le Havre

"Etude des interactions du photosensibilisant méta-tétra(hydroxyphényl)chlorine avec les protéines de plasma et les cellules"
(Soutenance de thèse Siarhei SASNOUSKI)

Rapporteurs :
Dr. S. MacRobert (UCL, Londres)
Dr. D. Brault (BIOMOCETI, UMR CNRS 7033, Paris)

Jury :
Dr. L. Bezdetnaya-Bolotine (CAV CRAN UMR CNRS 7039)
Dr. V. Zorin (BSU, Minsk)
Pr. A. Fedulov (BSMU, Minsk)
Pr. F. Guillemin (CAV CRAN UMR CNRS 7039)

"Diagnostic des systèmes à changement de régime"
(Soutenance de thèse Elom Ayih DOMLAN)

Résumé :

De façon générale, la modélisation de systèmes complexes conduit à l'obtention de modèles non-linéaires dont la dynamique est influencée à la fois par des événements discrets et des dynamiques continus. Le principe de « simplicité » conduit, le plus souvent, à une démarche de modélisation s'appuyant sur l'utilisation d'un ensemble de modèles de structures simples (par exemple linéaires), chaque modèle décrivant le comportement du système dans une zone de fonctionnement particulière. Le comportement global du système est alors décrit à l'aide des modèles locaux et d'un mécanisme de gestion des transitions d'un modèle à un autre. En fonction de la forme des fonctions associées à ces transitions, on obtient différentes classes de modèles, notamment les « multimodèles »dans le cas de transitions lisses (interpolation entre les modèles locaux) et les modèles dits « hybrides »dans le cas de transitions abruptes. Cette dernière classe de modèles, les modèles hybrides, constituent l'objet de cette thèse.
Les modèles hybrides caractérisent des processus physiques régis par des équations différentielles continues et des variables discrètes. Le processus modélisé est ainsi décrit par plusieurs modes de fonctionnement et le passage (commutation) d'un mode de fonctionnement à un autre est régi par l'évolution de variables internes du système ou par une loi externe non maîtrisée. Lorsque la représentation des modes de fonctionnement est faite à l'aide de modèles linéaires invariants, le modèle obtenu appartient à la classe des modèles linéaires par morceaux ou encore celle des systèmes à commutation. Cette classe de modèles est largement utilisée, car les outils d'analyse et de commande pour les systèmes linéaires sont très développés et aussi parce qu'une grande partie des processus réels peut être représentée par les modèles issus de cette classe.
Les recherches sur les systèmes à commutation sont essentiellement concentrées dans les domaines de l'identification, de la synthèse de loi de commande et de l'analyse de la stabilité. Un point crucial, nécessaire pour la mise en ¦uvre de tous ces outils ou qui en simplifierait l'usage, est la reconnaissance du mode de fonctionnement actif à un instant particulier à partir de jeux de mesures. Elle est évidemment plus aisée si le mécanisme de commutation (ou loi de commutation) est maîtrisé. Ceci justifie l'importance de l'identification du mécanisme de gestion des transitions d'un mode de fonctionnement à un autre.
Cette thèse aborde les deux problèmes évoqués précédemment : la reconnaissance du mode de fonctionnement actif à un instant particulier à partir de jeux de mesures et l'identification du mécanisme de gestion des transitions d'un mode de fonctionnement à un autre. Les outils du diagnostic à base de modèle sont utilisés pour la résolution du premier problème, le deuxième étant traité à l'aide des méthodes de reconnaissance de forme et de classification.

Rapporteurs :
Vincent COCQUEMPOT LAGIS Ecole Centrale de Lille Janan ZAYTOON CRESTIC Université de Reims
Examinateurs :
Luc DUGARD, ENSIEG, St Martin d'Hères Michel DE MATHELIN, EAVR LSIIT, Illkirch Didier MAQUIN, ENSEM, INPL José RAGOT, ENSG, INPL

"Analyse automatique des crises d'épilepsie du lobe temporal à partir des EEG de surface"
(Soutenance de thèse Matthieu CAPAROS)

Résumé :

L'objectif de la thèse est le développement d'une méthode de caractérisation des crises d'épilepsie du lobe temporal à partir des EEG de surface et plus particulièrement de la zone épileptogène (ZE) à l'origine des crises.

Des travaux récents validés en stéréoélectroencéphalographie (SEEG) ont démontré une évolution des synchronisations entre structures cérébrales permettant une caractérisation de la dynamique des crises du lobe temporal.

L'originalité des travaux consiste à étendre les méthodes développées en SEEG, à l'étude des signaux EEG de surface. Du point de vue médical, ce travail s'inscrit dans le cadre de l'aide au diagnostic préchirugical.

Des méthodes de mesure de relation, telles que la cohérence, la Directed Transfer Function (DTF), la corrélation linéaire (r²) ou la corrélation non-linéaire (h²), ont été adaptées pour répondre à cette problématique. Différents critères, définis à partir d'indications cliniques, ont permis la mise en évidence des avantages du coefficient de corrélation non-linéaire dans l'étude de l'épilepsie par les EEG de surface.

L'exploitation de l'évolution du coefficient de corrélation non-linéaire est à la base de trois applications de traitement automatique du signal EEG :
    - La première est la détermination de la latéralisation de la ZE au départ d'une crise. Cette information constitue l'étape préliminaire lors de la recherche de la localisation de la ZE.
   - La recherche d'une signature épileptique constitue la seconde application. La signature est extraite par un algorithme de mise en correspondance et de mesure de similarités en intra-patients.
    - Une classification des crises du lobe temporal contitue la troisième application. Elle est réalisée en extrayant un ensemble de caractéristiques des signatures trouvées par l'algorithme de l'étape 2.

La base de données qui contient quarante-trois patients et quatre-vingt-sept crises (deux crises par patient, trois pour l'un d'entre eux) garantit une certaine significativité statistique.

En ce qui concerne les résultats, un taux de bonne lateralisation de l'ordre de 88% est obtenu. Ce taux est très intéressant, car dans la littérature, il peut être quelques fois atteint, mais en exploitant des données multimodalités et avec des méthodes non-automatiques. A l'issue de la classification, 85% des crises mésiales ont été correctement classifiées ainsi que 58% des crises mésio-latérales.


Mots-Clés : épilepsie, EEG de surface, aide au diagnostic, synchronisation, latéralisation, mise en correspondance, extraction de caractéristiques

Rapporteurs :
Catherine Marque      Professeur, Biomécanique et Génie Biomédical, (UTC)
Patrick Chauvel       PUPH, Service de Neurophysiologie Clinique, CHU la Timone

Examinateurs :
Didier Wolf           Professeur, CRAN (INPL) - directeur de thèse
Valérie Louis-Dorr    Maitre de conférence, CRAN (INPL) - co-directrice de thèse
Fabrice Wendling      Chargé de recherche, LTSI, (Université de Rennes 1)
Jean-Pierre Vignal    Docteur, CHU de Nancy, service de Neurologie

Invité
Hervé Vespignani      PUPH, CHU de Nancy, service de Neurologie

"Contribution à la Modélisation et à la Gestion des Interactions Produit-Processus dans la Chaîne Logistique par l'Approche Produits Communicants"
(Soutenance de thèse - Aldo CEA)

Résumé :

Dans le domaine de la chaîne logistique, nous constatons des besoins croissants d'information et d'interactions entre produits, processus et clients, et ceci durant le cycle de vie du produit. Cela entraîne le besoin, au niveau du produit, de nouvelles capacités de communication, de gestion de l'information, de perception et d'action avec son environnement physique. Ces besoins ont engendré le concept de produit ou objet communicant. Un produit avec ces nouvelles capacités pourra interagir avec d'autres entités physiques ou informationnelles dans son environnement et apporter des transformations significatives sur la gestion de la chaîne logistique. Le travail présenté dans cette thèse vise à analyser et contribuer à appliquer la notion d'objet communicant aux produits physiques dans le domaine de la chaîne logistique.
L'approche proposée considère un produit comme un demandeur ou un fournisseur de services. La méthodologie proposée de gestion des produits communicants s'appuie sur la caractérisation d'une architecture de services ambiants devant permettre de gérer les services d'un produit d'une façon automatique et ubiquiste. Nous avons choisi l'architecture UPnP pour gérer les services des objets communicants. La communication directe avec le produit est supportée par les méthodes d'identification automatique RFID. Nous nous sommes appuyés sur le formalisme standard de modélisation UML afin de modéliser les interactions et les services associés à un produit physique. Comme résultat, nous avons élaboré des démonstrateurs de laboratoire validant la faisabilité de notre proposition méthodologique de gestion de la chaîne logistique par les objets communicants.

Composition du jury :

*Rapporteurs :*
M. Jean-Pierre CAMPAGNE Professeur, INSA Lyon
M. Duncan McFARLANE Professeur, Université Cambridge
M. Jean Jacques PANSIOT Professeur, Université Louis Pasteur Strasbourg

*Examinateurs : *
M. Eddy BAJIC Professeur, UHP, Nancy I (Directeur de recherche)
M. Gérard MOREL Professeur, UHP, Nancy I
M. Didier WOLF Professeur, INPL Nancy

"Systèmes dynamiques chaotiques pour le chiffrement : synthèse et cryptanalyse"
(Soutenance de thèse - Floriane ANSTETT)

Résumé

Le travail porte sur la synthèse et la cryptanalyse des schémas de chiffrement basés sur le chaos. Ces schémas utilisent, côté émetteur, des systèmes dynamiques non linéaires exhibant un comportement chaotique. La séquence complexe ainsi produite est utilisée pour masquer  une information. Plusieurs modes de chiffrement sont étudiés : la modulation chaotique, la modulation paramétrique, et le chiffrement par inclusion, principalement dans le cas des systèmes chaotiques à temps discret. Pour ces schémas, la reconstruction de l'information, nécessite la synchronisation de l'émetteur et du récepteur. Un observateur joue le rôle du récepteur.
Tout d'abord, le lien entre le chiffrement par le chaos et le chiffrement usuel est établi.
Concernant la modulation chaotique, nous proposons pour le déchiffrement, une méthode systématique de synthèse d'observateur polytopique; tenant compte de la spécificité du problème liée au chaos. Dans la modulation paramétrique, côté émetteur, l'information claire module les paramètres d'un système chaotique. Pour réaliser la synchronisation, un observateur adaptatif polytopique assurant la reconstruction simultanée état/paramètre est proposé. 
Enfin, la cryptanalyse du chiffrement par inclusion est effectuée. Nous considérons des systèmes présentant uniquement des non linéarités polynomiales qui englobent un grand nombre de systèmes chaotiques usuels. La sécurité de ce schéma repose sur les paramètres du système chaotique, supposés jouer le rôle de clé secrète. Un formalisme général, basé sur le concept de l'identifiabilité, est élaboré pour tester la reconstructibilité de ces paramètres. Les différentes définitions de l'identifiabilité sont récapitulées et des approches permettant de tester l'identifiabilité sont présentées. Ce formalisme est appliqué sur des schémas usuels de chiffrement par inclusion afin de tester leur sécurité.

Composition du jury :

Rapporteurs
M. Hasler, professeur à l'Ecole Polytechnique  Fédérale de Lausanne
G. Garcia, professeur à l'Institut National des Sciences Appliquées de Toulouse

Examinateurs
L. Denis-Vidal, maître de conférences HDR à l'Université des Sciences et Techniques de Lille
P. Guillot, maître de conférences à l'Université Paris 8

Directeur de thèse
G. Bloch, professeur à l'Université Henri Poincaré - Nancy 1

Co-directeur de thèse
G. Millérioux, professeur à l'Université Henri Poincaré - Nancy 1

"Imagerie cardiaque multimodalités 2D et 3D : application à la coronarographie, tomoscintigraphie, TEP-CT"
(Soutenance de thèse - Juan Manuel LOPEZ-HERNANDEZ)

Résumé :


La coronarographie et la tomoscintigraphie (SPECT, de l'anglais "Single Photon Emission Computed Tomography") sont deux techniques d'imagerie utilisées couramment pour diagnostiquer les maladies cardiovasculaires. La première modalité est constituée de séquences d'images à rayon X visualisant chacune, dans un même plan, les artères coronaires situées sur la face avant et la face arrière du c?ur. Les images à rayons X fournissent des informations anatomiques liées à l'arbre artériel et mettent en évidence d'éventuels rétrécissements des artères (sténoses). La modalité SPECT (imagerie nucléaire) fournit une représentation 3D de la perfusion du volume myocardique. Cette information fonctionnelle permet la visualisation de régions myocardiques souffrant de défauts d'irrigations. Le but du travail présenté est de superposer, en 3D, les informations fonctionnelles et anatomiques pour établir un lien visuel entre des lésions artérielles et leurs conséquences en termes de défauts d'irrigation. Dans la représentation 3D choisie pour faciliter le diagnostic, la structure d'un arbre artériel schématique, comprenant les sténoses, est placée sur le volume de perfusion. Les données initiales sont constituées d'une liste de points représentatifs de l'arbre artériel (points d'arrivée et de départs de segments d'artères, bifurcations, sténoses, etc. ) marqués par le coronarographiste dans les images à rayons X des différentes incidences. Le volume de perfusion est ensuite projeté sous les incidences des images de coronarographie. Un algorithme de recalage superposant les images à rayons X et les projections SPECT correspondantes fournit les paramètres des transformations géométriques ramenant les points marqués dans les images à rayons X dans une position équivalente dans les images SPECT. Un algorithme de reconstruction 3D permet ensuite de placer les points artériels et les sténoses sur le volume de perfusion et de former un arbre schématique servant de repère au clinicien. Une base de données formée de 28 patients a été utilisée pour effectuer 40 superpositions 3D de données anatomo-fonctionnelles. Ces reconstructions ont montré que la représentation 3D est suffisamment précise pour permettre d'établir visuellement un lien entre sténoses et défauts de perfusions. Nos algorithmes de superpositions 3D ont ensuite été complétés pour remplacer la modalité SPECT par les données de l'examen bimodal TEP/CT (Tomographie par Emission de Positons/Tomodensitométrie). Les données d'un cas clinique trimodal TEP/CT/coronarographie ont été utilisées pour vérifier l'adéquation de nos algorithmes à la nouvelle modalité d'imagerie.

Mots clés: Recalage 2D multimodal, segmentation des contours myocardiques, reconstruction et superposition 3D, coronarographie, SPECT, TEP-CT, lancé de rayons.

Composition du jury :

Rapporteurs :
Jean Claude CARDOT CHU Jean-Minjoz, FRANCE
Maria da Graça CRISTO dos SANTOS Lopez Ruano University of Algarve, PORTUGAL

Examinateurs :
Gilles KARCHER Directeur de thèse ? CHU Nancy, FRANCE
René HUSSON Co-Directeur de thèse ? CRAN ? Nancy, France
Gérard ETHEVENOT CHU Nancy, FRANCE
Christian DAUL CRAN ? Nancy, FRANCE

Invité :
Didier WOLF CRAN ? Nancy, FRANCE

"Architecture de coopération de réseaux sans fil"
(Soutenance de thèse - Davy DARCHE)

Résumé :


Ce travail de thèse aborde les problématiques de coopération de réseaux hétérogènes et de leurs exploitations par un terminal multi-interfaces en situation de mobilité. Le phénomène de convergence des services vers un support unique place le protocole IP comme moyen de communication universel pour le transport de l'information. Cependant, le modèle TCP/IP actuel ne permet pas d'exploiter simultanément, et efficacement, les différentes connexions radio (UMTS, 02.11, DVB) potentiellement disponibles auprès d'un terminal.
Nous avons réalisé un état de l'art, mettant en exergue les insuffisances des solutions actuelles, et nous permettant de définir les modes de coopération de réseaux. Nous proposons ici une nouvelle architecture protocolaire reposant
sur les protocoles IPv6 et SCTP, et intégrant une entité de gestion des différents réseaux affin d'obtenir une coopération de réseaux optimisée pour un service donné. A travers une expérimentation et diverses simulations, nous avons pu évaluer, par partie, les performances du modèle proposé.

Composition du jury :

Rapporteurs :
Ken Chen
Francine Krief

Examinateurs :
Laurent Toutain
Francis Lepage
René Kopp
Eric Gnaedinger

"Interactions commande-diagnostic. Application à la synthèse simultanée des algorithmes de commande et de détection des défauts."
(Soutenance de thèse - Philippe JACQUES)

Résumé :

Dans la majeure partie des travaux jusqu'alors effectués pour la surveillance des systèmes, les outils servant à la détection et à la localisation des défauts sont synthétisés à partir d'une représentation en boucle ouverte du système. Pourtant, les systèmes industriels sont souvent, pour ne pas dire toujours, insérés dans une boucle de régulation ou d'asservissement.
De plus, un rapide examen des rôles de la commande d'un système et de sa surveillance souligne des objectifs contradictoires : en effet, l'une des caractéristiques d'une commande performante est de minimiser (voire annuler) les effets des perturbations et des défauts sur les sorties du système tandis que le diagnostic a pour fin de souligner la présence de ces défauts. Suite à cette constatation et à la vue des quelques travaux déjà effectués dans le domaine, il apparaît clairement que l'existence d'incertitudes de modèle induit une dégradation dans la qualité du diagnostic du système en raison de sa commande.

La prise en compte de la présence d'incertitudes implique une influence des performances de la commande sur celles du module de diagnostic. Ainsi, la mise au point d'une procédure de diagnostic appropriée aux systèmes bouclés doit tenir compte de leur commande et de leur structure.

Les travaux présentés dans cette thèse sont axés sur l'étude des interactions existant entre la commande et le diagnostic et sur leur prise en compte lors de la synthèse des algorithmes de commande et de détection des défauts.

Dans un premier chapitre, les origines des interactions entre la commande et le diagnostic sont mises en avant et l'étude menée dans cette partie justifie la prise en compte de la loi de commande et de sa structure lors de la synthèse d'un module de diagnostic adapté au système en boucle fermée. Ensuite différentes méthodes existant dans le domaine du diagnostic des systèmes incertains bouclés sont examinées et classées suivant deux critères : le premier et le plus aboutit consiste à synthétiser simultanément la loi de commande et le générateur de résidus tandis que le second propose de prendre en compte la connaissance du correcteur dans la génération et l'évaluation des résidus après avoir synthétisé la loi de commande indépendamment du diagnostic. A partir de cet état de l'art, nous présentons nos motivations et nos objectifs.

Une méthode de synthèse simultanée des algorithmes de commande et de détection des défauts dans le cas de la seule prise en compte du régime de fonctionnement établi des systèmes est présentée au chapitre 2. Les lois de commande proportionnelle et proportionnelle intégrale sont envisagées afin de mettre en avant les conséquences de la présence d'une action
intégrale dans la loi de commande sur notre méthode. Cette méthode se base sur le formalisme des problèmes multi-objectifs : après un état de l'art des méthodes de synthèse multi-objectifs appliquées à l'automatique, notre problème de synthèse simultanée des algorithmes de commande et de détection des défauts est exprimé suivant la méthode min-max. Ce critère fait intervenir deux indices de performances : l'un porte sur les performances de régulation du système tandis que l'autre représente l'amplitude minimale détectable d'un défaut. Le compromis entre les performances de la commande et celles de la détection de défauts s'effectue par le choix de 2 paramètres dont l'influence sur les résultats de l'optimisation du critère multi-objectifs est examinée au travers une courbe de Pareto.
Afin d'assurer un bon comportement dynamique du système bouclé (stabilité et rapidité), l'optimisation du critère multi-objectifs est réalisée sous une contrainte de placement des pôles du système en boucle fermée.
La génération des résidus étant issue d'une synthèse en boucle fermée, une technique d'évaluation des résidus particulière au contexte de boucle fermée est ensuite mise en oeuvre.

Un exemple de simulation est introduit afin d'illustrer l'apport de notre approche par rapport à l'approche classique de synthèse découplée des algorithmes de commande et de détection des défauts. Cet exemple souligne également l'intérêt, tant pour la commande que pour la détection des défauts, de considérer une loi de commande proportionnelle intégrale.

Le chapitre 3 propose d'étendre l'étude menée au chapitre 2 à l'ensemble du fonctionnement des systèmes par la considération de performances dynamiques lors de la synthèse du générateur de résidus. Cette partie s'appuie sur la méthode de l'espace de parité adaptée à la prise en compte d'erreurs de modèle multiplicatives et de perturbations additives.

"Filtrage robuste pour les systèmes stochastiques incertains"
(Soutenance de thèse - Souheil HALABI)

Résumé :

Ce mémoire aborde la synthèse de filtres d'ordre plein et d'ordre réduit pour les systèmes stochastiques à temps continu avec bruits multiplicatifs. Les bruits considérés dans l'équation d'état ou dans l'équation de mesures sont des processus de Wiener.
Les systèmes stochastiques étudiés dans ce mémoire sont écrits sous la forme d'une équation différentielle stochastique au sens d'Itô dans lesquels la dérive ou la diffusion sont linéaires et/ou bilinéaires.
Les systèmes avec plusieurs bruits multiplicatifs et les systèmes dont les mesures sont affectées par des bruits multiplicatifs sont également traités dans ce mémoire. La conception d'une commande basée sur un observateur pour les systèmes stochastiques incertains est étudiée.
Le critère de performance considéré est le critère H-infini du signal de perturbation vers le signal d'erreur d'estimation.
La stabilité retenue pour ces systèmes stochastiques est la stabilité asymptotique en moyenne quadratique.
La méthode utilisée pour trouver les matrices des filtres est basée sur l'utilisation de la théorie de Lyapunov généralisée aux EDS, la formule d'Itô et sur la résolution des LMIs couplées à des contraintes bilinéaires qui assurent la stabilité et la performance.

Mots clés : Systèmes stochastiques, Systèmes stochastiques incertains, Filtrage H-infinie, Filtrage H-infinie d'ordre réduit, Robustesse, Fonction de Lyapunov, Stabilité exponentielle en moyenne quadratique, Formule d'Itô, Inégalité Matricielle Affine (LMI), Processus de Wiener.

Composition du jury :

Rapporteurs :

Germain GARCIA, Professeur, LAAS, INSA, Toulouse,
Driss MEHDI, Professeur, Université de Poitiers,

Examinateurs :

Mohamed DAROUACH, Professeur, CRAN, Université Henri Poincaré, Nancy I,
Rachid OUTBIB, Professeur, L2ES, Université de Technologie de Belfort-Montbéliard,

Encadrants :

Hugues RAFARALAHY, Maître de Conférences, CRAN, Université Henri Poincaré, Nancy I,
Michel ZASADZINSKI, Professeur, CRAN, Université Henri Poincaré, Nancy I

Séparation de sources non-négatives. Application au traitement des signaux de spectroscopie
(Soutenance de thèse - Saïd MOUSSAOUI)

Résumé :

Lors de l'analyse physico-chmique d'une substance multi-composantes par des techniques spectroscopiques, les signaux mesurés sont des mélanges linéaires des spectres purs de différentes composantes de cette substance. L'objectif de l'analyse est d'identifier la composition de la substance via l'estimation des spectres purs et la détermination de leurs concentrations. C'est un problème de séparation de sources dans lequel les spectres purs sont les signaux sources et les coefficients de mélange permettent de déduire les proportions des différentes composantes dans la substance. Dans le cas de données spectroscopiques, la contrainte principale est la non-négativité des signaux sources et des coefficients de mélange. Il s'agit donc d'un problème de séparation de sources non-négatives.

La séparation de sources est un problème fondamental en traitement du signal dont une hypothèse forte est celle de l'indépendance statistique des signaux sources. Compte tenu du recouvrement entre les spectres purs, leur corrélation mutuelle devient parfois importante. Dans une telle situation, l'application d'une méthode fondée sur l'hypothèse d'orthogonalité s'avère infructueuse. Par ailleurs, une analyse des solutions admissibles sous la contrainte de non-négativité montre que cette contrainte toute seule ne permet d'obtenir une solution unique que dans certains cas particuliers. Ces deux constats motivent le d éveloppement de deux méthodes qui considèrent conjointement l'hypothèse d'indépendance et l'information de non-négativité. La première méthode est issue de l'approche de séparation par maximum de vraisemblance et la deuxième se fonde sur une inférence bayésienne. Une évaluation numérique des performances des méthodes développées à l'aide de données synthétiques et le traitement de signaux expérimentaux permettent, d'une part, de mettre en évidence les avantages de ces méthodes par rapport aux approches usuelles et, d'autre part, de déceler leurs limitations. Des applications au traitement de signaux réels issus de trois types de spectroscopies (Infrarouge, Raman et ultraviolet-Visible) illustrent l'apport de la séparation de sources non-négatives à l'analyse physico-chimique.

Composition du Jury :

Rapporteurs,
P.-O. Amblard, Chargé de Recherches au CNRS,
J.-Y. Tourneret, Professeur à l'INP. de Toulouse,

Examinateurs,
C. Jutten, Professeur à l'Univ. Joseph Fourier, Grenoble,
A. Mohammad-Djafari, Directeur de Recherches au CNRS,

Encadrants,
C. Carteret, Maître de Conférences à l'Univ. Henri Poincaré, Nancy 1,
D. Brie, Professeur à l'Univ. Henri Poincaré, Nancy 1,

Invité,
B. Humbert, Professeur à l'Univ. Henri Poincaré, Nancy 1.

"Contribution à la mise en place d'un système multi-capteurs pour la surveillance des eaux de surface : fusion de données et aide à la décision"
(Soutenance de thèse - Ameziane AZZAM)

Résumé :

Le travail de recherche entrepris s'inscrit dans le cadre de la mis en place d'un système de prévention à la pollution des eaux de surface, associant capteurs physico-chimiques et capteurs biologiques.

Dans une première phase, une étude statistique a été effectuée sur un jeu de données historiques du cours d'eau, afin de dégager des tendances entre paramètres.

D'autre part, une campagne de tests de pollutions, notamment par plan d'expérience, a été mené pour évaluer la réactivité des capteurs par rapport à la dynamique de leur signaux respectifs.

Un ensemble de simulations de données a permis de valider des méthodes statistiques pour la détection de changements brutaux dans le signal, notamment en utilisant des calculs de comparaison d'indices sur fenêtres glissantes par les tests de Page-Hinkley et comparaison de variances.

Ces données sont par la suite fusionnées pour établir des profils de pollutions qui sont intégrés dans le système d'aide à la décision proposé. Ce dernier se base sur des méthodes multicritères d'aide à la décision.

Mots Clefs : Aide à la décision, Analyse de variance, Comparaison d'indices par fenêtres glissantes,Fusion de données, Masques de pollution, Multi-Capteur, Multicritères, Plans d'expérience, Traitement de données.

Composition du jury :

M. POLIT         Professeur, Université de Perpignan
J.C. TRIGEASSOU         Professeur, Université de Poitiers
H. BEGORRE Professeur, Université Henri Poincaré Nancy 1
J.C. BLOCK Professeur, Université Henri Poincaré Nancy 1
M. ROBERT Professeur, Université Henri Poincaré Nancy 1


"Diagnostic et commande active tolérante aux défauts appliqués aux systèmes décrits par des multi-modèles linéaires"
(Soutenance de thèse - Mickaël RODRIGUES)

Résumé :

Cette thèse porte sur la synthèse de méthodes de diagnostic et de lois de commandes tolérantes aux défauts présents au sein de systèmes décrits par des multi-modèles linéaires. Parmi les approches dévolues à la commande tolérante aux défauts, nos activités de recherche sont consacrées à la voie active dans le cadre des systèmes décrits par des multi-modèles linéaires alliant un module de diagnostic permettant la détection, l'isolation et l'estimation de l'amplitude de défauts avec un module de reconfiguration permettant de re-synthétiser en ligne le régulateur afin d'assurer la stabilité du système en boucle fermée et les performances nominales.

Dans un premier volet consacré à la synthèse de méthodes de diagnostic, deux approches ont été développées faisant l'objet de deux chapitres distincts. La première concerne la synthèse d'un filtre adaptatif permettant de générer deux types de résidus : l'un étant sensible aux défauts et l'autre insensible. Le résidu insensible est utilisé à des fins d'obtention de fonctions de pondérations robustes aux défauts tandis que le résidu sensible est quant à lui utilisé à des fins de détection, d'isolation et d'estimation des défauts capteur ou actionneur. La stabilité de ce filtre adaptatif est analysée au moyen d'Inégalités Matricielles Linéaires (LMI). La seconde approche traite de la conception d'Observateurs polytopiques à entrées inconnues. Cette synthèse permet de rejeter des informations indésirables lors de la génération de résidus telles les erreurs de modélisation au moyen de contraintes égalités et de LMI. L'analyse de la stabilité et le placement de pôles de ces observateurs sont essentiellement basés sur l'analyse convexe par LMI ou ramenés à de tels cas.

Sur la base des travaux précédents, la dernière partie de la thèse est entièrement consacrée à la synthèse par retour d'état et de sortie de lois de commandes actives tolérantes aux défauts. Le cas de défaillances d'actionneurs, pertes d'actionneurs, est abordé en reconfigurant le régulateur tout en préservant la stabilité du système en boucle fermée par placement de pôles en régions LMI. La méthode proposée est étendue aux systèmes Linéaires à Paramètres Variants dans le temps (LPV) mis sous forme polytopique.

Mots clés :
Diagnostic, commande active tolérante aux défauts, multi-modèles, filtre de détection, observateur polytopique à entrées inconnues, stabilité, LMI

Composition du jury :

Rapporteurs :
  Ali Zolghadri                     Professeur, LAPS (ENSEIRB, Université Bordeaux I)
  Vincent Cocquempot        Maître de conférence HDR, LAGIS (Polytech'Lille,Université Lille I)

Examinateurs :
  Gilles Millérioux        Professeur, CRAN(ESSTIN)
  Youmin Zhang          Assistant professor, Aalborg University, denmark
  Didier Theilliol          Professeur, CRAN(UHP) ? co-directeur de thèse
  Dominique Sauter     Professeur, CRAN(UHP) ? co-directeur de thèse 



"Sur l'observation et la commande des systèmes dynamiques linéaires à retards"
(Soutenance de thèse - Adil ALIF)

Résumé :

Le travail présenté s'inscrit dans le cadre du suivi de trajectoires pour les systèmes à retards avec une approche temporelle. Il se divise en deux parties:

La première partie englobe tous les problèmes liés à l'estimation de l'état d'un système retardé ou neutre, à savoir, le filtrage H-infinity, filtrage à entrées inconnues, commande basée observateur. Des nouvelles approches sont introduites pour résoudre ces différents problèmes. Des comparaisons théoriques et numériques avec d'autres résultats existants dans la littérature sont effectuées pour tester l'efficacité des résultats obtenus.

La deuxième partie, basée sur des approches nouvelles, traite des problèmes du suivi de trajectoire d'un modèle dynamique quelconque. Des procédures pour construire des lois de commandes robustes permettant le suivi asymptotique de trajectoire, tout en garantissant les performances H-infinity, sont présentées. Des exemples numériques et des simulations sont montrés pour illustrer la démarche.

Mots clés :

Systèmes retardés, Systèmes neutres, Systèmes linéaires, Approche temporelle, Suivi de trajectoires, Filtrage H-infinity, Filtrage d'ordre réduit, Filtrage à entrées inconnues, Incertitudes paramétriques, Incertitudes structurées, Inégalités matricielles linéaires, Egalités matricielles linéaires, Approche dépendante du retard, Approche indépendante du retard, Suivi de modèles dynamiques, Commande basée observateur.

Composition du Jury :

Rapporteurs :
Silviu-ulian NICULESCU, Directeur de Recherche, CNRS, Heudiasyc, Compiègne
Jean Pierre RICHARD, Professeur, Ecole Centrale de Lille,

Examinateurs:
Michel FLIESS, Directeur de Recherche CNRS, STIX, école polytechnique,
Alain RICHAD, Professeur, Université Henri Poincaré Nancy 1,

Encadrants :
Mohamed DAROUACH, Professeur, Université Henri Poincaré Nancy 1,
Mohamed BOUTAYEB, Professeur, Université de Louis Pasteur Strasbourg

"Approche biométrique pour l'identification automatique des produits bois "
(Soutenance de thèse - Vincent MAZET)

Résumé :

Cette thèse s'inscrit dans le cadre d'une collaboration avec le LCPME dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps, une méthode déterministe permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée).
En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies ~ : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude naturel et très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée.
En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif~; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original a alors été introduit, il a l'intérêt de conserver l'ordre du système fixe.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.


Mots clés :

Spectroscopie infrarouge ; spectroscopie Raman ; correction de la ligne de base ; minimisation semi-quadratique ; approche bayésienne ; déconvolution impulsionnelle positive myope ; décomposition en motifs élémentaires ; simulation de loi normale tronquée.

Composition du jury :

Rapporteurs :
   Thierry Chonavel    professeur, département S&C (ENST Bretagne)
   Guy Demoment        professeur, L2S (Université Paris-Sud 11)
Examinateurs :
   Olivier Cappé       chargé de recherche, LTCI
   Jérôme Idier        chargé de recherche, IRCCyN
   Bernard Humbert     professeur, LCPME (UHP)
   David Brie          professeur, CRAN (UHP) ? directeur de thèse
Invité :
   Cédric Carteret     maître de conférences, LCPME (UHP)

" Méthodologie de passage d'un modèle CAO vers un modèle FAO pour des pièces aéronautiques : Prototype logiciel dans le cadre du projet USIQUICK"
(Soutenance de thèse - William DERIGENT)

Résumé :
L'automatisation de la chaîne CFAO nécessite la « transformation » du modèle CAO (Conception Assistée par Ordinateur), issu de la conception, en un modèle FAO (Fabrication Assistée par Ordinateur), adapté aux tâches de préparation à la fabrication (détermination des posages, génération des gammes et calcul des trajectoires outils).
Notre travail, réalisé dans le cadre du projet RNTL USIQUICK, a pour objectif de proposer une méthodologie de transformation permettant d'aboutir à un modèle FAO dédié à l'usinage 5axes de pièces aéronautiques.

En regard de cette problématique, la première partie de ce mémoire présente un état de l'art des différentes méthodes de transformation de modèles par reconnaissance d'entités et met en évidence l'inadéquation de celles-ci aux pièces aéronautiques. Nous proposons alors d'élaborer pour les tâches de préparation à la fabrication un modèle FAO s'appuyant directement sur le modèle CAO B-Rep, auquel sont ajoutées des informations relatives aux possibilités d'usinages des différentes faces le constituant. Chaque face enrichie du modèle est alors considérée comme une entité d'usinage dite « élémentaire ».

Pour aboutir à ce modèle FAO, nous proposons une méthodologie de transformation composée d'une vue statique (modèle de données) et d'une vue dynamique (processus de transformation). La deuxième partie du mémoire présente la vue statique. Elle s'appuie sur le modèle des données nécessaires au processus de transformation obtenu à l'aide de la méthodologie VIM (Viewpoint Integration Modelling). La vue dynamique, présentée dans la troisième partie, est constituée de deux étapes de traitements : la première dite étape « d'enrichissement » complète le modèle CAO par des attributs géométriques et technologiques, la seconde dite étape « d'analyse d'usinabilité » traite ce modèle enrichi afin d'adjoindre aux faces des informations d'usinage. Elle aboutit finalement au modèle FAO composé d'entités élémentaires.

Pour finir, nous validons, dans la dernière partie, les spécifications proposées par le développement et la mise en ?uvre d'un démonstrateur sous CATIAV5®. Nous présentons les résultats obtenus sur quelques pièces aéronautiques.

Jury :
Daniel BRISSAUD, Professeur (rapporteur)
Dominique DENEUX, Professeur (rapporteur)
Alain BOURJAULT, Professeur
Jean-Marc GRILLET, Dassault AVIATION
Gabriel RIS, Professeur
Muriel LOMBARD, Maître de Conférences

Invités :
Patrick MERLAT, Dassault SYSTEMES
Christian ROUCHON, Dassault AVIATION

 

"Approche biométrique pour l'identification automatique des produits bois "
(Soutenance de thèse - Cecilia FUENTEALBA)

Au travers de problèmes récurrents des filières agroalimentaires et pharmaceutiques, le concept de traçabilité est entré dans la vie courante. Les autres secteurs industriels, s'ils sont soumis à des contraintes de sécurité moindres, sont cependant concernés par le déploiement des technologies liées à ce concept. Ils cherchent par ce biais à faire face à l'exigence croissante des clients en terme de qualité, délais et personnalisation des produits dans un marché de plus en plus concurrentiel.
Le contexte particulier de ce travail est lié aux industries du bois pour lesquelles l'éco-certification et l'amélioration des processus sont deux facteurs de motivation de mise en ?uvre de la traçabilité. En effet, les caractéristiques des produits et processus de ces industries rendent complexes la synchronisation entre le flux de produits et le flux d'information, et par conséquent la capitalisation et l'accès aux informations pour tous les acteurs de la chaîne de transformation. Les problématiques soulevées sont donc:
- le manque de moyens d'identification automatique pour le suivi individuel des produits, les systèmes classiques codes-barres ou étiquettes électroniques montrant en effet leurs limites sur certaines parties du cycle de vie,
- et le manque de système d'information capable, en ligne, d'offrir les informations nécessaires à la prise de décision, et capable, a posteriori , d'assurer les fonctionnalités liées à la traçabilité.
Le travail de thèse aborde ces deux problématiques complémentaires. Dans un premier temps la mise en ?uvre d'un capteur de Contrôle Non Destructif est proposée pour établir une identification biométrique des produits. Basé sur la technologie micro-ondes, le capteur permet l'acquisition de signaux représentatifs de la structure interne des bois. Ces signaux sont traités, puis servent d'entrée à un algorithme de reconnaissance de formes.
Pour répondre à la seconde problématique, la proposition d'un modèle du système d'information est présentée. Centré sur le produit,  ce modèle prend en compte toutes les transformations possibles qu'il est susceptible de subir. De plus, la modélisation met clairement en avant les différents systèmes d'identification qui pourront être utilisés tout au long de la vie du produit.

"Systèmes contrôlés en réseau : Evaluation de performances d'architectures Ethernet commutées"
(Soutenance de thèse - Jean-Phlippe GEORGES)

La recherche dans le domaine des systèmes contrôlés en réseau a considérablement évolué depuis qu'Ethernet est de plus en plus utilisé en remplacement des traditionnels réseaux locaux industriels. Si ce choix d'Ethernet se justifie par sa faculté intrinsèque à supporter toutes les communications de l'entreprise (du bureau à l'atelier), il s'accorde difficilement avec les contraintes temporelles des applications de contrôle / commande distribuées. Contrairement aux réseaux de terrain, l'indéterminisme de l'accès à la voie d'Ethernet ne permet pas de garantir le respect des contraintes temporelles strictes.

La contribution de cette thèse est la définition d'une approche analytique permettant de majorer les délais de communication de bout en bout dans les systèmes contrôlés en réseau lorsqu'ils reposent sur une architecture Ethernet commutée. Les travaux se sont focalisés sur l'adaptation de la théorie du calcul réseau à ce type d'environnement. Dans ce cadre, cette thèse développe la modélisation d'un commutateur IEEE 802.1D ainsi qu'une méthode de calcul des délais de bout en bout basée sur l'augmentation du volume des rafales. Plusieurs expérimentations réelles ont permis de valider l'efficacité des bornes obtenues par calcul.

Outre l'évaluation de performances, ces travaux s'intéressent également à la Classification de Service (IEEE 802.1D/p) et à l'optimisation de l'ordonnancement des trames sur Ethernet. Cette thèse montre enfin comment une méthode d'évaluation de performances peut être utilisée pour dimensionner et optimiser la conception d'architectures Ethernet commutées.


Mots clés :
Systèmes contrôlés en réseau, systèmes temps-réel, évaluation de performances, Network Calculus, Ethernet commuté, classification de service

Composition du jury :

Rapporteurs :
Professeur Jean-Louis Boimond, Université d'Angers, LISA
Professeur Jean-Marc Faure, SupMéca, StOuen, LURPA
Professeur Christian Fraboul, Institut National Polytechnique de Toulouse, IRIT

Examinateurs :
Professeur Sirkka-Liisa Jämsä-Jounela, Université de Technologie d'Helsinki, Finlande

Directeurs de thèse :
Professeur Thierry Divoux, Université Henri Poincaré Nancy 1, CRAN
Professeur Eric Rondeau, Université Henri Poincaré Nancy 1, CRAN

" Contribution à un modèle d'évaluation quantitative des performances fiabilistes de fonctions électroniques et programmables dédiées à la sécurité"
(Soutenance de thèse - Karim HAMIDI)

La prévention des risques joue un rôle de plus en plus important dans les secteurs industriels, les applications de transport et les installations nucléaires. L'ajout d'une fonction dédiée à la sécurité est un choix visant, par la détection précoce d'une situation accidentogène, à éviter un accident par la mise en ?uvre de moyens de réaction permettant le retour du système dans un « état sûr ». L'estimation de ses indicateurs de performances doit donc permettre de juger des avantages en terme de réduction du risque, et des inconvénients en terme de perte économique induite par son déclenchement intempestif, que fait porter l'ajout d'une telle fonction à une installation.
L'utilisation d'architectures électroniques programmables (EP) s'est accompagnée de contraintes grandissantes (partage de ressources matérielles, informationnelles, modes dégradés de fonctionnement?), qui tendent à influencer fortement la qualité de service de telles fonctions. Il devient donc très difficile d'évaluer les performances (au sens fiabiliste) de telles fonctions. Devant l'influence grandissante des défaillances multiples sur la fiabilité de fonction de sécurité(CCF, MCF, activation de modes latents, défaillance de partie test et testée?), il nous a semblé important de proposer une méthode permettant, par une meilleure prise en compte de l'aspect temporel, d'estimer de manière plus précise les indicateurs de performances d'une fonction EP dédiée à la sécurité.
Ce travail introduit le concept d'information et interprète un mode de défaillance de la fonction d'étude comme le résultat de l'initiation et de la propagation d'information(s) erronée(s) jusqu'au niveau des actionneurs. Il propose donc de distinguer d'une part les phénomènes d'apparition et de disparition d'erreurs (matérielles et environnementales), et les séquences d'activation de celles-ci (défaillances locales) aboutissant à un mode de défaillance du système. Cette distinction permet d'expliquer le concept de « défaillances simultanées » et d'aborder de manières différentes les problématiques de défaillances de cause commune et d'activation de mode de défaillance latent. On construit, en partant de cette distinction entre existence et activation d'erreur, un modèle dynamique général d'estimation des indicateurs de performances. Il est basé sur un ensemble de modèles stochastiques, permettant de simuler l'évolution temporelle des probabilités d'erreurs matérielles pour chaque ressource (prise en compte implicite d'exposition mutuelle à des contraintes environnementales), et sur deux listes caractéristiques, donnant les combinaisons d'erreurs activées menant à un mode de défaillance du système. La méthode d'identification des listes proposées se base, d'une part, sur une représentation de haut-niveau, de type informationnelle de l'architecture fonctionnelle (incluant les procédures de test et de reconfiguration), et sur une représentation par automate d'état fini du comportement de ses entités constitutives. Elle peut être interprétée comme le résultat d'une propagation de langage (agrégation et réduction) le long de flux élémentaires d'information. Ce processus de construction a fait l'objet d'une automatisation (logiciel AF M CI en Java).
La méthode proposée de construction des processus stochastiques portant sur les états d'erreurs matériels sera, quant à elle, plus classique puisque basée sur des processus markoviens. On privilégiera, néanmoins, l'utilisation de chaîne de Markov non homogènes (taux de transitions non constants) pour permettre de prendre en compte l'influence de l'évolution des contraintes environnementales sur les taux de pannes des composants constitutifs de ces ressources matérielles, et expliquerons leur extension dans le cas de ressources préventivement maintenues.

Mots clés : performances FMDS, flux informationnel, automate d'états, chaînes de Markov, norme IEC61508

Jury :

Président : Prof. Yves Dutuit ? LAPS (Bordeaux)
Rapporteurs :
Prof. Etienne Craye ? LAGIS (Lille)
Prof. Christophe Berenguer ? LM2S ( Troyes )
Directeur :
Prof. Jean-François Aubry ? CRAN (Nancy)
Prof. Claude Iung ? CRAN (Nancy)
Dr. Olaf Malassé ? A3SI-ENSAM (Metz)
Invité : Dipl. Ing. Martin Rothfelder ? Siemens CT (Munich)

 

"Proposition d'un modèle de désagrégation pour un plan tactique stable dans le contexte des chaînes logistiques et de l'usage d'un APS"
(Soutenance de thèse - Virna A. ORTIZ ARAYA)

Aujourd'hui, les entreprises veulent savoir combien il faut produire, quand et en combien de temps ? De plus, elles veulent avoir une vision globale de leur système de production et de leur logistique. Ainsi, l a gestion de la chaîne logistique est en charge de fiabiliser le niveau de service aux clients, en assurant la meilleure rentabilité pour l'entreprise.
Nous montrons dans cette thèse l'intérêt du plan tactique et la manière de déterminer des plans détaillés, en utilisant une structure HPP. Nous proposons une méthodologie de désagrégation à deux niveaux qui cherche à déterminer des PDP stables , en prenant en compte des plans prévisionnels robustes et stables . Des modèles d'optimisation sont proposés ainsi que des contraintes qui prennent en compte les décisions relatives à chaque niveau, afin d'assurer une certaine cohérence entre eux. Finalement, nous appliquons un modèle de traitement de la demande réelle, en utilisant le processus AR, pour rendre plus stable les PDP déterminés.

Mots Clefs  : Chaîne Logistique, APS, Désagrégation, Plan Tactique, HPP, Programme Directeur de Production, Stabilité, AR (p).

Membres du jury :
Mme Colette MERCE, Professeur, LAAS, Toulouse (Rapporteur)
Mr Yves DALLERRY, Professeur, Ecole Centrale de Paris (Rapporteur)
Mr Samir LAMOURI, MdC, LISMMA CESTI, Paris (Examinateur)
Mr Alain RICHARD, Professeur, UHP, Nancy I (Examinateur)
Mr André THOMAS, HDR, UHP, Nancy I (Directeur de thèse)
Mr Cédric HUTT, Chef de produit, Entreprise DynaSys, Schiltigheim (Examinateur)

"Définition d'un système de dosimétrie tridimensionnel en curiethérapie à débit de dose pulsé"
(Soutenance de thèse - Faten AL AHMAD)

L'utilisation de l'imagerie 3D en curiethérapie avec la technique d'irradiation à débit de dose pulsé (PDR) a offert la possibilité d'optimiser la distribution de dose et d'évaluer cette distribution en relation avec l'anatomie du patient. L'intérêt principal de l'optimisation est d'assurer une couverture complète et homogène du volume cible par la dose de traitement tout en préservant les tissus sains et les organes à risque adjacents.
Notre travail a été de mettre en place un système de dosimétrie basé sur l'utilisation des images scanner en curiethérapie PDR. Nous avons abordé, dans ce travail, les éléments essentiels à définir pour aboutir à un système de dosimétrie 3D. Nous avons étudié la possibilité de définir ce système de dosimétrie dans des fantômes simulant des géométries d'implantation régulières et irrégulière, et dans des cas cliniques gynécologiques et ORL. Nous avons montré que la règle du système de Paris concernant la géométrie d'implantation assure une couverture homogène du volume cible, néanmoins, cette règle est parfois difficile à appliquer. Ce qui nécessite une optimisation de la distribution de dose. Nous avons analysé les différentes méthodes d'optimisation, et montré les paramètres spécifiques nécessaires pour l'application de chaque méthode. Nous avons étudié et analysé les capacités et les limites des méthodes d'optimisation basées sur la géométrie d'implantation (optimisation directe). La nécessité d'une méthode d'optimisation basée sur l'anatomie s'impose lorsqu'un système de dosimétrie 3D complet doit être défini. La méthode de la planification inverse (IPSA) a été étudiée pour aboutir à un système de dosimétrie 3D applicable dans tous les cas cliniques. Nous avons complété le système de dosimétrie en définissant une procédure d'évaluation de la distribution de dose tenant compte d'informations anatomiques et d'informations sur l'homogénéité de la distribution de dose.
Ce travail a montré la possibilité d'aboutir à une distribution de dose conforme au volume cible tout en préservant les tissus sains et les organes à risque. Un système de dosimétrie basé sur des méthodes anatomiques peut être applicable dans tous les cas cliniques et adapté à chaque anatomie du patient. Une haute précision de la définition du volume cible et des organes à risque est indispensable pour l'utilisation clinique d'une méthode de calcul de dose basée sur des données anatomiques.

Mots-clefs : Curiethérapie à débit pulsé, images scanner, optimisation directe, planification inverse.

"Analysis of Process Modelling Languages for Enterprise Interoperability"
(Diplôme Universitaire de Recherche Post-Doctorale - Pétia WOHED)

The research regards the domain of interoperability and interoperable information systems. Enterprise
analysis and modelling is an essential tool for achieving interoperability. However, the big number and diversity of enterprise modelling tools and techniques available today challenges the usefulness of enterprise modelling. Addressing this problem, a Unified Enterprise Modelling Language (UEML) is under development. The aim of this language is to function as a bridge between different enterprise modelling techniques and tools facilitating model translation and hence support model exchange and communication. The work presented here is on analysis of UEML and its further development.
Firstly, a number of additional requiems are identified and extensions to UEML for capturing these requirements are proposed.
Secondly, a number of enterprise modelling languages are in deep analysed so that modelling constructs missing from UEML shall be exposed and extension areas outlined.
Thirdly, a pilot study is carried out. In this study a formalisation technique for the purposes of formalising UEML is tested.

Directeur de Recherche: Prof. Gérard Morel
Co-Directeur de Recherche: Hervé Panetto

"Estimation de retard dans des conditions expérimentales passives - Application à l'identification de bief de rivière -"
(Soutenance de thèse - Magalie THOMASSIN)

Cette thèse porte sur l’identification de modèles à temps discret dans des conditions expérimentales passives, et plus précisément, sur l’estimation de retard. Ces travaux sont motivés par une application à des biefs de rivière aménagés pour la production d’énergie hydroélectrique. Le retard est dû au phénomène de transport de l'eau entre deux aménagements généralement distants de plusieurs kilomètres. Les problèmes résident dans la difficulté d'imposer des plans d'expérience, et en particulier, dans l'obligation d'utiliser des données recueillies dans un contexte de régulation avec action anticipatrice effectuée par un opérateur humain.
Après avoir classé les différentes notions d’identifiabilité (nombreuses dans la littérature), une approche permettant de déterminer le degré d’identifiabilité a posteriori des paramètres à partir d’une analyse de sensibilité est proposée. Son application montre la faible identifiabilité a posteriori du retard pour les données disponibles. Une étude d’applicabilité de différentes méthodes d’estimation de retard au cas du modèle simplifié du bief aménagé est menée en motivant les choix retenus. Ceci nous a alors conduit à généraliser une méthode fondée sur les corrélations des signaux d’entrée-sortie au cas de structures bouclées à deux entrées et une sortie.
Afin de pallier les inconvénients engendrés par les conditions expérimentales passives, une méthode originale d’identification bayésienne de réponses impulsionnelles est développée. Cette méthode, non-supervisée, présente l’avantage d’être efficace et simple à mettre en œuvre. La difficulté majeure de son développement réside dans l’estimation des hyperparamètres, due à un problème de dégénérescence d’une densité de probabilité. Ce problème est résolu en intégrant une nouvelle contrainte a priori sur l’hyperparamètre responsable de cette dégénérescence. Les résultats sur les données réelles montrent une diminution sensible de la plage de variation du retard estimé et une cohérence avec les paramètres physiques du bief. Enfin, une représentation originale des réponses impulsionnelles identifiées pour chaque jeu de données facilite la visualisation de leur évolution sur une période d’un an.

Mots-clés :
identification des systèmes, estimation de retard, conditions expérimentales passives, approche bayésienne, identifiabilité, bief de rivière aménagé.

Membres du jury :
Jean-Pierre Richard, Professeur à l’Ecole Centrale de Lille (rapporteur)
Didier Georges, Professeur à l'Institut National Polytechnique de Grenoble (rapporteur)
Michel Fliess, Directeur de Recherche au CNRS
Mohamed Darouach, Professeur à l'Université H. Poincaré, Nancy 1
Alain Richard, Professeur à l'Université H. Poincaré, Nancy 1
Thierry Bastogne, Maître de Conférences à l'Université H. Poincaré, Nancy 1

"Contribution à la maintenance prévisionnelle des systèmes de production par la formalisation d’un processus de pronostic"

L'émergence du concept de « durabilité » en entreprise oblige dorénavant les industriels à intégrer dans leur stratégie de développement, au-delà de la finalité économique habituelle, de nouvelles préoccupations sociales et environnementales. Cet enjeu majeur se décline, au niveau du système d'exécution de la production, par le concept de maintien en conditions opérationnelles (MCO) qui met en oeuvre un ensemble de moyens logistiques et de processus, dont le processus pivot de maintenance, principal levier pour agir sur la performance globale du système de production. Cette performance est d'autant plus difficile à maîtriser que l'évolution continue de l'environnement, le vieillissement des composants? modifient sans cesse les caractéristiques du système à maintenir en opérationnalité. Le MCO doit donc évoluer vers de nouvelles formes plus coopératives et plus proactives.
Cette évolution se traduit pour le processus de maintenance par le déploiement d'un Système Intégré de Maintenance Prévisionnelle (SIMP). Cependant, la mise en ?uvre du SIMP dans un cadre industriel complexe et bien que facilitée à l'heure actuelle par le développement des NTIC, reste délicate à réaliser à cause du manque d'outils/méthodes pour la modélisation et l'intégration de ses processus fondamentaux. En ce sens, notre contribution porte sur la formalisation du processus clé de la maintenance prévisionnelle : le pronostic. La démarche de modélisation proposée s'appuie sur le couplage d'une représentation probabiliste de l'état d'un système basée sur le formalisme des Réseaux Bayésiens Dynamiques (RBD), et d'une approche événementielle de la surveillance de la dégradation de ses composants. La mise en ?uvre du processus de pronostic sur le système de Déroulage / Pressage de la plate-forme TELMA démontre la faisabilité de la méthodologie proposée aussi bien d'un point de vue « construction des modèles », que d'un point de vue « intégration du processus de pronostic ».

Mots clés :
Maintenance, E-Maintenance, Maintenance prévisionnelle, Pronostic, Dégradation, Surveillance, Approche processus, Analyse dysfonctionnelle, Réseau bayésien dynamique.

"Contribution à la stabilisation des systèmes LPV et des systèmes linéaires à commutation"

Résumé :

L'étude des systèmes LPV a surtout été motivée par les techniques de synthèse de lois de commande dites à séquencement de gains (gain scheduling control) où la synthèse du correcteur se ramène à la synthèse de plusieurs correcteurs linéaires pour une famille de modèles linéarisés et une procédure d'interpolation. Même si l'on aboutit à de bons résultats en pratique, ces heuristiques ne prennent pas en compte les variations paramétriques et ne donnent donc aucune garantie de stabilité et de performance si ce n'est pour des variations très lentes des paramètres. C'est pourquoi l'approche LPV s'est avérée très utile pour simplifier la phase d'interpolation et les problèmes d'implémentation du correcteur à gains séquencés. Elle permet notamment de considérer le correcteur comme une seule entité où l'aspect séquemcement de gains est réalisé par la dépendance paramétrique du correcteur.

En France, l'étude de ces systèmes a commencé au CERT-ONERA où des résultats importants relatifs aux problèmes de robustesse notamment ont été développés avec une application privilégiée dans le domaine de l'Aéronautique. C'est dans ce domaine d'application que l'approche LPV est populaire puisque l'approche pratique et heuristique de la commande par séquencement de gains y trouve son origine. Cette popularité est plus que jamais d'actualité.

La contribution que nous présentons a un triple objectif :

* participer à la réduction du conservatisme des conditions de stabilité utilisées pour les systèmes LPV et en privilégiant l'utilisation d'une fonction de Lyapunov qui tient compte de la dépendance paramétrique.

* montrer que la classe des systèmes LPV peut être particularisée pour correspondre à une classe de systèmes dynamiques hybrides et apporter une solution aux problèmes de stabilité correspondants. Cette classe est celle des systèmes linéaires à commutation qui sont composés de systèmes linéaires et d'une loi de commutation gérant le passage d'un système à un autre. Ces systèmes sont dits hybrides puisque le comportement global est le résultat de l'interaction entre un comportement continu et un comportement type événementiel.

* montrer que la synchronisation du chaos appliquée au cryptage de l'information est un domaine d'application nouveau de l'approche LPV.

"Contribution à l'automatisation du processus d'acquisition de formes complexes à l'aide d'un capteur laser plan en vue de leur contrôle géométrique" :

Résumé :

De nos jours, il est possible de créer des pièces de formes de plus en plus complexes. La géométrie de telles pièces doit pouvoir être vérifiée rapidement. L'objectif de cette thèse est d'étudier une démarche automatisée de contrôle de pièces définies par leur modèle CAO. Il s'agit notamment de proposer les modèles, les algorithmes et les méthodes associées pour numériser automatiquement une pièce 3D. Actuellement, même si les technologies des différents capteurs s'améliorent tant au niveau performances que facilité d'utilisation, la détermination de la stratégie de numérisation est encore une tâche très interactive. L'expérience de l'opérateur a une grosse influence quand à la qualité du nuage de point. Les critères d'évaluation de la qualité d'un nuage de points sont la précision et la densité. L'approche proposée pour passer du modèle CAO aux trajectoires de numérisation comporte 6 étapes. Dans les étapes 1 à 3, les visibilités locales, globales et réelles sont calculées à partir du modèle CAO grâce à l'utilisation de la théorie des visibilités appliquée à une sphère de Gauss. Ensuite, dans une 4eme étape, le nombre de directions de visibilité nécessaires à la numérisation totale de la pièce est déterminé grâce à une heuristique. Dans la 5eme étape, les modèles surfaciques associés à chaque direction de scanning sont extraits du modèle CAO. Pour terminer, un module de génération de trajectoires planifie les trajectoires du capteur en prenant en compte les qualités optiques du capteur ainsi que sa géométrie afin d'optimiser la qualité du nuage de points et d'éviter les collisions.

Mots Clefs :
Visibilité, Planification de trajectoires, Numérisation 3D, Contrôle géométrique.

"Aide au diagnostic cardio-vasculaire par la superposition en 2D et 3D des images de coronarographie et de tomoscintigraphie. Segmentation de l'arbre coronaire et reconstruction 3D"

Résumé :

Cette thèse s'intègre dans un projet de synthèse d'un outil d'aide au diagnostic et à l'évaluation des maladies coronariennes. Actuellement, ce diagnostic s'effectue grâce aux résultats sous forme d'images de deux examens distincts: la coronarographie et la tomoscintigraphie. L'un décrit l'anatomie des artères, l'autre précise l'irrigation du myocarde.
Chaque image apportant une information complémentaire de l'autre (sténose et ischémie), le but est de générer une seule image contenant les deux renseignements liés entre eux, rapportés à un même repère et à une même échelle afin de rendre plus clair le lien de cause à effet entre les deux.
Le contexte médical de l'application et le partenariat d'industriels impose des contraintes fortes de fiabilité, de robustesse et de portabilité des algorithmes à concevoir. Il faut en particulier faire face à la diversité biologique des patients et à la qualité médiocre des images.
Le coeur est approximativement un ellipsoïde et les artères coronaires sont situées à sa surface. La coronarographie, image de projection, comporte plusieurs incidences sur lesquelles sont visibles à la fois les artères irriguant la paroi directement soumise aux rayons et celles irriguant la paroi opposée. La première partie de la thèse concerne la segmentation automatique des artères sur les coronarographies natives de manière à signifier différemment les artères propres à l'irrigation de chaque face pour ensuite superposer en 2D et 3D les données de perfusion de cette paroi. Un algorithme de poursuite séquentielle détectant l'ensemble de l'arborescence est implémenté, amélioré et testé. Les résultats ne permettent cependant pas une utilisation en routine clinique.

La seconde partie de la thèse propose une représentation 3D du coeur. Cette méthode, affranchie de toute donnée géométrique précise sur la structure des machines utilisées pour les examens, utilise des résultats de recalage pour réaliser, à partir de points homologues, une reconstruction 3D des artères schématiques sur le volume cardiaque de perfusion. Cette modélisation permet ainsi simplement de visualiser le lien entre sténoses et ischémie. Des tests sont ensuite réalisés sur un fantôme et neuf patients.

Mots clefs : segmentation, poursuite séquentielle, reconstruction 3D, coronarographie.

"Définition d'une méthodologie de Conception des Systèmes Mécatroniques Sûrs de Fonctionnement"

Les travaux de thèse développés durant ces trois années s'inscrivent dans la lignée de travaux en sûreté de fonctionnement de Didier JAMPI, à savoir définir une méthodologie de conception des systèmes de contrôle-commande qui intègre les activités de conception tout au long des différents cycles de vie. L'objectif d'une méthodologie est d'apporter une garantie sur la qualité des systèmes développés, tout en considérant les contraintes de coût et de temps.
Le principe général de cette première thèse consistait à exploiter un modèle exprimé dans le formalisme des réseaux de Petri.
L'expérience acquise dans le milieu industriel montre qu'il n'est pas envisageable de bouleverser radicalement les habitudes de conception, notamment en contraignant l'utilisateur à manipuler des langages qui lui sont étrangers, mais par contre que les méthodes actuellement utilisées peuvent être facilement améliorées en apportant des éléments complémentaires.Il est manifeste que la complexité croissante et la spécificité des systèmes embarqués justifieront de plus en plus le besoin de structurer l'ensemble des activités de conception. Vérification, validation, spécification comportementale et bien entendu sûreté de fonctionnement font partie intégrante d'un même processus. A travers cette thèse, nous avons voulu fédérer toutes ces activités autour d'un noyau central : la modélisation du système dans le formalisme habituellement utilisé dans les projets métiers de la conception.
Suite aux travaux précédents, nous avons tout d'abord souhaité améliorer la méthodologie basée sur les réseaux de Petri, et apporter quelques compléments indispensables. L'étude des méthodes formelles a démontré un intérêt certain dans la phase de vérification/validation : la capacité d'élimination d'un maximum d'erreurs permet d'accélérer les phases de tests ; de plus,les méthodes formelles sont applicables à chaque étape du raffinement d'un modèle, évitant ainsi l'introduction de fautes au cours de la conception. Enfin précisons que cette approche comble les limites des méthodes empiriques telles que la simulation ou le test : celles-ci permettent de prouver l'existence d'erreurs, mais jamais de démonter leur absence ! L'approche par « model-checking » garantit formellement que le modèle est sans erreur.
Un travail important a surtout été réalisé sur l'analyse quantitative de la sûreté de fonctionnement. Il semble important de disposer d'une modélisation dysfonctionnelle du système, c'est-à-dire un modèle qui traduit le comportement du système en présence de défaillances, afin d'améliorer la compréhension des mécanismes de ces défaillances et de permettre des échanges entre les différents protagonistes participant à un projet véhicule. Cette modélisation est également nécessaire en vue d'une capitalisation des expériences réalisées tout au long des différents
projets. Nous nous sommes donc orientés vers une méthode graphique et analytique : les graphes de Markov. De plus, la construction d'un tel modèle est facilitée de par son analogie avec les formalismes à états-transitions (Statecharts, réseaux de Petri,'). Néanmoins, il est reconnu que la démarche traditionnelle souffre de certaines limitations liées à la génération de l'explosion combinatoire du nombre d'états, et d'hypothèses restrictives. Les méthodes de simplification trouvées dans la littérature nous ont paru inapplicables au niveau industriel.
Nous avons adapté la méthode markovienne afin que celle-ci puisse être facilement compréhensible. A partir d'un système embarqué quelconque, le graphe de Markov illustrera par exemple les différents modes de fonctionnement existant (modes nominaux, dégradés, états redoutés'), et la façon d'y accéder (les taux de défaillances).
L'objectif principal de la méthode quantitative est de répondre à la problématique de représentation et d'évaluation de la fiabilité des SDH (Systèmes Dynamiques Hybrides). La complexité d'évaluation des attributs de sûreté de fonctionnement est liée à l'interaction permanente entre le comportement du système, et le processus de défaillance.
Le principe général à coupler les deux méthodes d'analyse classiques : la simulation et les graphes de Markov, afin de contourner les limites intrinsèques à ces méthodes (temps de simulation, explosion combinatoire).
L'approche proposée consiste à réaliser une agrégation des états élémentaires d'un graphe de Markov. L'influence du système sur le processus de défaillance est intégrée sur le modèle par le biais de termes de pondération des taux de défaillance. Ceux-ci permettent de prendre explicitement en compte la dynamique interne (rapide) du système. Ces coefficients sont évalués par une simple simulation, permettant ainsi de traiter des systèmes complexes.
Seul ce type d'approche, qualifié de « dynamique », permet de traiter des systèmes fortement dépendant du temps (par exemple, en cas d'existence de reconfigurations matérielles ou logicielles).

Mots clés : formalisme à état/transition, graphe de Markov, agrégation, séparation des dynamiques, simulation, model-checking.

"Commande basée sur des observateurs pour les systèmes non-linéaires en temps discret"

Les travaux de recherche qui ont été menés dans le cadre de cette thèse portent sur la stabilisation, par des commandes basées sur des observateurs, des systèmes non-linéaires en temps discret. Dans un premier temps, après un tour d'horizon des différentes lois de commande développées dans la littérature, nous avons fait le choix de prendre une direction peu exploitée jusqu'à présent, elle s'inspire de la loi de commande optimale pour les systèmes linéaires, et de l'étendre aux systèmes non-linéaires. L'approche que nous avons proposée a l'avantage de ne pas imposer une structure particulière à la sortie du système, contrairement aux méthodes qui se basent sur la théorie de la passivité. En outre, à la différence de la méthode Jurdjevic-Quinn, elle n'exige pas la stabilité de la dynamique libre tout en utilisant une fonction de Lyapunov standard et commune à plusieurs systèmes pour l'analyse de la stabilité. De plus elle a l'avantage d'être simple à implémenter. Utilisant les résultats établis précédemment, la synthèse d'une loi de commande basée sur l'Observateur de Kalman Étendu a été abordée. En non linéaire, l'introduction d'un observateur dans une loi de commande se révélant délicate du point de vue de la stabilité, l'accent a été mis sur l'analyse de la convergence. Des propriétés et des conditions de stabilité, sous forme d'inégalités matricielles, ont été également établies. La troisième partie, présente une loi de commande basée sur un observateur qui stabilise exponentiellement une classe de systèmes non linéaires. L'utilisation d'une loi de commande bornée, associée à un observateur de Luenberger, permet d'assurer la stabilité globale de la boucle fermée. Cette loi de commande peut être appliquée à des systèmes dont les dynamiques libres sont instables. Une extension aux systèmes à retard a été établie. En effet, dans la plupart des systèmes industriels, souvent, les modèles dynamiques sont en présence de retard. Ce dernier est une grande source d'instabilité. Dans la dernière partie, nous avons présenté des conditions sous forme d'inégalités matricielles assez simple à vérifier, qui permettent de stabiliser asymptotiquement une large classe de systèmes à retard non linéaires. D'autres conditions, permettant de générer des observateurs pour différentes classes de systèmes à retard non linéaires, ont été présentées. Les observateurs proposés possèdent la même dimension que les systèmes, car ils ne sont pas basés sur une augmentation de l'état, augmentation qui peut se révéler assez délicate dans le cas des systèmes de grandes dimensions ou avec un retard important. La conclusion dresse enfin le bilan des outils de commande proposés, fixes leurs limites, puis ouvre des perspectives de recherche vers lesquelles il semble intéressant de s'orienter. Mots clés: Systèmes non-linéaires, systèmes en temps discret, stabilisation, commande par retour d'état, commande basée sur un observateur, filtre de Kalman étendu, systèmes à dynamique libre instable, systèmes à retard, observateur, inégalités matricielles linéaires.

Les observateurs polytopiques pour la synchronisation du chaos des systèmes à temps discret

Une spécificité des systèmes dynamiques non linéaires réside dans la nature des leurs régimes permanents. Parmi l'ensemble des régimes permanents autres que ceux de type point fixe ou cycle, les comportements chaotiques se distinguent par leur complexité. Un régime chaotique est caractérisé dans l'espace d'état par des trajectoires non convergentes mais bornées, évoluant dans un domaine appelé ''attracteur chaotique''. Ainsi, la nature erratique et la grande sensibilité aux conditions initiales, constituent des caractéristiques dominantes du chaos. Deux constatations essentielles motivent mes recherches. En premier lieu, dans les années 1990, des travaux ont montré qu'un couplage adéquat entre deux systèmes chaotiques pouvait conduire à leur synchronisation. Par la suite, les conditions d'obtention de la synchronisation du chaos ont été formalisées du point de vue de l'Automatique et le problème subsiste encore en tant que question spécifique ouverte. En second lieu, il s'avère que les caractéristiques essentielles du chaos, à savoir son caractère erratique et sa grande sensibilité aux conditions initiales, peuvent être mises à profit à des fins de cryptage. En effet, ces propriétés sont étroitement liées aux notions de diffusion et de confusion usuellement rencontrées en cryptographie. L'élaboration du schéma de décryptage nécessite de façon conjointe la synchronisation de l'émetteur et du récepteur et la récupération de l'information d'origine. La phase de synchronisation dans ce contexte s'apparente également à la synthèse d'observateurs pour les systèmes non linéaires. La contribution des travaux présentés est double. Une nouvelle classe d'observateurs adaptés aux systèmes chaotiques pouvant être réécrits sous forme Linéaires à Paramètres Variant dans le temps (LPV) est proposée. La synthèse des observateurs est formulée en termes d'Inégalités Matricielles Linéaires. Elle a pour avantages d'être systématique, facilement soluble de par l'existence d'algorithmes numériques efficaces et d'assurer une convergence globale. La convergence est assurée par une fonction de Lyapunov dépendant du temps afin de minimiser le conservatisme des conditions. Dans le contexte appliqué au cryptage, deux nouvelles approches pour récupérer l'information au niveau du récepteur sont proposées et sont basées sur des observateurs polytopiques à entrées inconnues. Elles permettent d'améliorer les techniques de décryptage usuelles et d'élargir la classe des systèmes pouvant être utilisés en tant que générateurs de chaos.

Sûreté de fonctionnement de systèmes d'automatisation à intelligence distribuée

Ce mémoire est consacré à la modélisation et à l'évaluation des paramètres de sûreté de fonctionnement de systèmes d'automatisation à intelligence distribuée (SAID) ou systèmes commandés en réseau. Les systèmes d'automatisation à intelligence distribuée sont des systèmes qui sont composés de capteurs et actionneurs intelligents, architecturés autour d'un réseau de communication, typiquement un réseau de terrain. Les travaux développés traitent de l'évaluation de la sûreté de fonctionnement, notamment la fiabilité et la disponibilité de ces systèmes, en prenant en compte la normalisation. Cette approche s'applique à la fois à des grands systèmes et à des systèmes embarqués. Dans le but de proposer une méthode pour d'aide à la conception des SAID, trois approches sont développées : - une approche statique basée sur la topologie de l'architecture et traitant des fonctions à distribuer sur le SAID : diverses architectures sont évaluées, à l'aide notamment d'une extension des diagrammes de décision binaires, - une approche temporelle ou dynamique mêlant les réseaux de Petri colorés à arcs probabilistes et les simulations de Monte-Carlo et permettant la prise en compte de l'évolution des modes de fonctionnement et états du système, - une approche informationnelle, en cours de développement, par laquelle nous proposons d'aborder l'étude du SAID sous un autre angle, en nous affranchissant de l'architecture elle-même et en nous focalisant sur les informations circulant ainsi que leurs crédibilités. Les autres aspects traités dans ce mémoire concernent l'évaluation du niveau de sécurité de réseaux de terrains de sécurité, ainsi que l'étude, en cours, d'une boucle de sécurité constituée d'instruments intelligents.

Mots-clés : sûreté de fonctionnement ? fiabilité ? disponibilité ? sécurité ? système distribué ? instrumentation intelligente ? réseau de terrain ? réseau de Petri stochastique ? réseau de Petri coloré ? diagramme de décision binaire ? "networked control system" ? système d'automatisation à intelligence distribuée ? répartition de tâches ? approche statique ? approche dynamique ? approche informationnelle

"Contrôle par le produit des systèmes d'exécution de la production : apport des techniques de synthèse"

Résumé: Maîtriser la variabilité des produits impose de pouvoir adapter le contrôle de la production aux particularités de chaque produit et d'assurer individuellement leur traçabilité. En ce sens, le produit peut être considéré comme le pivot devant assurer la cohérence entre les niveaux de gestion et d'exécution de la fabrication. Ainsi, dans un système de production où l'intelligence est distribuée entre les différents acteurs de la production, et notamment dans le produit lui-même, automatiser implique de contrôler par le produit : à l'instant t les ressources qui assurent ses transformations d'états à travers le temps les ressources qui assurent sa transformation à travers les différentes unités de production Ce nouveau modèle d'organisation induit de nouvelles méthodes d'ingénierie. Nous modélisons les systèmes contrôlés par le produit dans le cadre de la théorie du contrôle par supervision, de manière à utiliser les techniques formelles de synthèse pour générer le contrôle par le produit des ressources et de la production.

Mots-clés : Personnalisation de masse, Contrôle par le Produit, Ingénierie d'Automatisation, Modélisation, Synthèse de la Commande, Synthèse de Trajectoires

"Modélisation et simulation de la logistique d'approvisionnement dans l'industrie automobile Application à un grand constructeur"

Face à un contexte de production en constante évolution, les constructeurs automobiles doivent maîtriser leur logistique d'approvisionnement. Aujourd'hui, sa complexité rend difficile l'évaluation globale de sa performance, de la commande d'un véhicule jusqu'à sa livraison au client. Nos travaux veulent contribuer à l'amélioration globale de la flexibilité de la logistique et de la réactivité face aux aléas d'approvisionnements. Nous proposons alors une modélisation des flux logistiques à des fins d'évaluation. Dans le cadre d'une approche systémique un méta-modèle UML des flux est proposé puis instancié sur la chaîne logistique d'approvisionnement PSA. Des indicateurs de flux pertinents sont ensuite proposés pour l'évaluation globale des performances d'un système logistique. Cette modélisation est implémentée dans une plateforme de simulation (SimAppro) de toute la logistique d'approvisionnement de PSA, connectée aux systèmes d'informations propriétaires. Nous proposons et mettons en ?uvre ensuite une démarche de validation de l'outil. Enfin nous avons effectué une application industrielle de nos travaux. Son but est d'apporter une réponse pour la juste sécurisation des stocks sans altération de la qualité de service. Les résultats obtenus par le biais de deux heuristiques simples (aspect décisionnel) couplés avec le simulateur SimAppro (évaluation) laissent à penser qu'il est possible de diminuer globalement les niveaux de sécurisation des stocks constituants tout en améliorant le nombre de véhicules « bons » en sortie des lignes de montage.

Mots clés : Modélisation, UML, Systémique, logistique d'approvisionnement, aide à la décision, simulation, industrie automobile

"Identification par les techniques des sous-espaces - Application au diagnostic"

Dans ce document, le problème d'identification des systèmes dynamiques MIMO et de détection et d'isolation de défauts de capteurs est abordé à l'aide des méthodes des sous-espaces dans ce document.
Le chapitre 1 destiné à l'identification des systèmes linéaires, commence par une présentation des méthodes classiques des sous-espaces basées sur l'estimation de la matrice d'observabilité étendue et/ou l'estimation de la matrice des séquences d'état. Ensuite, une nouvelle approche basée sur l'utilisation des modèles FIR et l'estimation des paramètres de Markov permettant d'obtenir une réalisation minimale et équilibrée à l'aide de l'algorithme ERA est proposée. Trois méthodes d'identification basées sur cette approche sont établies pour l'identification des systèmes linéaires en présence de bruits colorés.
Le deuxième chapitre s'intéresse à l'identification des systèmes à commutation à l'aide d'une modélisation multimodèle avec des modèles locaux découplés et des fonctions de pondération binaires. Deux méthodes sont proposées pour résoudre ce problème d'identification non supervisé : la première réalise la classification des données à l'aide des techniques de détection de ruptures de modèle tandis que cette classification est réalisée dans la seconde méthode par la détermination des hyperplans représentant les modèles locaux dans l'espace des sorties et des entrées. Après l'estimation des fonctions de pondération, une réalisation minimale et équilibrée de chaque modèle local est déterminée dans l'une ou l'autre méthode à l'aide de la méthode des moindres carrés pondérés.
Dans le chapitre 3, une méthode d'identification des systèmes non-linéaires avec l'approche multi-modèle est proposée. Contrairement au chapitre précédent, les fonctions de pondération des modèles locaux ne sont plus binaires mais prennent des valeurs comprises entre zéro et un. La méthode proposée suppose les poids connus puis identifie une réalisation minimale et équilibrée de chaque modèle local.
Le dernier chapitre propose une méthode de détection et d'isolation de défauts de capteurs dans le cas où le modèle du système n'est pas connu. La méthode approxime la sortie du système à l'aide d'un modèle FIR puis annule l'influence des entrées par une projection orthogonale ce qui permet d'obtenir un résidu structuré. Les conditions de sensibilité du résidu aux défauts de capteurs sont établies. La méthode proposée s'affranchit des incertitudes paramétriques du fait qu'aucun modèle explicite ou implicite n'est estimé.

Mots clés : méthodes d'identification des sous-espaces, systèmes à commutations, approche multi-modèle, détection et localisation de défaut de capteur, filtre impulsionnel à réponse finie (FIR), paramètres de Markov

"Définition d’un cadre pour l’organisation et l’évaluation des activités du travail coopératif "

Les entreprises se focalisent de plus en plus sur les aspects organisationnels qui leur permettent de se structurer en processus qu'il faut maîtriser. Cette orientation est renforcée par l'évolution des entreprises vers des structures qui privilégient le travail coopératif. Avec ces nouvelles approches, de nouveaux besoins apparaissent pour mieux définir, coordonner et contrôler les équipes et les activités du travail coopératif. Il y a besoin pour cela d'outils et méthodes d'aide à la gestion d'organisations complexes. Complexe signifie que l'organisation concernée met en jeu de nombreuses activités, des intervenants provenant d'horizons différents et surtout de nombreuses interactions entre les différentes activités.

Le travail de thèse porte sur la définition d'un cadre qui permette d'assister le travail coopératif en apportant aux acteurs une aide à la coopération et à l'activité de groupe. La définition de ce cadre s'inspire de la démarche d'amélioration de processus du CMM (Capability Maturity Model) développé par le SEI (Software Engineering Institute), repris par l'ISO 15504 (ISO SPICE). Ce modèle qui a pour objectif de rendre stables, prévisibles et matures un processus organisationnel, est construit selon 4 paliers d'évolution qui permettent à une organisation de franchir progressivement des niveaux de maturité.
Le cadre proposé dans cette thèse est défini selon une approche en 4 axes qui correspondent aux actions progressives à mettre en ?uvre pour définir une organisation adéquate des activités coopératives.
L'axe 1 concerne la structuration des activités : analyse des dépendances entre activités, regroupement et/ou décomposition en tâches, planification des groupes de travail.
L'axe 2 concerne la caractérisation des activités en fonction des interactions dans les groupes de travail : définition des rôles interactionnels et gestion des interfaces entre groupes de travail.
L'axe 3 concerne l'évaluation des performances d'une organisation de travail en fonction du nombre d'itérations entre activités : estimation des durées, charges et coûts.
L'axe 4 concerne l'optimisation d'une organisation de travail en fonction des résultats d'évaluation : mise en ?uvre de différentes solutions d'organisation et d'exécution des activités. Des méthodes principalement issues de la théorie des graphes et des techniques de partitionnement et évaluation de performance sont proposées en support dans chaque axe. Un outil logiciel mettant en ?uvre ces propositions a été développé dans le cadre de ces travaux. Il permet d'analyser, de décomposer et d'évaluer des processus complexes, ce qui en fait un support efficace pour l'aide à la décision en management, le contrôle dynamique des processus coopératif, pour la définition et la reconfiguration d'architecture informatique, et pour la mise en ?uvre de logiciels coopératifs (outils de groupware, workflow et portail collaboratif, ...).

Mots clés : Travail coopératif, Organisation, Théorie des graphes, Méthodes de décomposition, Evaluation matricielle

"Conception d'observateurs non linéaires par approche multimodèle : application au diagnostic "

Les méthodes de détection et localisation de défauts pour les systèmes représentés à l'aide d'un modèle dynamique s'appuient sur la génération d'indicateurs de défauts, souvent appelés résidus. Ces derniers sont calculés comme étant la différence entre des mesures prélevées sur le système réel et des estimations calculées à base d'un modèle. De nombreux résultats s'appuyant, en particulier, sur des modèles linéaires ont été développés dans diverses situations. Lorsqu'on souhaite représenter le comportement d'un système à l'aide d'un modèle non linéaire, la conception d'observateurs est en général plus délicate, notamment si l'on souhaite prendre en compte des entrées inconnues et des incertitudes de modèle. Le système peut alors être décrit à l'aide d'un multimodèle.
Dans ce mémoire, nous montrons comment transposer les techniques d'observateurs classiques notamment à mode glissant, appliquées pour l'estimation d'état et d'entrées inconnues de systèmes linéaires, pour la conception de multiobservateurs. La synthèse de ces derniers est basée sur la prise en compte d'un ensemble de contraintes permettant de garantir la convergence asymptotique du multiobservateur, ce qui conduit à la résolution d'un ensemble d'inégalités matricielles bilinéaires (parfois non linéaires) sous des contraintes structurelles. Ces inégalités peuvent être résolues en utilisant des techniques de linéarisation ou à l'aide de formulation LMI (inégalité linéaire matricielle) .

Mots-clés : Approche multimodèle, multiobservateur a entrées inconnues, mode glissant, stabilité quadratique, détection et localisation de défauts.


"Contribution à la modélisation et à la commande des systèmesélectrohydrauliques"
(Soutenance de thèse Abdelfettah HOCINE)

Ce travail concerne la détection de défaut sur les systèmes sujet à des changements de mode de fonctionnement. Nous avons choisi de modéliser le système réel par un système à commutation markovienne qui est représenté par un ensemble de modèles de fonctionnement (fonctionnements normaux et anormaux) et par une matrice de probabilité de transition de Markov qui contient les probabilités de passage d'un modèle de fonctionnement à un autre. La représentation du système étant fixé, celle-ci offre un cadre idéal à l'application de l'estimation multi-modèle. L'intérêt d'utiliser ce type d'estimateurs réside dans le fait qu'en plus de l'estimation de l'état du système, les estimateurs multi-modèle procurent la probabilité d'occurrence ou d'activation de chaque modèle de fonctionnement. Ces probabilités peuvent être utilisées pour la détection de défaut. Dans ce travail, nous avons utilisé les spécificités de l'estimation multi-modèle afin de procéder à la détection et l'isolation des défauts qui peuvent affecter un système linéaire. Cependant, plusieurs améliorations et aménagements ont été apportés à cet estimateur dans le but d'augmenter les performances du diagnostic.

Rapporteurs :
Michel Vergé, ENSAM Paris Dimitri Lefebvre, Université le Havre

Examinateurs :
Mustapha Ouladsine, LSIS Marseille Didier Theilliol, CRAN, UHP Didier Maquin, CRAN, INPL José Ragot, CRAN, INPL


"Contribution à la modélisation et à la commande des systèmesélectrohydrauliques"
(Soutenance de thèse Mohamed TAFRAOUTI)

Ce mémoire est dédié à la modélisation et à la commande linéaire et non linéaire des systèmes à fluide sous pression et plus particulièrement des actionneurs électrohydrauliques.

Le premier chapitre de ce mémoire est donc dédié à la modélisation des actionneurs électrohydrauliques. Nous y rappelons les notions fondamentales de la mécanique classique, de la mécanique des fluides et les propriétés des fluides hydrauliques usuels pour en déduire les modèles de connaissance des actionneurs électrohydrauliques utilisés pour l’asservissement de position. Les caractéristiques technologiques des pré-actionneurs généralement utilisés en boucle fermée, sont passées en revue afin d’établir leurs modèles statiques et dynamiques. Les modèles obtenus sont des équations différentielles non linéaires seulement continues (c’est-à-dire non dérivables) et décrivent, d’une part, l’évolution de la pression dans chaque chambre du vérin et, d’autre part, les équations de mouvement de l’ensemble charge et vérin.
Nous proposons également un nouveau modèle de dimension réduite qui tient compte de la dynamique de la pression différentielle. Ce modèle de la pression différentielle est moins restrictif que ceux présentés dans la littérature. Les modèles incluant la dynamique du ou des distributeurs, représentée par une équation différentielle linéaire du
premier ordre, sont également proposés. Ces modèles seront utilisés dans les chapitres suivants pour la synthèse des lois de commande.

Le deuxième chapitre est consacré à l’étude de l’ensemble d’équilibre des modèles non linéaires, à l’analyse de la stabilisabilité et de la détectabilité des modèles inéaires obtenus par approximation au premier ordre (au voisinage d’un point d’équilibre) et à la synthèse de lois de commande linéaire des actionneurs hydrauliques. L’analyse de la stabilisabilité et de la détectabilité locale est effectuée pour les différents modèles proposés et montre que ces propriétés dépendent du point de fonctionnement choisi et de la configuration du système. Nous avons montré, plus particulièrement que, dans le cas le plus défavorable, c’est-à-dire pour la position d’équilibre y0=0, il existe un mode stable non observable et non commandable lorsque le pré-actionneur est commandé à travers un distributeur. Dans le cas de deux distributeurs, ce mode est non observable mais commandable. La partie suivante consiste à synthétiser les lois de commande linéaire lorsque le point de fonctionnement est choisi dans ce cas le plus
défavorable. Nous y abordons dans un premier temps la commande par rétroaction de la position en utilisant des correcteurs de type PID.

Nous passons ensuite en revue les différentes façons pour améliorer l’amortissement du système soit en introduisant des éléments dissipatifs comme les fuites par exemple, soit en introduisant des boucles de rétroactions secondaires (rétroaction de la pression différentielle, de l’accélération ou de la vitesse). La dernière partie de ce chapitre concerne la synthèse de correcteur par retour d’état statique de la forme u=-Kx. Les stratégies proposées sont la commande par placement de pôles, la commande optimale et la commande proportionnelle intégrale par retour d’état. Les différentes lois de commande sont simulées sur le modèle non linéaire pour différentes consignes et ne tiennent pas compte de la dynamique du distributeur. Les résultats que nous présentons dans ce chapitre ont un caractère local. Ces résultats ne sont pas toujours satisfaisants lors d’un changement de point de fonctionnement ou lorsque, pour des raisons économiques, un distributeur proportionnel ou un servodistributeur (moins performants que les servovalves) est utilisé pour actionner le vérin.

Le troisième chapitre aborde la commande non linéaire par retour d’état des actionneurs hydrauliques commandés respectivement à travers un ou deux pré-actionneurs. La première partie est consacrée à la stabilisation d’un vérin commandé à travers deux distributeurs. Dans un premier temps, nous proposons un résultat sur la commande par ajout d’intégrateur pour les systèmes dont le champ de vecteur est seulement continu. Il s’agit d’une amélioration des résultats présentés dans la littérature. La première phase de l’application de ces résultats aux systèmes électrohydrauliques consiste à synthétiser une loi de commande stabilisant le système sans la dynamique des distributeurs. Cette loi de commande est obtenue en appliquant une stratégie de type Jurdjevic-Quinn. Ensuite nous déduisons une loi de commande par ajout d’intégrateur qui tient compte de la dynamique des distributeurs et ceci sans effectuer aucune linéarisation. La deuxième partie aborde la stabilisation des actionneurs lectrohydrauliques commandés par un distributeur en utilisant le nouveau modèle réduit proposé au premier chapitre. La démarche adoptée est similaire au cas de deux distributeurs. Notons que les fonctions de Lyapunov, nécessaires à la synthèse de ces lois de commande, sont construites à partir des intégrales premières du système non commandé. Nous avons finalement montré en simulation que les performances des lois de commande proposées sont très peu sensibles aux variations de la dynamique des distributeurs et aux changements de points de fonctionnement. Notons que ces résultats peuvent êtres également transposés à la stabilisation des actionneurs électropneumatiques.

 

"Estimation de l'état et des entrées inconnues pour une classe de systèmes non linéaires"
(Soutenance de thèse Estelle CHERRIER)

Résumé :

Les systèmes chaotiques constituent une classe de systèmes non linéaires dont le comportement est très complexe. Ils sont si sensibles aux conditions initiales, bien qu'étant régis par des lois rigoureuses et parfaitement déterministes, que toute prévision de leur comportement est impossible : il s'agit du fameux effet papillon . Pourtant, en 1990, la capacité de synchronisation des systèmes chaotiques a été mise en évidence. Par la suite, ce problème de synchronisation a été relié au problème standard d'estimation d'état non linéaire, ce qui a ouvert la voie à des recherches intensives, motivées par les applications potentielles. Parmi celles-ci, les cryptosystèmes (ou systèmes de transmission sécurisée d'information) chaotiques exploitent les propriétés fondamentales des systèmes chaotiques et leur capacité de synchronisation. L'aspect aléatoire des signaux chaotiques est mis à profit pour noyer l'information à transmettre. Par un processus de synchronisation, le récepteur est capable d'estimer l'état de l'émetteur, puis d'effectuer le décryptage du message crypté. L'étape de synchronisation est cruciale : elle permet au récepteur d'estimer les signaux utiles pour la restauration du message, en l'occurrence les états de l'émetteur, sans aucune connaissance sur l'état initial de l'émetteur.
Cette thèse présente une étude fondamentale sur le problème de conception de systèmes de transmission sécurisée d'information exploitant les propriétés des systèmes chaotiques et leur capacité de synchronisation. La conception d'un cryptosystème chaotique passe par trois étapes principales, à savoir le choix de l'émetteur, le développement du récepteur, et la mise au point du processus de transmission de l'information. Le cryptosystème proposé s'inspire du principe de transmission à deux voies : deux signaux sont transmis au récepteur, ce qui permet de découpler totalement les phases de synchronisation et de cryptage.
L'émetteur retenu est un système chaotique comportant un retard. Des récepteurs spécifiques ont été concus sous forme d'observateurs non linéaires. La synchronisation est établie après l'envoi d'un premier signal chaotique. La transmission de l'information repose sur une technique de masquage par modulation de la phase d'un second signal chaotique, en fonction du message. Une analyse de la sécurité de ces deux phases a été menée. La sécurité du processus de cryptage repose sur l'existence d'un clé secrète, qui induit les propriétés de confusion et de diffusion du cryptosystème proposé. Une nouvelle classe de systèmes chaotiques est présentée, ainsi que la synthèse d'observateurs correspondants, dans le but de renforcer la sécurité du processus de synchronisation, sécurité liée à la complexité des signaux transmis au récepteur. Cette méthode s'appuie sur le principe des multimodèles, et définit des multimodèles chaotiques. Le problème de la robustesse du cryptosystème vis-à-vis de bruits de transmission a été abordé.

Rapporteurs :
Geneviève Dauphin-Tanguy, professeur Ecole Centrale de Lille Mohammed M'Saad, professeur Ensicaen

Examinateurs :
Mohamed BOUTAYEB, professeur LSIIT, Illkirch Fabrice HEITZ, professeur LSIIT, Illkirch Gilles MILLERIOUX, professeur, CRAN, Vandoeuvre José RAGOT, professeur, CRAN, Vandoeuvre

Invité :
Moulay A. AZIZ-ALAOUI, professeur LMAH, Le Havre

"Etude des interactions du photosensibilisant méta-tétra(hydroxyphényl)chlorine avec les protéines de plasma et les cellules"
(Soutenance de thèse Siarhei SASNOUSKI)

Rapporteurs :
Dr. S. MacRobert (UCL, Londres)
Dr. D. Brault (BIOMOCETI, UMR CNRS 7033, Paris)

Jury :
Dr. L. Bezdetnaya-Bolotine (CAV CRAN UMR CNRS 7039)
Dr. V. Zorin (BSU, Minsk)
Pr. A. Fedulov (BSMU, Minsk)
Pr. F. Guillemin (CAV CRAN UMR CNRS 7039)

"Diagnostic des systèmes à changement de régime"
(Soutenance de thèse Elom Ayih DOMLAN)

Résumé :

De façon générale, la modélisation de systèmes complexes conduit à l'obtention de modèles non-linéaires dont la dynamique est influencée à la fois par des événements discrets et des dynamiques continus. Le principe de « simplicité » conduit, le plus souvent, à une démarche de modélisation s'appuyant sur l'utilisation d'un ensemble de modèles de structures simples (par exemple linéaires), chaque modèle décrivant le comportement du système dans une zone de fonctionnement particulière. Le comportement global du système est alors décrit à l'aide des modèles locaux et d'un mécanisme de gestion des transitions d'un modèle à un autre. En fonction de la forme des fonctions associées à ces transitions, on obtient différentes classes de modèles, notamment les « multimodèles »dans le cas de transitions lisses (interpolation entre les modèles locaux) et les modèles dits « hybrides »dans le cas de transitions abruptes. Cette dernière classe de modèles, les modèles hybrides, constituent l'objet de cette thèse.
Les modèles hybrides caractérisent des processus physiques régis par des équations différentielles continues et des variables discrètes. Le processus modélisé est ainsi décrit par plusieurs modes de fonctionnement et le passage (commutation) d'un mode de fonctionnement à un autre est régi par l'évolution de variables internes du système ou par une loi externe non maîtrisée. Lorsque la représentation des modes de fonctionnement est faite à l'aide de modèles linéaires invariants, le modèle obtenu appartient à la classe des modèles linéaires par morceaux ou encore celle des systèmes à commutation. Cette classe de modèles est largement utilisée, car les outils d'analyse et de commande pour les systèmes linéaires sont très développés et aussi parce qu'une grande partie des processus réels peut être représentée par les modèles issus de cette classe.
Les recherches sur les systèmes à commutation sont essentiellement concentrées dans les domaines de l'identification, de la synthèse de loi de commande et de l'analyse de la stabilité. Un point crucial, nécessaire pour la mise en ¦uvre de tous ces outils ou qui en simplifierait l'usage, est la reconnaissance du mode de fonctionnement actif à un instant particulier à partir de jeux de mesures. Elle est évidemment plus aisée si le mécanisme de commutation (ou loi de commutation) est maîtrisé. Ceci justifie l'importance de l'identification du mécanisme de gestion des transitions d'un mode de fonctionnement à un autre.
Cette thèse aborde les deux problèmes évoqués précédemment : la reconnaissance du mode de fonctionnement actif à un instant particulier à partir de jeux de mesures et l'identification du mécanisme de gestion des transitions d'un mode de fonctionnement à un autre. Les outils du diagnostic à base de modèle sont utilisés pour la résolution du premier problème, le deuxième étant traité à l'aide des méthodes de reconnaissance de forme et de classification.

Rapporteurs :
Vincent COCQUEMPOT LAGIS Ecole Centrale de Lille Janan ZAYTOON CRESTIC Université de Reims
Examinateurs :
Luc DUGARD, ENSIEG, St Martin d'Hères Michel DE MATHELIN, EAVR LSIIT, Illkirch Didier MAQUIN, ENSEM, INPL José RAGOT, ENSG, INPL

"Analyse automatique des crises d'épilepsie du lobe temporal à partir des EEG de surface"
(Soutenance de thèse Matthieu CAPAROS)

Résumé :

L'objectif de la thèse est le développement d'une méthode de caractérisation des crises d'épilepsie du lobe temporal à partir des EEG de surface et plus particulièrement de la zone épileptogène (ZE) à l'origine des crises.

Des travaux récents validés en stéréoélectroencéphalographie (SEEG) ont démontré une évolution des synchronisations entre structures cérébrales permettant une caractérisation de la dynamique des crises du lobe temporal.

L'originalité des travaux consiste à étendre les méthodes développées en SEEG, à l'étude des signaux EEG de surface. Du point de vue médical, ce travail s'inscrit dans le cadre de l'aide au diagnostic préchirugical.

Des méthodes de mesure de relation, telles que la cohérence, la Directed Transfer Function (DTF), la corrélation linéaire (r²) ou la corrélation non-linéaire (h²), ont été adaptées pour répondre à cette problématique. Différents critères, définis à partir d'indications cliniques, ont permis la mise en évidence des avantages du coefficient de corrélation non-linéaire dans l'étude de l'épilepsie par les EEG de surface.

L'exploitation de l'évolution du coefficient de corrélation non-linéaire est à la base de trois applications de traitement automatique du signal EEG :
    - La première est la détermination de la latéralisation de la ZE au départ d'une crise. Cette information constitue l'étape préliminaire lors de la recherche de la localisation de la ZE.
   - La recherche d'une signature épileptique constitue la seconde application. La signature est extraite par un algorithme de mise en correspondance et de mesure de similarités en intra-patients.
    - Une classification des crises du lobe temporal contitue la troisième application. Elle est réalisée en extrayant un ensemble de caractéristiques des signatures trouvées par l'algorithme de l'étape 2.

La base de données qui contient quarante-trois patients et quatre-vingt-sept crises (deux crises par patient, trois pour l'un d'entre eux) garantit une certaine significativité statistique.

En ce qui concerne les résultats, un taux de bonne lateralisation de l'ordre de 88% est obtenu. Ce taux est très intéressant, car dans la littérature, il peut être quelques fois atteint, mais en exploitant des données multimodalités et avec des méthodes non-automatiques. A l'issue de la classification, 85% des crises mésiales ont été correctement classifiées ainsi que 58% des crises mésio-latérales.


Mots-Clés : épilepsie, EEG de surface, aide au diagnostic, synchronisation, latéralisation, mise en correspondance, extraction de caractéristiques

Rapporteurs :
Catherine Marque      Professeur, Biomécanique et Génie Biomédical, (UTC)
Patrick Chauvel       PUPH, Service de Neurophysiologie Clinique, CHU la Timone

Examinateurs :
Didier Wolf           Professeur, CRAN (INPL) - directeur de thèse
Valérie Louis-Dorr    Maitre de conférence, CRAN (INPL) - co-directrice de thèse
Fabrice Wendling      Chargé de recherche, LTSI, (Université de Rennes 1)
Jean-Pierre Vignal    Docteur, CHU de Nancy, service de Neurologie

Invité
Hervé Vespignani      PUPH, CHU de Nancy, service de Neurologie

"Contribution à la Modélisation et à la Gestion des Interactions Produit-Processus dans la Chaîne Logistique par l'Approche Produits Communicants"
(Soutenance de thèse - Aldo CEA)

Résumé :

Dans le domaine de la chaîne logistique, nous constatons des besoins croissants d'information et d'interactions entre produits, processus et clients, et ceci durant le cycle de vie du produit. Cela entraîne le besoin, au niveau du produit, de nouvelles capacités de communication, de gestion de l'information, de perception et d'action avec son environnement physique. Ces besoins ont engendré le concept de produit ou objet communicant. Un produit avec ces nouvelles capacités pourra interagir avec d'autres entités physiques ou informationnelles dans son environnement et apporter des transformations significatives sur la gestion de la chaîne logistique. Le travail présenté dans cette thèse vise à analyser et contribuer à appliquer la notion d'objet communicant aux produits physiques dans le domaine de la chaîne logistique.
L'approche proposée considère un produit comme un demandeur ou un fournisseur de services. La méthodologie proposée de gestion des produits communicants s'appuie sur la caractérisation d'une architecture de services ambiants devant permettre de gérer les services d'un produit d'une façon automatique et ubiquiste. Nous avons choisi l'architecture UPnP pour gérer les services des objets communicants. La communication directe avec le produit est supportée par les méthodes d'identification automatique RFID. Nous nous sommes appuyés sur le formalisme standard de modélisation UML afin de modéliser les interactions et les services associés à un produit physique. Comme résultat, nous avons élaboré des démonstrateurs de laboratoire validant la faisabilité de notre proposition méthodologique de gestion de la chaîne logistique par les objets communicants.

Composition du jury :

*Rapporteurs :*
M. Jean-Pierre CAMPAGNE Professeur, INSA Lyon
M. Duncan McFARLANE Professeur, Université Cambridge
M. Jean Jacques PANSIOT Professeur, Université Louis Pasteur Strasbourg

*Examinateurs : *
M. Eddy BAJIC Professeur, UHP, Nancy I (Directeur de recherche)
M. Gérard MOREL Professeur, UHP, Nancy I
M. Didier WOLF Professeur, INPL Nancy

"Systèmes dynamiques chaotiques pour le chiffrement : synthèse et cryptanalyse"
(Soutenance de thèse - Floriane ANSTETT)

Résumé

Le travail porte sur la synthèse et la cryptanalyse des schémas de chiffrement basés sur le chaos. Ces schémas utilisent, côté émetteur, des systèmes dynamiques non linéaires exhibant un comportement chaotique. La séquence complexe ainsi produite est utilisée pour masquer  une information. Plusieurs modes de chiffrement sont étudiés : la modulation chaotique, la modulation paramétrique, et le chiffrement par inclusion, principalement dans le cas des systèmes chaotiques à temps discret. Pour ces schémas, la reconstruction de l'information, nécessite la synchronisation de l'émetteur et du récepteur. Un observateur joue le rôle du récepteur.
Tout d'abord, le lien entre le chiffrement par le chaos et le chiffrement usuel est établi.
Concernant la modulation chaotique, nous proposons pour le déchiffrement, une méthode systématique de synthèse d'observateur polytopique; tenant compte de la spécificité du problème liée au chaos. Dans la modulation paramétrique, côté émetteur, l'information claire module les paramètres d'un système chaotique. Pour réaliser la synchronisation, un observateur adaptatif polytopique assurant la reconstruction simultanée état/paramètre est proposé. 
Enfin, la cryptanalyse du chiffrement par inclusion est effectuée. Nous considérons des systèmes présentant uniquement des non linéarités polynomiales qui englobent un grand nombre de systèmes chaotiques usuels. La sécurité de ce schéma repose sur les paramètres du système chaotique, supposés jouer le rôle de clé secrète. Un formalisme général, basé sur le concept de l'identifiabilité, est élaboré pour tester la reconstructibilité de ces paramètres. Les différentes définitions de l'identifiabilité sont récapitulées et des approches permettant de tester l'identifiabilité sont présentées. Ce formalisme est appliqué sur des schémas usuels de chiffrement par inclusion afin de tester leur sécurité.

Composition du jury :

Rapporteurs
M. Hasler, professeur à l'Ecole Polytechnique  Fédérale de Lausanne
G. Garcia, professeur à l'Institut National des Sciences Appliquées de Toulouse

Examinateurs
L. Denis-Vidal, maître de conférences HDR à l'Université des Sciences et Techniques de Lille
P. Guillot, maître de conférences à l'Université Paris 8

Directeur de thèse
G. Bloch, professeur à l'Université Henri Poincaré - Nancy 1

Co-directeur de thèse
G. Millérioux, professeur à l'Université Henri Poincaré - Nancy 1

"Imagerie cardiaque multimodalités 2D et 3D : application à la coronarographie, tomoscintigraphie, TEP-CT"
(Soutenance de thèse - Juan Manuel LOPEZ-HERNANDEZ)

Résumé :


La coronarographie et la tomoscintigraphie (SPECT, de l'anglais "Single Photon Emission Computed Tomography") sont deux techniques d'imagerie utilisées couramment pour diagnostiquer les maladies cardiovasculaires. La première modalité est constituée de séquences d'images à rayon X visualisant chacune, dans un même plan, les artères coronaires situées sur la face avant et la face arrière du c?ur. Les images à rayons X fournissent des informations anatomiques liées à l'arbre artériel et mettent en évidence d'éventuels rétrécissements des artères (sténoses). La modalité SPECT (imagerie nucléaire) fournit une représentation 3D de la perfusion du volume myocardique. Cette information fonctionnelle permet la visualisation de régions myocardiques souffrant de défauts d'irrigations. Le but du travail présenté est de superposer, en 3D, les informations fonctionnelles et anatomiques pour établir un lien visuel entre des lésions artérielles et leurs conséquences en termes de défauts d'irrigation. Dans la représentation 3D choisie pour faciliter le diagnostic, la structure d'un arbre artériel schématique, comprenant les sténoses, est placée sur le volume de perfusion. Les données initiales sont constituées d'une liste de points représentatifs de l'arbre artériel (points d'arrivée et de départs de segments d'artères, bifurcations, sténoses, etc. ) marqués par le coronarographiste dans les images à rayons X des différentes incidences. Le volume de perfusion est ensuite projeté sous les incidences des images de coronarographie. Un algorithme de recalage superposant les images à rayons X et les projections SPECT correspondantes fournit les paramètres des transformations géométriques ramenant les points marqués dans les images à rayons X dans une position équivalente dans les images SPECT. Un algorithme de reconstruction 3D permet ensuite de placer les points artériels et les sténoses sur le volume de perfusion et de former un arbre schématique servant de repère au clinicien. Une base de données formée de 28 patients a été utilisée pour effectuer 40 superpositions 3D de données anatomo-fonctionnelles. Ces reconstructions ont montré que la représentation 3D est suffisamment précise pour permettre d'établir visuellement un lien entre sténoses et défauts de perfusions. Nos algorithmes de superpositions 3D ont ensuite été complétés pour remplacer la modalité SPECT par les données de l'examen bimodal TEP/CT (Tomographie par Emission de Positons/Tomodensitométrie). Les données d'un cas clinique trimodal TEP/CT/coronarographie ont été utilisées pour vérifier l'adéquation de nos algorithmes à la nouvelle modalité d'imagerie.

Mots clés: Recalage 2D multimodal, segmentation des contours myocardiques, reconstruction et superposition 3D, coronarographie, SPECT, TEP-CT, lancé de rayons.

Composition du jury :

Rapporteurs :
Jean Claude CARDOT CHU Jean-Minjoz, FRANCE
Maria da Graça CRISTO dos SANTOS Lopez Ruano University of Algarve, PORTUGAL

Examinateurs :
Gilles KARCHER Directeur de thèse ? CHU Nancy, FRANCE
René HUSSON Co-Directeur de thèse ? CRAN ? Nancy, France
Gérard ETHEVENOT CHU Nancy, FRANCE
Christian DAUL CRAN ? Nancy, FRANCE

Invité :
Didier WOLF CRAN ? Nancy, FRANCE

"Architecture de coopération de réseaux sans fil"
(Soutenance de thèse - Davy DARCHE)

Résumé :


Ce travail de thèse aborde les problématiques de coopération de réseaux hétérogènes et de leurs exploitations par un terminal multi-interfaces en situation de mobilité. Le phénomène de convergence des services vers un support unique place le protocole IP comme moyen de communication universel pour le transport de l'information. Cependant, le modèle TCP/IP actuel ne permet pas d'exploiter simultanément, et efficacement, les différentes connexions radio (UMTS, 02.11, DVB) potentiellement disponibles auprès d'un terminal.
Nous avons réalisé un état de l'art, mettant en exergue les insuffisances des solutions actuelles, et nous permettant de définir les modes de coopération de réseaux. Nous proposons ici une nouvelle architecture protocolaire reposant
sur les protocoles IPv6 et SCTP, et intégrant une entité de gestion des différents réseaux affin d'obtenir une coopération de réseaux optimisée pour un service donné. A travers une expérimentation et diverses simulations, nous avons pu évaluer, par partie, les performances du modèle proposé.

Composition du jury :

Rapporteurs :
Ken Chen
Francine Krief

Examinateurs :
Laurent Toutain
Francis Lepage
René Kopp
Eric Gnaedinger

"Interactions commande-diagnostic. Application à la synthèse simultanée des algorithmes de commande et de détection des défauts."
(Soutenance de thèse - Philippe JACQUES)

Résumé :

Dans la majeure partie des travaux jusqu'alors effectués pour la surveillance des systèmes, les outils servant à la détection et à la localisation des défauts sont synthétisés à partir d'une représentation en boucle ouverte du système. Pourtant, les systèmes industriels sont souvent, pour ne pas dire toujours, insérés dans une boucle de régulation ou d'asservissement.
De plus, un rapide examen des rôles de la commande d'un système et de sa surveillance souligne des objectifs contradictoires : en effet, l'une des caractéristiques d'une commande performante est de minimiser (voire annuler) les effets des perturbations et des défauts sur les sorties du système tandis que le diagnostic a pour fin de souligner la présence de ces défauts. Suite à cette constatation et à la vue des quelques travaux déjà effectués dans le domaine, il apparaît clairement que l'existence d'incertitudes de modèle induit une dégradation dans la qualité du diagnostic du système en raison de sa commande.

La prise en compte de la présence d'incertitudes implique une influence des performances de la commande sur celles du module de diagnostic. Ainsi, la mise au point d'une procédure de diagnostic appropriée aux systèmes bouclés doit tenir compte de leur commande et de leur structure.

Les travaux présentés dans cette thèse sont axés sur l'étude des interactions existant entre la commande et le diagnostic et sur leur prise en compte lors de la synthèse des algorithmes de commande et de détection des défauts.

Dans un premier chapitre, les origines des interactions entre la commande et le diagnostic sont mises en avant et l'étude menée dans cette partie justifie la prise en compte de la loi de commande et de sa structure lors de la synthèse d'un module de diagnostic adapté au système en boucle fermée. Ensuite différentes méthodes existant dans le domaine du diagnostic des systèmes incertains bouclés sont examinées et classées suivant deux critères : le premier et le plus aboutit consiste à synthétiser simultanément la loi de commande et le générateur de résidus tandis que le second propose de prendre en compte la connaissance du correcteur dans la génération et l'évaluation des résidus après avoir synthétisé la loi de commande indépendamment du diagnostic. A partir de cet état de l'art, nous présentons nos motivations et nos objectifs.

Une méthode de synthèse simultanée des algorithmes de commande et de détection des défauts dans le cas de la seule prise en compte du régime de fonctionnement établi des systèmes est présentée au chapitre 2. Les lois de commande proportionnelle et proportionnelle intégrale sont envisagées afin de mettre en avant les conséquences de la présence d'une action
intégrale dans la loi de commande sur notre méthode. Cette méthode se base sur le formalisme des problèmes multi-objectifs : après un état de l'art des méthodes de synthèse multi-objectifs appliquées à l'automatique, notre problème de synthèse simultanée des algorithmes de commande et de détection des défauts est exprimé suivant la méthode min-max. Ce critère fait intervenir deux indices de performances : l'un porte sur les performances de régulation du système tandis que l'autre représente l'amplitude minimale détectable d'un défaut. Le compromis entre les performances de la commande et celles de la détection de défauts s'effectue par le choix de 2 paramètres dont l'influence sur les résultats de l'optimisation du critère multi-objectifs est examinée au travers une courbe de Pareto.
Afin d'assurer un bon comportement dynamique du système bouclé (stabilité et rapidité), l'optimisation du critère multi-objectifs est réalisée sous une contrainte de placement des pôles du système en boucle fermée.
La génération des résidus étant issue d'une synthèse en boucle fermée, une technique d'évaluation des résidus particulière au contexte de boucle fermée est ensuite mise en oeuvre.

Un exemple de simulation est introduit afin d'illustrer l'apport de notre approche par rapport à l'approche classique de synthèse découplée des algorithmes de commande et de détection des défauts. Cet exemple souligne également l'intérêt, tant pour la commande que pour la détection des défauts, de considérer une loi de commande proportionnelle intégrale.

Le chapitre 3 propose d'étendre l'étude menée au chapitre 2 à l'ensemble du fonctionnement des systèmes par la considération de performances dynamiques lors de la synthèse du générateur de résidus. Cette partie s'appuie sur la méthode de l'espace de parité adaptée à la prise en compte d'erreurs de modèle multiplicatives et de perturbations additives.

"Filtrage robuste pour les systèmes stochastiques incertains"
(Soutenance de thèse - Souheil HALABI)

Résumé :

Ce mémoire aborde la synthèse de filtres d'ordre plein et d'ordre réduit pour les systèmes stochastiques à temps continu avec bruits multiplicatifs. Les bruits considérés dans l'équation d'état ou dans l'équation de mesures sont des processus de Wiener.
Les systèmes stochastiques étudiés dans ce mémoire sont écrits sous la forme d'une équation différentielle stochastique au sens d'Itô dans lesquels la dérive ou la diffusion sont linéaires et/ou bilinéaires.
Les systèmes avec plusieurs bruits multiplicatifs et les systèmes dont les mesures sont affectées par des bruits multiplicatifs sont également traités dans ce mémoire. La conception d'une commande basée sur un observateur pour les systèmes stochastiques incertains est étudiée.
Le critère de performance considéré est le critère H-infini du signal de perturbation vers le signal d'erreur d'estimation.
La stabilité retenue pour ces systèmes stochastiques est la stabilité asymptotique en moyenne quadratique.
La méthode utilisée pour trouver les matrices des filtres est basée sur l'utilisation de la théorie de Lyapunov généralisée aux EDS, la formule d'Itô et sur la résolution des LMIs couplées à des contraintes bilinéaires qui assurent la stabilité et la performance.

Mots clés : Systèmes stochastiques, Systèmes stochastiques incertains, Filtrage H-infinie, Filtrage H-infinie d'ordre réduit, Robustesse, Fonction de Lyapunov, Stabilité exponentielle en moyenne quadratique, Formule d'Itô, Inégalité Matricielle Affine (LMI), Processus de Wiener.

Composition du jury :

Rapporteurs :

Germain GARCIA, Professeur, LAAS, INSA, Toulouse,
Driss MEHDI, Professeur, Université de Poitiers,

Examinateurs :

Mohamed DAROUACH, Professeur, CRAN, Université Henri Poincaré, Nancy I,
Rachid OUTBIB, Professeur, L2ES, Université de Technologie de Belfort-Montbéliard,

Encadrants :

Hugues RAFARALAHY, Maître de Conférences, CRAN, Université Henri Poincaré, Nancy I,
Michel ZASADZINSKI, Professeur, CRAN, Université Henri Poincaré, Nancy I

Séparation de sources non-négatives. Application au traitement des signaux de spectroscopie
(Soutenance de thèse - Saïd MOUSSAOUI)

Résumé :

Lors de l'analyse physico-chmique d'une substance multi-composantes par des techniques spectroscopiques, les signaux mesurés sont des mélanges linéaires des spectres purs de différentes composantes de cette substance. L'objectif de l'analyse est d'identifier la composition de la substance via l'estimation des spectres purs et la détermination de leurs concentrations. C'est un problème de séparation de sources dans lequel les spectres purs sont les signaux sources et les coefficients de mélange permettent de déduire les proportions des différentes composantes dans la substance. Dans le cas de données spectroscopiques, la contrainte principale est la non-négativité des signaux sources et des coefficients de mélange. Il s'agit donc d'un problème de séparation de sources non-négatives.

La séparation de sources est un problème fondamental en traitement du signal dont une hypothèse forte est celle de l'indépendance statistique des signaux sources. Compte tenu du recouvrement entre les spectres purs, leur corrélation mutuelle devient parfois importante. Dans une telle situation, l'application d'une méthode fondée sur l'hypothèse d'orthogonalité s'avère infructueuse. Par ailleurs, une analyse des solutions admissibles sous la contrainte de non-négativité montre que cette contrainte toute seule ne permet d'obtenir une solution unique que dans certains cas particuliers. Ces deux constats motivent le d éveloppement de deux méthodes qui considèrent conjointement l'hypothèse d'indépendance et l'information de non-négativité. La première méthode est issue de l'approche de séparation par maximum de vraisemblance et la deuxième se fonde sur une inférence bayésienne. Une évaluation numérique des performances des méthodes développées à l'aide de données synthétiques et le traitement de signaux expérimentaux permettent, d'une part, de mettre en évidence les avantages de ces méthodes par rapport aux approches usuelles et, d'autre part, de déceler leurs limitations. Des applications au traitement de signaux réels issus de trois types de spectroscopies (Infrarouge, Raman et ultraviolet-Visible) illustrent l'apport de la séparation de sources non-négatives à l'analyse physico-chimique.

Composition du Jury :

Rapporteurs,
P.-O. Amblard, Chargé de Recherches au CNRS,
J.-Y. Tourneret, Professeur à l'INP. de Toulouse,

Examinateurs,
C. Jutten, Professeur à l'Univ. Joseph Fourier, Grenoble,
A. Mohammad-Djafari, Directeur de Recherches au CNRS,

Encadrants,
C. Carteret, Maître de Conférences à l'Univ. Henri Poincaré, Nancy 1,
D. Brie, Professeur à l'Univ. Henri Poincaré, Nancy 1,

Invité,
B. Humbert, Professeur à l'Univ. Henri Poincaré, Nancy 1.

"Contribution à la mise en place d'un système multi-capteurs pour la surveillance des eaux de surface : fusion de données et aide à la décision"
(Soutenance de thèse - Ameziane AZZAM)

Résumé :

Le travail de recherche entrepris s'inscrit dans le cadre de la mis en place d'un système de prévention à la pollution des eaux de surface, associant capteurs physico-chimiques et capteurs biologiques.

Dans une première phase, une étude statistique a été effectuée sur un jeu de données historiques du cours d'eau, afin de dégager des tendances entre paramètres.

D'autre part, une campagne de tests de pollutions, notamment par plan d'expérience, a été mené pour évaluer la réactivité des capteurs par rapport à la dynamique de leur signaux respectifs.

Un ensemble de simulations de données a permis de valider des méthodes statistiques pour la détection de changements brutaux dans le signal, notamment en utilisant des calculs de comparaison d'indices sur fenêtres glissantes par les tests de Page-Hinkley et comparaison de variances.

Ces données sont par la suite fusionnées pour établir des profils de pollutions qui sont intégrés dans le système d'aide à la décision proposé. Ce dernier se base sur des méthodes multicritères d'aide à la décision.

Mots Clefs : Aide à la décision, Analyse de variance, Comparaison d'indices par fenêtres glissantes,Fusion de données, Masques de pollution, Multi-Capteur, Multicritères, Plans d'expérience, Traitement de données.

Composition du jury :

M. POLIT         Professeur, Université de Perpignan
J.C. TRIGEASSOU         Professeur, Université de Poitiers
H. BEGORRE Professeur, Université Henri Poincaré Nancy 1
J.C. BLOCK Professeur, Université Henri Poincaré Nancy 1
M. ROBERT Professeur, Université Henri Poincaré Nancy 1


"Diagnostic et commande active tolérante aux défauts appliqués aux systèmes décrits par des multi-modèles linéaires"
(Soutenance de thèse - Mickaël RODRIGUES)

Résumé :

Cette thèse porte sur la synthèse de méthodes de diagnostic et de lois de commandes tolérantes aux défauts présents au sein de systèmes décrits par des multi-modèles linéaires. Parmi les approches dévolues à la commande tolérante aux défauts, nos activités de recherche sont consacrées à la voie active dans le cadre des systèmes décrits par des multi-modèles linéaires alliant un module de diagnostic permettant la détection, l'isolation et l'estimation de l'amplitude de défauts avec un module de reconfiguration permettant de re-synthétiser en ligne le régulateur afin d'assurer la stabilité du système en boucle fermée et les performances nominales.

Dans un premier volet consacré à la synthèse de méthodes de diagnostic, deux approches ont été développées faisant l'objet de deux chapitres distincts. La première concerne la synthèse d'un filtre adaptatif permettant de générer deux types de résidus : l'un étant sensible aux défauts et l'autre insensible. Le résidu insensible est utilisé à des fins d'obtention de fonctions de pondérations robustes aux défauts tandis que le résidu sensible est quant à lui utilisé à des fins de détection, d'isolation et d'estimation des défauts capteur ou actionneur. La stabilité de ce filtre adaptatif est analysée au moyen d'Inégalités Matricielles Linéaires (LMI). La seconde approche traite de la conception d'Observateurs polytopiques à entrées inconnues. Cette synthèse permet de rejeter des informations indésirables lors de la génération de résidus telles les erreurs de modélisation au moyen de contraintes égalités et de LMI. L'analyse de la stabilité et le placement de pôles de ces observateurs sont essentiellement basés sur l'analyse convexe par LMI ou ramenés à de tels cas.

Sur la base des travaux précédents, la dernière partie de la thèse est entièrement consacrée à la synthèse par retour d'état et de sortie de lois de commandes actives tolérantes aux défauts. Le cas de défaillances d'actionneurs, pertes d'actionneurs, est abordé en reconfigurant le régulateur tout en préservant la stabilité du système en boucle fermée par placement de pôles en régions LMI. La méthode proposée est étendue aux systèmes Linéaires à Paramètres Variants dans le temps (LPV) mis sous forme polytopique.

Mots clés :
Diagnostic, commande active tolérante aux défauts, multi-modèles, filtre de détection, observateur polytopique à entrées inconnues, stabilité, LMI

Composition du jury :

Rapporteurs :
  Ali Zolghadri                     Professeur, LAPS (ENSEIRB, Université Bordeaux I)
  Vincent Cocquempot        Maître de conférence HDR, LAGIS (Polytech'Lille,Université Lille I)

Examinateurs :
  Gilles Millérioux        Professeur, CRAN(ESSTIN)
  Youmin Zhang          Assistant professor, Aalborg University, denmark
  Didier Theilliol          Professeur, CRAN(UHP) ? co-directeur de thèse
  Dominique Sauter     Professeur, CRAN(UHP) ? co-directeur de thèse 



"Sur l'observation et la commande des systèmes dynamiques linéaires à retards"
(Soutenance de thèse - Adil ALIF)

Résumé :

Le travail présenté s'inscrit dans le cadre du suivi de trajectoires pour les systèmes à retards avec une approche temporelle. Il se divise en deux parties:

La première partie englobe tous les problèmes liés à l'estimation de l'état d'un système retardé ou neutre, à savoir, le filtrage H-infinity, filtrage à entrées inconnues, commande basée observateur. Des nouvelles approches sont introduites pour résoudre ces différents problèmes. Des comparaisons théoriques et numériques avec d'autres résultats existants dans la littérature sont effectuées pour tester l'efficacité des résultats obtenus.

La deuxième partie, basée sur des approches nouvelles, traite des problèmes du suivi de trajectoire d'un modèle dynamique quelconque. Des procédures pour construire des lois de commandes robustes permettant le suivi asymptotique de trajectoire, tout en garantissant les performances H-infinity, sont présentées. Des exemples numériques et des simulations sont montrés pour illustrer la démarche.

Mots clés :

Systèmes retardés, Systèmes neutres, Systèmes linéaires, Approche temporelle, Suivi de trajectoires, Filtrage H-infinity, Filtrage d'ordre réduit, Filtrage à entrées inconnues, Incertitudes paramétriques, Incertitudes structurées, Inégalités matricielles linéaires, Egalités matricielles linéaires, Approche dépendante du retard, Approche indépendante du retard, Suivi de modèles dynamiques, Commande basée observateur.

Composition du Jury :

Rapporteurs :
Silviu-ulian NICULESCU, Directeur de Recherche, CNRS, Heudiasyc, Compiègne
Jean Pierre RICHARD, Professeur, Ecole Centrale de Lille,

Examinateurs:
Michel FLIESS, Directeur de Recherche CNRS, STIX, école polytechnique,
Alain RICHAD, Professeur, Université Henri Poincaré Nancy 1,

Encadrants :
Mohamed DAROUACH, Professeur, Université Henri Poincaré Nancy 1,
Mohamed BOUTAYEB, Professeur, Université de Louis Pasteur Strasbourg

"Approche biométrique pour l'identification automatique des produits bois "
(Soutenance de thèse - Vincent MAZET)

Résumé :

Cette thèse s'inscrit dans le cadre d'une collaboration avec le LCPME dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps, une méthode déterministe permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée).
En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies ~ : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude naturel et très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée.
En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif~; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original a alors été introduit, il a l'intérêt de conserver l'ordre du système fixe.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.


Mots clés :

Spectroscopie infrarouge ; spectroscopie Raman ; correction de la ligne de base ; minimisation semi-quadratique ; approche bayésienne ; déconvolution impulsionnelle positive myope ; décomposition en motifs élémentaires ; simulation de loi normale tronquée.

Composition du jury :

Rapporteurs :
   Thierry Chonavel    professeur, département S&C (ENST Bretagne)
   Guy Demoment        professeur, L2S (Université Paris-Sud 11)
Examinateurs :
   Olivier Cappé       chargé de recherche, LTCI
   Jérôme Idier        chargé de recherche, IRCCyN
   Bernard Humbert     professeur, LCPME (UHP)
   David Brie          professeur, CRAN (UHP) ? directeur de thèse
Invité :
   Cédric Carteret     maître de conférences, LCPME (UHP)

" Méthodologie de passage d'un modèle CAO vers un modèle FAO pour des pièces aéronautiques : Prototype logiciel dans le cadre du projet USIQUICK"
(Soutenance de thèse - William DERIGENT)

Résumé :
L'automatisation de la chaîne CFAO nécessite la « transformation » du modèle CAO (Conception Assistée par Ordinateur), issu de la conception, en un modèle FAO (Fabrication Assistée par Ordinateur), adapté aux tâches de préparation à la fabrication (détermination des posages, génération des gammes et calcul des trajectoires outils).
Notre travail, réalisé dans le cadre du projet RNTL USIQUICK, a pour objectif de proposer une méthodologie de transformation permettant d'aboutir à un modèle FAO dédié à l'usinage 5axes de pièces aéronautiques.

En regard de cette problématique, la première partie de ce mémoire présente un état de l'art des différentes méthodes de transformation de modèles par reconnaissance d'entités et met en évidence l'inadéquation de celles-ci aux pièces aéronautiques. Nous proposons alors d'élaborer pour les tâches de préparation à la fabrication un modèle FAO s'appuyant directement sur le modèle CAO B-Rep, auquel sont ajoutées des informations relatives aux possibilités d'usinages des différentes faces le constituant. Chaque face enrichie du modèle est alors considérée comme une entité d'usinage dite « élémentaire ».

Pour aboutir à ce modèle FAO, nous proposons une méthodologie de transformation composée d'une vue statique (modèle de données) et d'une vue dynamique (processus de transformation). La deuxième partie du mémoire présente la vue statique. Elle s'appuie sur le modèle des données nécessaires au processus de transformation obtenu à l'aide de la méthodologie VIM (Viewpoint Integration Modelling). La vue dynamique, présentée dans la troisième partie, est constituée de deux étapes de traitements : la première dite étape « d'enrichissement » complète le modèle CAO par des attributs géométriques et technologiques, la seconde dite étape « d'analyse d'usinabilité » traite ce modèle enrichi afin d'adjoindre aux faces des informations d'usinage. Elle aboutit finalement au modèle FAO composé d'entités élémentaires.

Pour finir, nous validons, dans la dernière partie, les spécifications proposées par le développement et la mise en ?uvre d'un démonstrateur sous CATIAV5®. Nous présentons les résultats obtenus sur quelques pièces aéronautiques.

Jury :
Daniel BRISSAUD, Professeur (rapporteur)
Dominique DENEUX, Professeur (rapporteur)
Alain BOURJAULT, Professeur
Jean-Marc GRILLET, Dassault AVIATION
Gabriel RIS, Professeur
Muriel LOMBARD, Maître de Conférences

Invités :
Patrick MERLAT, Dassault SYSTEMES
Christian ROUCHON, Dassault AVIATION

 

"Approche biométrique pour l'identification automatique des produits bois "
(Soutenance de thèse - Cecilia FUENTEALBA)

Au travers de problèmes récurrents des filières agroalimentaires et pharmaceutiques, le concept de traçabilité est entré dans la vie courante. Les autres secteurs industriels, s'ils sont soumis à des contraintes de sécurité moindres, sont cependant concernés par le déploiement des technologies liées à ce concept. Ils cherchent par ce biais à faire face à l'exigence croissante des clients en terme de qualité, délais et personnalisation des produits dans un marché de plus en plus concurrentiel.
Le contexte particulier de ce travail est lié aux industries du bois pour lesquelles l'éco-certification et l'amélioration des processus sont deux facteurs de motivation de mise en ?uvre de la traçabilité. En effet, les caractéristiques des produits et processus de ces industries rendent complexes la synchronisation entre le flux de produits et le flux d'information, et par conséquent la capitalisation et l'accès aux informations pour tous les acteurs de la chaîne de transformation. Les problématiques soulevées sont donc:
- le manque de moyens d'identification automatique pour le suivi individuel des produits, les systèmes classiques codes-barres ou étiquettes électroniques montrant en effet leurs limites sur certaines parties du cycle de vie,
- et le manque de système d'information capable, en ligne, d'offrir les informations nécessaires à la prise de décision, et capable, a posteriori , d'assurer les fonctionnalités liées à la traçabilité.
Le travail de thèse aborde ces deux problématiques complémentaires. Dans un premier temps la mise en ?uvre d'un capteur de Contrôle Non Destructif est proposée pour établir une identification biométrique des produits. Basé sur la technologie micro-ondes, le capteur permet l'acquisition de signaux représentatifs de la structure interne des bois. Ces signaux sont traités, puis servent d'entrée à un algorithme de reconnaissance de formes.
Pour répondre à la seconde problématique, la proposition d'un modèle du système d'information est présentée. Centré sur le produit,  ce modèle prend en compte toutes les transformations possibles qu'il est susceptible de subir. De plus, la modélisation met clairement en avant les différents systèmes d'identification qui pourront être utilisés tout au long de la vie du produit.

"Systèmes contrôlés en réseau : Evaluation de performances d'architectures Ethernet commutées"
(Soutenance de thèse - Jean-Phlippe GEORGES)

La recherche dans le domaine des systèmes contrôlés en réseau a considérablement évolué depuis qu'Ethernet est de plus en plus utilisé en remplacement des traditionnels réseaux locaux industriels. Si ce choix d'Ethernet se justifie par sa faculté intrinsèque à supporter toutes les communications de l'entreprise (du bureau à l'atelier), il s'accorde difficilement avec les contraintes temporelles des applications de contrôle / commande distribuées. Contrairement aux réseaux de terrain, l'indéterminisme de l'accès à la voie d'Ethernet ne permet pas de garantir le respect des contraintes temporelles strictes.

La contribution de cette thèse est la définition d'une approche analytique permettant de majorer les délais de communication de bout en bout dans les systèmes contrôlés en réseau lorsqu'ils reposent sur une architecture Ethernet commutée. Les travaux se sont focalisés sur l'adaptation de la théorie du calcul réseau à ce type d'environnement. Dans ce cadre, cette thèse développe la modélisation d'un commutateur IEEE 802.1D ainsi qu'une méthode de calcul des délais de bout en bout basée sur l'augmentation du volume des rafales. Plusieurs expérimentations réelles ont permis de valider l'efficacité des bornes obtenues par calcul.

Outre l'évaluation de performances, ces travaux s'intéressent également à la Classification de Service (IEEE 802.1D/p) et à l'optimisation de l'ordonnancement des trames sur Ethernet. Cette thèse montre enfin comment une méthode d'évaluation de performances peut être utilisée pour dimensionner et optimiser la conception d'architectures Ethernet commutées.


Mots clés :
Systèmes contrôlés en réseau, systèmes temps-réel, évaluation de performances, Network Calculus, Ethernet commuté, classification de service

Composition du jury :

Rapporteurs :
Professeur Jean-Louis Boimond, Université d'Angers, LISA
Professeur Jean-Marc Faure, SupMéca, StOuen, LURPA
Professeur Christian Fraboul, Institut National Polytechnique de Toulouse, IRIT

Examinateurs :
Professeur Sirkka-Liisa Jämsä-Jounela, Université de Technologie d'Helsinki, Finlande

Directeurs de thèse :
Professeur Thierry Divoux, Université Henri Poincaré Nancy 1, CRAN
Professeur Eric Rondeau, Université Henri Poincaré Nancy 1, CRAN

" Contribution à un modèle d'évaluation quantitative des performances fiabilistes de fonctions électroniques et programmables dédiées à la sécurité"
(Soutenance de thèse - Karim HAMIDI)

La prévention des risques joue un rôle de plus en plus important dans les secteurs industriels, les applications de transport et les installations nucléaires. L'ajout d'une fonction dédiée à la sécurité est un choix visant, par la détection précoce d'une situation accidentogène, à éviter un accident par la mise en ?uvre de moyens de réaction permettant le retour du système dans un « état sûr ». L'estimation de ses indicateurs de performances doit donc permettre de juger des avantages en terme de réduction du risque, et des inconvénients en terme de perte économique induite par son déclenchement intempestif, que fait porter l'ajout d'une telle fonction à une installation.
L'utilisation d'architectures électroniques programmables (EP) s'est accompagnée de contraintes grandissantes (partage de ressources matérielles, informationnelles, modes dégradés de fonctionnement?), qui tendent à influencer fortement la qualité de service de telles fonctions. Il devient donc très difficile d'évaluer les performances (au sens fiabiliste) de telles fonctions. Devant l'influence grandissante des défaillances multiples sur la fiabilité de fonction de sécurité(CCF, MCF, activation de modes latents, défaillance de partie test et testée?), il nous a semblé important de proposer une méthode permettant, par une meilleure prise en compte de l'aspect temporel, d'estimer de manière plus précise les indicateurs de performances d'une fonction EP dédiée à la sécurité.
Ce travail introduit le concept d'information et interprète un mode de défaillance de la fonction d'étude comme le résultat de l'initiation et de la propagation d'information(s) erronée(s) jusqu'au niveau des actionneurs. Il propose donc de distinguer d'une part les phénomènes d'apparition et de disparition d'erreurs (matérielles et environnementales), et les séquences d'activation de celles-ci (défaillances locales) aboutissant à un mode de défaillance du système. Cette distinction permet d'expliquer le concept de « défaillances simultanées » et d'aborder de manières différentes les problématiques de défaillances de cause commune et d'activation de mode de défaillance latent. On construit, en partant de cette distinction entre existence et activation d'erreur, un modèle dynamique général d'estimation des indicateurs de performances. Il est basé sur un ensemble de modèles stochastiques, permettant de simuler l'évolution temporelle des probabilités d'erreurs matérielles pour chaque ressource (prise en compte implicite d'exposition mutuelle à des contraintes environnementales), et sur deux listes caractéristiques, donnant les combinaisons d'erreurs activées menant à un mode de défaillance du système. La méthode d'identification des listes proposées se base, d'une part, sur une représentation de haut-niveau, de type informationnelle de l'architecture fonctionnelle (incluant les procédures de test et de reconfiguration), et sur une représentation par automate d'état fini du comportement de ses entités constitutives. Elle peut être interprétée comme le résultat d'une propagation de langage (agrégation et réduction) le long de flux élémentaires d'information. Ce processus de construction a fait l'objet d'une automatisation (logiciel AF M CI en Java).
La méthode proposée de construction des processus stochastiques portant sur les états d'erreurs matériels sera, quant à elle, plus classique puisque basée sur des processus markoviens. On privilégiera, néanmoins, l'utilisation de chaîne de Markov non homogènes (taux de transitions non constants) pour permettre de prendre en compte l'influence de l'évolution des contraintes environnementales sur les taux de pannes des composants constitutifs de ces ressources matérielles, et expliquerons leur extension dans le cas de ressources préventivement maintenues.

Mots clés : performances FMDS, flux informationnel, automate d'états, chaînes de Markov, norme IEC61508

Jury :

Président : Prof. Yves Dutuit ? LAPS (Bordeaux)
Rapporteurs :
Prof. Etienne Craye ? LAGIS (Lille)
Prof. Christophe Berenguer ? LM2S ( Troyes )
Directeur :
Prof. Jean-François Aubry ? CRAN (Nancy)
Prof. Claude Iung ? CRAN (Nancy)
Dr. Olaf Malassé ? A3SI-ENSAM (Metz)
Invité : Dipl. Ing. Martin Rothfelder ? Siemens CT (Munich)

 

"Proposition d'un modèle de désagrégation pour un plan tactique stable dans le contexte des chaînes logistiques et de l'usage d'un APS"
(Soutenance de thèse - Virna A. ORTIZ ARAYA)

Aujourd'hui, les entreprises veulent savoir combien il faut produire, quand et en combien de temps ? De plus, elles veulent avoir une vision globale de leur système de production et de leur logistique. Ainsi, l a gestion de la chaîne logistique est en charge de fiabiliser le niveau de service aux clients, en assurant la meilleure rentabilité pour l'entreprise.
Nous montrons dans cette thèse l'intérêt du plan tactique et la manière de déterminer des plans détaillés, en utilisant une structure HPP. Nous proposons une méthodologie de désagrégation à deux niveaux qui cherche à déterminer des PDP stables , en prenant en compte des plans prévisionnels robustes et stables . Des modèles d'optimisation sont proposés ainsi que des contraintes qui prennent en compte les décisions relatives à chaque niveau, afin d'assurer une certaine cohérence entre eux. Finalement, nous appliquons un modèle de traitement de la demande réelle, en utilisant le processus AR, pour rendre plus stable les PDP déterminés.

Mots Clefs  : Chaîne Logistique, APS, Désagrégation, Plan Tactique, HPP, Programme Directeur de Production, Stabilité, AR (p).

Membres du jury :
Mme Colette MERCE, Professeur, LAAS, Toulouse (Rapporteur)
Mr Yves DALLERRY, Professeur, Ecole Centrale de Paris (Rapporteur)
Mr Samir LAMOURI, MdC, LISMMA CESTI, Paris (Examinateur)
Mr Alain RICHARD, Professeur, UHP, Nancy I (Examinateur)
Mr André THOMAS, HDR, UHP, Nancy I (Directeur de thèse)
Mr Cédric HUTT, Chef de produit, Entreprise DynaSys, Schiltigheim (Examinateur)

"Définition d'un système de dosimétrie tridimensionnel en curiethérapie à débit de dose pulsé"
(Soutenance de thèse - Faten AL AHMAD)

L'utilisation de l'imagerie 3D en curiethérapie avec la technique d'irradiation à débit de dose pulsé (PDR) a offert la possibilité d'optimiser la distribution de dose et d'évaluer cette distribution en relation avec l'anatomie du patient. L'intérêt principal de l'optimisation est d'assurer une couverture complète et homogène du volume cible par la dose de traitement tout en préservant les tissus sains et les organes à risque adjacents.
Notre travail a été de mettre en place un système de dosimétrie basé sur l'utilisation des images scanner en curiethérapie PDR. Nous avons abordé, dans ce travail, les éléments essentiels à définir pour aboutir à un système de dosimétrie 3D. Nous avons étudié la possibilité de définir ce système de dosimétrie dans des fantômes simulant des géométries d'implantation régulières et irrégulière, et dans des cas cliniques gynécologiques et ORL. Nous avons montré que la règle du système de Paris concernant la géométrie d'implantation assure une couverture homogène du volume cible, néanmoins, cette règle est parfois difficile à appliquer. Ce qui nécessite une optimisation de la distribution de dose. Nous avons analysé les différentes méthodes d'optimisation, et montré les paramètres spécifiques nécessaires pour l'application de chaque méthode. Nous avons étudié et analysé les capacités et les limites des méthodes d'optimisation basées sur la géométrie d'implantation (optimisation directe). La nécessité d'une méthode d'optimisation basée sur l'anatomie s'impose lorsqu'un système de dosimétrie 3D complet doit être défini. La méthode de la planification inverse (IPSA) a été étudiée pour aboutir à un système de dosimétrie 3D applicable dans tous les cas cliniques. Nous avons complété le système de dosimétrie en définissant une procédure d'évaluation de la distribution de dose tenant compte d'informations anatomiques et d'informations sur l'homogénéité de la distribution de dose.
Ce travail a montré la possibilité d'aboutir à une distribution de dose conforme au volume cible tout en préservant les tissus sains et les organes à risque. Un système de dosimétrie basé sur des méthodes anatomiques peut être applicable dans tous les cas cliniques et adapté à chaque anatomie du patient. Une haute précision de la définition du volume cible et des organes à risque est indispensable pour l'utilisation clinique d'une méthode de calcul de dose basée sur des données anatomiques.

Mots-clefs : Curiethérapie à débit pulsé, images scanner, optimisation directe, planification inverse.

"Analysis of Process Modelling Languages for Enterprise Interoperability"
(Diplôme Universitaire de Recherche Post-Doctorale - Pétia WOHED)

The research regards the domain of interoperability and interoperable information systems. Enterprise
analysis and modelling is an essential tool for achieving interoperability. However, the big number and diversity of enterprise modelling tools and techniques available today challenges the usefulness of enterprise modelling. Addressing this problem, a Unified Enterprise Modelling Language (UEML) is under development. The aim of this language is to function as a bridge between different enterprise modelling techniques and tools facilitating model translation and hence support model exchange and communication. The work presented here is on analysis of UEML and its further development.
Firstly, a number of additional requiems are identified and extensions to UEML for capturing these requirements are proposed.
Secondly, a number of enterprise modelling languages are in deep analysed so that modelling constructs missing from UEML shall be exposed and extension areas outlined.
Thirdly, a pilot study is carried out. In this study a formalisation technique for the purposes of formalising UEML is tested.

Directeur de Recherche: Prof. Gérard Morel
Co-Directeur de Recherche: Hervé Panetto

"Estimation de retard dans des conditions expérimentales passives - Application à l'identification de bief de rivière -"
(Soutenance de thèse - Magalie THOMASSIN)

Cette thèse porte sur l’identification de modèles à temps discret dans des conditions expérimentales passives, et plus précisément, sur l’estimation de retard. Ces travaux sont motivés par une application à des biefs de rivière aménagés pour la production d’énergie hydroélectrique. Le retard est dû au phénomène de transport de l'eau entre deux aménagements généralement distants de plusieurs kilomètres. Les problèmes résident dans la difficulté d'imposer des plans d'expérience, et en particulier, dans l'obligation d'utiliser des données recueillies dans un contexte de régulation avec action anticipatrice effectuée par un opérateur humain.
Après avoir classé les différentes notions d’identifiabilité (nombreuses dans la littérature), une approche permettant de déterminer le degré d’identifiabilité a posteriori des paramètres à partir d’une analyse de sensibilité est proposée. Son application montre la faible identifiabilité a posteriori du retard pour les données disponibles. Une étude d’applicabilité de différentes méthodes d’estimation de retard au cas du modèle simplifié du bief aménagé est menée en motivant les choix retenus. Ceci nous a alors conduit à généraliser une méthode fondée sur les corrélations des signaux d’entrée-sortie au cas de structures bouclées à deux entrées et une sortie.
Afin de pallier les inconvénients engendrés par les conditions expérimentales passives, une méthode originale d’identification bayésienne de réponses impulsionnelles est développée. Cette méthode, non-supervisée, présente l’avantage d’être efficace et simple à mettre en œuvre. La difficulté majeure de son développement réside dans l’estimation des hyperparamètres, due à un problème de dégénérescence d’une densité de probabilité. Ce problème est résolu en intégrant une nouvelle contrainte a priori sur l’hyperparamètre responsable de cette dégénérescence. Les résultats sur les données réelles montrent une diminution sensible de la plage de variation du retard estimé et une cohérence avec les paramètres physiques du bief. Enfin, une représentation originale des réponses impulsionnelles identifiées pour chaque jeu de données facilite la visualisation de leur évolution sur une période d’un an.

Mots-clés :
identification des systèmes, estimation de retard, conditions expérimentales passives, approche bayésienne, identifiabilité, bief de rivière aménagé.

Membres du jury :
Jean-Pierre Richard, Professeur à l’Ecole Centrale de Lille (rapporteur)
Didier Georges, Professeur à l'Institut National Polytechnique de Grenoble (rapporteur)
Michel Fliess, Directeur de Recherche au CNRS
Mohamed Darouach, Professeur à l'Université H. Poincaré, Nancy 1
Alain Richard, Professeur à l'Université H. Poincaré, Nancy 1
Thierry Bastogne, Maître de Conférences à l'Université H. Poincaré, Nancy 1

"Contribution à la maintenance prévisionnelle des systèmes de production par la formalisation d’un processus de pronostic"

L'émergence du concept de « durabilité » en entreprise oblige dorénavant les industriels à intégrer dans leur stratégie de développement, au-delà de la finalité économique habituelle, de nouvelles préoccupations sociales et environnementales. Cet enjeu majeur se décline, au niveau du système d'exécution de la production, par le concept de maintien en conditions opérationnelles (MCO) qui met en oeuvre un ensemble de moyens logistiques et de processus, dont le processus pivot de maintenance, principal levier pour agir sur la performance globale du système de production. Cette performance est d'autant plus difficile à maîtriser que l'évolution continue de l'environnement, le vieillissement des composants? modifient sans cesse les caractéristiques du système à maintenir en opérationnalité. Le MCO doit donc évoluer vers de nouvelles formes plus coopératives et plus proactives.
Cette évolution se traduit pour le processus de maintenance par le déploiement d'un Système Intégré de Maintenance Prévisionnelle (SIMP). Cependant, la mise en ?uvre du SIMP dans un cadre industriel complexe et bien que facilitée à l'heure actuelle par le développement des NTIC, reste délicate à réaliser à cause du manque d'outils/méthodes pour la modélisation et l'intégration de ses processus fondamentaux. En ce sens, notre contribution porte sur la formalisation du processus clé de la maintenance prévisionnelle : le pronostic. La démarche de modélisation proposée s'appuie sur le couplage d'une représentation probabiliste de l'état d'un système basée sur le formalisme des Réseaux Bayésiens Dynamiques (RBD), et d'une approche événementielle de la surveillance de la dégradation de ses composants. La mise en ?uvre du processus de pronostic sur le système de Déroulage / Pressage de la plate-forme TELMA démontre la faisabilité de la méthodologie proposée aussi bien d'un point de vue « construction des modèles », que d'un point de vue « intégration du processus de pronostic ».

Mots clés :
Maintenance, E-Maintenance, Maintenance prévisionnelle, Pronostic, Dégradation, Surveillance, Approche processus, Analyse dysfonctionnelle, Réseau bayésien dynamique.

"Contribution à la stabilisation des systèmes LPV et des systèmes linéaires à commutation"

Résumé :

L'étude des systèmes LPV a surtout été motivée par les techniques de synthèse de lois de commande dites à séquencement de gains (gain scheduling control) où la synthèse du correcteur se ramène à la synthèse de plusieurs correcteurs linéaires pour une famille de modèles linéarisés et une procédure d'interpolation. Même si l'on aboutit à de bons résultats en pratique, ces heuristiques ne prennent pas en compte les variations paramétriques et ne donnent donc aucune garantie de stabilité et de performance si ce n'est pour des variations très lentes des paramètres. C'est pourquoi l'approche LPV s'est avérée très utile pour simplifier la phase d'interpolation et les problèmes d'implémentation du correcteur à gains séquencés. Elle permet notamment de considérer le correcteur comme une seule entité où l'aspect séquemcement de gains est réalisé par la dépendance paramétrique du correcteur.

En France, l'étude de ces systèmes a commencé au CERT-ONERA où des résultats importants relatifs aux problèmes de robustesse notamment ont été développés avec une application privilégiée dans le domaine de l'Aéronautique. C'est dans ce domaine d'application que l'approche LPV est populaire puisque l'approche pratique et heuristique de la commande par séquencement de gains y trouve son origine. Cette popularité est plus que jamais d'actualité.

La contribution que nous présentons a un triple objectif :

* participer à la réduction du conservatisme des conditions de stabilité utilisées pour les systèmes LPV et en privilégiant l'utilisation d'une fonction de Lyapunov qui tient compte de la dépendance paramétrique.

* montrer que la classe des systèmes LPV peut être particularisée pour correspondre à une classe de systèmes dynamiques hybrides et apporter une solution aux problèmes de stabilité correspondants. Cette classe est celle des systèmes linéaires à commutation qui sont composés de systèmes linéaires et d'une loi de commutation gérant le passage d'un système à un autre. Ces systèmes sont dits hybrides puisque le comportement global est le résultat de l'interaction entre un comportement continu et un comportement type événementiel.

* montrer que la synchronisation du chaos appliquée au cryptage de l'information est un domaine d'application nouveau de l'approche LPV.

"Contribution à l'automatisation du processus d'acquisition de formes complexes à l'aide d'un capteur laser plan en vue de leur contrôle géométrique" :

Résumé :

De nos jours, il est possible de créer des pièces de formes de plus en plus complexes. La géométrie de telles pièces doit pouvoir être vérifiée rapidement. L'objectif de cette thèse est d'étudier une démarche automatisée de contrôle de pièces définies par leur modèle CAO. Il s'agit notamment de proposer les modèles, les algorithmes et les méthodes associées pour numériser automatiquement une pièce 3D. Actuellement, même si les technologies des différents capteurs s'améliorent tant au niveau performances que facilité d'utilisation, la détermination de la stratégie de numérisation est encore une tâche très interactive. L'expérience de l'opérateur a une grosse influence quand à la qualité du nuage de point. Les critères d'évaluation de la qualité d'un nuage de points sont la précision et la densité. L'approche proposée pour passer du modèle CAO aux trajectoires de numérisation comporte 6 étapes. Dans les étapes 1 à 3, les visibilités locales, globales et réelles sont calculées à partir du modèle CAO grâce à l'utilisation de la théorie des visibilités appliquée à une sphère de Gauss. Ensuite, dans une 4eme étape, le nombre de directions de visibilité nécessaires à la numérisation totale de la pièce est déterminé grâce à une heuristique. Dans la 5eme étape, les modèles surfaciques associés à chaque direction de scanning sont extraits du modèle CAO. Pour terminer, un module de génération de trajectoires planifie les trajectoires du capteur en prenant en compte les qualités optiques du capteur ainsi que sa géométrie afin d'optimiser la qualité du nuage de points et d'éviter les collisions.

Mots Clefs :
Visibilité, Planification de trajectoires, Numérisation 3D, Contrôle géométrique.

"Aide au diagnostic cardio-vasculaire par la superposition en 2D et 3D des images de coronarographie et de tomoscintigraphie. Segmentation de l'arbre coronaire et reconstruction 3D"

Résumé :

Cette thèse s'intègre dans un projet de synthèse d'un outil d'aide au diagnostic et à l'évaluation des maladies coronariennes. Actuellement, ce diagnostic s'effectue grâce aux résultats sous forme d'images de deux examens distincts: la coronarographie et la tomoscintigraphie. L'un décrit l'anatomie des artères, l'autre précise l'irrigation du myocarde.
Chaque image apportant une information complémentaire de l'autre (sténose et ischémie), le but est de générer une seule image contenant les deux renseignements liés entre eux, rapportés à un même repère et à une même échelle afin de rendre plus clair le lien de cause à effet entre les deux.
Le contexte médical de l'application et le partenariat d'industriels impose des contraintes fortes de fiabilité, de robustesse et de portabilité des algorithmes à concevoir. Il faut en particulier faire face à la diversité biologique des patients et à la qualité médiocre des images.
Le coeur est approximativement un ellipsoïde et les artères coronaires sont situées à sa surface. La coronarographie, image de projection, comporte plusieurs incidences sur lesquelles sont visibles à la fois les artères irriguant la paroi directement soumise aux rayons et celles irriguant la paroi opposée. La première partie de la thèse concerne la segmentation automatique des artères sur les coronarographies natives de manière à signifier différemment les artères propres à l'irrigation de chaque face pour ensuite superposer en 2D et 3D les données de perfusion de cette paroi. Un algorithme de poursuite séquentielle détectant l'ensemble de l'arborescence est implémenté, amélioré et testé. Les résultats ne permettent cependant pas une utilisation en routine clinique.

La seconde partie de la thèse propose une représentation 3D du coeur. Cette méthode, affranchie de toute donnée géométrique précise sur la structure des machines utilisées pour les examens, utilise des résultats de recalage pour réaliser, à partir de points homologues, une reconstruction 3D des artères schématiques sur le volume cardiaque de perfusion. Cette modélisation permet ainsi simplement de visualiser le lien entre sténoses et ischémie. Des tests sont ensuite réalisés sur un fantôme et neuf patients.

Mots clefs : segmentation, poursuite séquentielle, reconstruction 3D, coronarographie.

"Définition d'une méthodologie de Conception des Systèmes Mécatroniques Sûrs de Fonctionnement"

Les travaux de thèse développés durant ces trois années s'inscrivent dans la lignée de travaux en sûreté de fonctionnement de Didier JAMPI, à savoir définir une méthodologie de conception des systèmes de contrôle-commande qui intègre les activités de conception tout au long des différents cycles de vie. L'objectif d'une méthodologie est d'apporter une garantie sur la qualité des systèmes développés, tout en considérant les contraintes de coût et de temps.
Le principe général de cette première thèse consistait à exploiter un modèle exprimé dans le formalisme des réseaux de Petri.
L'expérience acquise dans le milieu industriel montre qu'il n'est pas envisageable de bouleverser radicalement les habitudes de conception, notamment en contraignant l'utilisateur à manipuler des langages qui lui sont étrangers, mais par contre que les méthodes actuellement utilisées peuvent être facilement améliorées en apportant des éléments complémentaires.Il est manifeste que la complexité croissante et la spécificité des systèmes embarqués justifieront de plus en plus le besoin de structurer l'ensemble des activités de conception. Vérification, validation, spécification comportementale et bien entendu sûreté de fonctionnement font partie intégrante d'un même processus. A travers cette thèse, nous avons voulu fédérer toutes ces activités autour d'un noyau central : la modélisation du système dans le formalisme habituellement utilisé dans les projets métiers de la conception.
Suite aux travaux précédents, nous avons tout d'abord souhaité améliorer la méthodologie basée sur les réseaux de Petri, et apporter quelques compléments indispensables. L'étude des méthodes formelles a démontré un intérêt certain dans la phase de vérification/validation : la capacité d'élimination d'un maximum d'erreurs permet d'accélérer les phases de tests ; de plus,les méthodes formelles sont applicables à chaque étape du raffinement d'un modèle, évitant ainsi l'introduction de fautes au cours de la conception. Enfin précisons que cette approche comble les limites des méthodes empiriques telles que la simulation ou le test : celles-ci permettent de prouver l'existence d'erreurs, mais jamais de démonter leur absence ! L'approche par « model-checking » garantit formellement que le modèle est sans erreur.
Un travail important a surtout été réalisé sur l'analyse quantitative de la sûreté de fonctionnement. Il semble important de disposer d'une modélisation dysfonctionnelle du système, c'est-à-dire un modèle qui traduit le comportement du système en présence de défaillances, afin d'améliorer la compréhension des mécanismes de ces défaillances et de permettre des échanges entre les différents protagonistes participant à un projet véhicule. Cette modélisation est également nécessaire en vue d'une capitalisation des expériences réalisées tout au long des différents
projets. Nous nous sommes donc orientés vers une méthode graphique et analytique : les graphes de Markov. De plus, la construction d'un tel modèle est facilitée de par son analogie avec les formalismes à états-transitions (Statecharts, réseaux de Petri,'). Néanmoins, il est reconnu que la démarche traditionnelle souffre de certaines limitations liées à la génération de l'explosion combinatoire du nombre d'états, et d'hypothèses restrictives. Les méthodes de simplification trouvées dans la littérature nous ont paru inapplicables au niveau industriel.
Nous avons adapté la méthode markovienne afin que celle-ci puisse être facilement compréhensible. A partir d'un système embarqué quelconque, le graphe de Markov illustrera par exemple les différents modes de fonctionnement existant (modes nominaux, dégradés, états redoutés'), et la façon d'y accéder (les taux de défaillances).
L'objectif principal de la méthode quantitative est de répondre à la problématique de représentation et d'évaluation de la fiabilité des SDH (Systèmes Dynamiques Hybrides). La complexité d'évaluation des attributs de sûreté de fonctionnement est liée à l'interaction permanente entre le comportement du système, et le processus de défaillance.
Le principe général à coupler les deux méthodes d'analyse classiques : la simulation et les graphes de Markov, afin de contourner les limites intrinsèques à ces méthodes (temps de simulation, explosion combinatoire).
L'approche proposée consiste à réaliser une agrégation des états élémentaires d'un graphe de Markov. L'influence du système sur le processus de défaillance est intégrée sur le modèle par le biais de termes de pondération des taux de défaillance. Ceux-ci permettent de prendre explicitement en compte la dynamique interne (rapide) du système. Ces coefficients sont évalués par une simple simulation, permettant ainsi de traiter des systèmes complexes.
Seul ce type d'approche, qualifié de « dynamique », permet de traiter des systèmes fortement dépendant du temps (par exemple, en cas d'existence de reconfigurations matérielles ou logicielles).

Mots clés : formalisme à état/transition, graphe de Markov, agrégation, séparation des dynamiques, simulation, model-checking.

"Commande basée sur des observateurs pour les systèmes non-linéaires en temps discret"

Les travaux de recherche qui ont été menés dans le cadre de cette thèse portent sur la stabilisation, par des commandes basées sur des observateurs, des systèmes non-linéaires en temps discret. Dans un premier temps, après un tour d'horizon des différentes lois de commande développées dans la littérature, nous avons fait le choix de prendre une direction peu exploitée jusqu'à présent, elle s'inspire de la loi de commande optimale pour les systèmes linéaires, et de l'étendre aux systèmes non-linéaires. L'approche que nous avons proposée a l'avantage de ne pas imposer une structure particulière à la sortie du système, contrairement aux méthodes qui se basent sur la théorie de la passivité. En outre, à la différence de la méthode Jurdjevic-Quinn, elle n'exige pas la stabilité de la dynamique libre tout en utilisant une fonction de Lyapunov standard et commune à plusieurs systèmes pour l'analyse de la stabilité. De plus elle a l'avantage d'être simple à implémenter. Utilisant les résultats établis précédemment, la synthèse d'une loi de commande basée sur l'Observateur de Kalman Étendu a été abordée. En non linéaire, l'introduction d'un observateur dans une loi de commande se révélant délicate du point de vue de la stabilité, l'accent a été mis sur l'analyse de la convergence. Des propriétés et des conditions de stabilité, sous forme d'inégalités matricielles, ont été également établies. La troisième partie, présente une loi de commande basée sur un observateur qui stabilise exponentiellement une classe de systèmes non linéaires. L'utilisation d'une loi de commande bornée, associée à un observateur de Luenberger, permet d'assurer la stabilité globale de la boucle fermée. Cette loi de commande peut être appliquée à des systèmes dont les dynamiques libres sont instables. Une extension aux systèmes à retard a été établie. En effet, dans la plupart des systèmes industriels, souvent, les modèles dynamiques sont en présence de retard. Ce dernier est une grande source d'instabilité. Dans la dernière partie, nous avons présenté des conditions sous forme d'inégalités matricielles assez simple à vérifier, qui permettent de stabiliser asymptotiquement une large classe de systèmes à retard non linéaires. D'autres conditions, permettant de générer des observateurs pour différentes classes de systèmes à retard non linéaires, ont été présentées. Les observateurs proposés possèdent la même dimension que les systèmes, car ils ne sont pas basés sur une augmentation de l'état, augmentation qui peut se révéler assez délicate dans le cas des systèmes de grandes dimensions ou avec un retard important. La conclusion dresse enfin le bilan des outils de commande proposés, fixes leurs limites, puis ouvre des perspectives de recherche vers lesquelles il semble intéressant de s'orienter. Mots clés: Systèmes non-linéaires, systèmes en temps discret, stabilisation, commande par retour d'état, commande basée sur un observateur, filtre de Kalman étendu, systèmes à dynamique libre instable, systèmes à retard, observateur, inégalités matricielles linéaires.

Les observateurs polytopiques pour la synchronisation du chaos des systèmes à temps discret

Une spécificité des systèmes dynamiques non linéaires réside dans la nature des leurs régimes permanents. Parmi l'ensemble des régimes permanents autres que ceux de type point fixe ou cycle, les comportements chaotiques se distinguent par leur complexité. Un régime chaotique est caractérisé dans l'espace d'état par des trajectoires non convergentes mais bornées, évoluant dans un domaine appelé ''attracteur chaotique''. Ainsi, la nature erratique et la grande sensibilité aux conditions initiales, constituent des caractéristiques dominantes du chaos. Deux constatations essentielles motivent mes recherches. En premier lieu, dans les années 1990, des travaux ont montré qu'un couplage adéquat entre deux systèmes chaotiques pouvait conduire à leur synchronisation. Par la suite, les conditions d'obtention de la synchronisation du chaos ont été formalisées du point de vue de l'Automatique et le problème subsiste encore en tant que question spécifique ouverte. En second lieu, il s'avère que les caractéristiques essentielles du chaos, à savoir son caractère erratique et sa grande sensibilité aux conditions initiales, peuvent être mises à profit à des fins de cryptage. En effet, ces propriétés sont étroitement liées aux notions de diffusion et de confusion usuellement rencontrées en cryptographie. L'élaboration du schéma de décryptage nécessite de façon conjointe la synchronisation de l'émetteur et du récepteur et la récupération de l'information d'origine. La phase de synchronisation dans ce contexte s'apparente également à la synthèse d'observateurs pour les systèmes non linéaires. La contribution des travaux présentés est double. Une nouvelle classe d'observateurs adaptés aux systèmes chaotiques pouvant être réécrits sous forme Linéaires à Paramètres Variant dans le temps (LPV) est proposée. La synthèse des observateurs est formulée en termes d'Inégalités Matricielles Linéaires. Elle a pour avantages d'être systématique, facilement soluble de par l'existence d'algorithmes numériques efficaces et d'assurer une convergence globale. La convergence est assurée par une fonction de Lyapunov dépendant du temps afin de minimiser le conservatisme des conditions. Dans le contexte appliqué au cryptage, deux nouvelles approches pour récupérer l'information au niveau du récepteur sont proposées et sont basées sur des observateurs polytopiques à entrées inconnues. Elles permettent d'améliorer les techniques de décryptage usuelles et d'élargir la classe des systèmes pouvant être utilisés en tant que générateurs de chaos.

Sûreté de fonctionnement de systèmes d'automatisation à intelligence distribuée

Ce mémoire est consacré à la modélisation et à l'évaluation des paramètres de sûreté de fonctionnement de systèmes d'automatisation à intelligence distribuée (SAID) ou systèmes commandés en réseau. Les systèmes d'automatisation à intelligence distribuée sont des systèmes qui sont composés de capteurs et actionneurs intelligents, architecturés autour d'un réseau de communication, typiquement un réseau de terrain. Les travaux développés traitent de l'évaluation de la sûreté de fonctionnement, notamment la fiabilité et la disponibilité de ces systèmes, en prenant en compte la normalisation. Cette approche s'applique à la fois à des grands systèmes et à des systèmes embarqués. Dans le but de proposer une méthode pour d'aide à la conception des SAID, trois approches sont développées : - une approche statique basée sur la topologie de l'architecture et traitant des fonctions à distribuer sur le SAID : diverses architectures sont évaluées, à l'aide notamment d'une extension des diagrammes de décision binaires, - une approche temporelle ou dynamique mêlant les réseaux de Petri colorés à arcs probabilistes et les simulations de Monte-Carlo et permettant la prise en compte de l'évolution des modes de fonctionnement et états du système, - une approche informationnelle, en cours de développement, par laquelle nous proposons d'aborder l'étude du SAID sous un autre angle, en nous affranchissant de l'architecture elle-même et en nous focalisant sur les informations circulant ainsi que leurs crédibilités. Les autres aspects traités dans ce mémoire concernent l'évaluation du niveau de sécurité de réseaux de terrains de sécurité, ainsi que l'étude, en cours, d'une boucle de sécurité constituée d'instruments intelligents.

Mots-clés : sûreté de fonctionnement ? fiabilité ? disponibilité ? sécurité ? système distribué ? instrumentation intelligente ? réseau de terrain ? réseau de Petri stochastique ? réseau de Petri coloré ? diagramme de décision binaire ? "networked control system" ? système d'automatisation à intelligence distribuée ? répartition de tâches ? approche statique ? approche dynamique ? approche informationnelle

"Contrôle par le produit des systèmes d'exécution de la production : apport des techniques de synthèse"

Résumé: Maîtriser la variabilité des produits impose de pouvoir adapter le contrôle de la production aux particularités de chaque produit et d'assurer individuellement leur traçabilité. En ce sens, le produit peut être considéré comme le pivot devant assurer la cohérence entre les niveaux de gestion et d'exécution de la fabrication. Ainsi, dans un système de production où l'intelligence est distribuée entre les différents acteurs de la production, et notamment dans le produit lui-même, automatiser implique de contrôler par le produit : à l'instant t les ressources qui assurent ses transformations d'états à travers le temps les ressources qui assurent sa transformation à travers les différentes unités de production Ce nouveau modèle d'organisation induit de nouvelles méthodes d'ingénierie. Nous modélisons les systèmes contrôlés par le produit dans le cadre de la théorie du contrôle par supervision, de manière à utiliser les techniques formelles de synthèse pour générer le contrôle par le produit des ressources et de la production.

Mots-clés : Personnalisation de masse, Contrôle par le Produit, Ingénierie d'Automatisation, Modélisation, Synthèse de la Commande, Synthèse de Trajectoires

"Modélisation et simulation de la logistique d'approvisionnement dans l'industrie automobile Application à un grand constructeur"

Face à un contexte de production en constante évolution, les constructeurs automobiles doivent maîtriser leur logistique d'approvisionnement. Aujourd'hui, sa complexité rend difficile l'évaluation globale de sa performance, de la commande d'un véhicule jusqu'à sa livraison au client. Nos travaux veulent contribuer à l'amélioration globale de la flexibilité de la logistique et de la réactivité face aux aléas d'approvisionnements. Nous proposons alors une modélisation des flux logistiques à des fins d'évaluation. Dans le cadre d'une approche systémique un méta-modèle UML des flux est proposé puis instancié sur la chaîne logistique d'approvisionnement PSA. Des indicateurs de flux pertinents sont ensuite proposés pour l'évaluation globale des performances d'un système logistique. Cette modélisation est implémentée dans une plateforme de simulation (SimAppro) de toute la logistique d'approvisionnement de PSA, connectée aux systèmes d'informations propriétaires. Nous proposons et mettons en ?uvre ensuite une démarche de validation de l'outil. Enfin nous avons effectué une application industrielle de nos travaux. Son but est d'apporter une réponse pour la juste sécurisation des stocks sans altération de la qualité de service. Les résultats obtenus par le biais de deux heuristiques simples (aspect décisionnel) couplés avec le simulateur SimAppro (évaluation) laissent à penser qu'il est possible de diminuer globalement les niveaux de sécurisation des stocks constituants tout en améliorant le nombre de véhicules « bons » en sortie des lignes de montage.

Mots clés : Modélisation, UML, Systémique, logistique d'approvisionnement, aide à la décision, simulation, industrie automobile

"Identification par les techniques des sous-espaces - Application au diagnostic"

Dans ce document, le problème d'identification des systèmes dynamiques MIMO et de détection et d'isolation de défauts de capteurs est abordé à l'aide des méthodes des sous-espaces dans ce document.
Le chapitre 1 destiné à l'identification des systèmes linéaires, commence par une présentation des méthodes classiques des sous-espaces basées sur l'estimation de la matrice d'observabilité étendue et/ou l'estimation de la matrice des séquences d'état. Ensuite, une nouvelle approche basée sur l'utilisation des modèles FIR et l'estimation des paramètres de Markov permettant d'obtenir une réalisation minimale et équilibrée à l'aide de l'algorithme ERA est proposée. Trois méthodes d'identification basées sur cette approche sont établies pour l'identification des systèmes linéaires en présence de bruits colorés.
Le deuxième chapitre s'intéresse à l'identification des systèmes à commutation à l'aide d'une modélisation multimodèle avec des modèles locaux découplés et des fonctions de pondération binaires. Deux méthodes sont proposées pour résoudre ce problème d'identification non supervisé : la première réalise la classification des données à l'aide des techniques de détection de ruptures de modèle tandis que cette classification est réalisée dans la seconde méthode par la détermination des hyperplans représentant les modèles locaux dans l'espace des sorties et des entrées. Après l'estimation des fonctions de pondération, une réalisation minimale et équilibrée de chaque modèle local est déterminée dans l'une ou l'autre méthode à l'aide de la méthode des moindres carrés pondérés.
Dans le chapitre 3, une méthode d'identification des systèmes non-linéaires avec l'approche multi-modèle est proposée. Contrairement au chapitre précédent, les fonctions de pondération des modèles locaux ne sont plus binaires mais prennent des valeurs comprises entre zéro et un. La méthode proposée suppose les poids connus puis identifie une réalisation minimale et équilibrée de chaque modèle local.
Le dernier chapitre propose une méthode de détection et d'isolation de défauts de capteurs dans le cas où le modèle du système n'est pas connu. La méthode approxime la sortie du système à l'aide d'un modèle FIR puis annule l'influence des entrées par une projection orthogonale ce qui permet d'obtenir un résidu structuré. Les conditions de sensibilité du résidu aux défauts de capteurs sont établies. La méthode proposée s'affranchit des incertitudes paramétriques du fait qu'aucun modèle explicite ou implicite n'est estimé.

Mots clés : méthodes d'identification des sous-espaces, systèmes à commutations, approche multi-modèle, détection et localisation de défaut de capteur, filtre impulsionnel à réponse finie (FIR), paramètres de Markov

"Définition d’un cadre pour l’organisation et l’évaluation des activités du travail coopératif "

Les entreprises se focalisent de plus en plus sur les aspects organisationnels qui leur permettent de se structurer en processus qu'il faut maîtriser. Cette orientation est renforcée par l'évolution des entreprises vers des structures qui privilégient le travail coopératif. Avec ces nouvelles approches, de nouveaux besoins apparaissent pour mieux définir, coordonner et contrôler les équipes et les activités du travail coopératif. Il y a besoin pour cela d'outils et méthodes d'aide à la gestion d'organisations complexes. Complexe signifie que l'organisation concernée met en jeu de nombreuses activités, des intervenants provenant d'horizons différents et surtout de nombreuses interactions entre les différentes activités.

Le travail de thèse porte sur la définition d'un cadre qui permette d'assister le travail coopératif en apportant aux acteurs une aide à la coopération et à l'activité de groupe. La définition de ce cadre s'inspire de la démarche d'amélioration de processus du CMM (Capability Maturity Model) développé par le SEI (Software Engineering Institute), repris par l'ISO 15504 (ISO SPICE). Ce modèle qui a pour objectif de rendre stables, prévisibles et matures un processus organisationnel, est construit selon 4 paliers d'évolution qui permettent à une organisation de franchir progressivement des niveaux de maturité.
Le cadre proposé dans cette thèse est défini selon une approche en 4 axes qui correspondent aux actions progressives à mettre en ?uvre pour définir une organisation adéquate des activités coopératives.
L'axe 1 concerne la structuration des activités : analyse des dépendances entre activités, regroupement et/ou décomposition en tâches, planification des groupes de travail.
L'axe 2 concerne la caractérisation des activités en fonction des interactions dans les groupes de travail : définition des rôles interactionnels et gestion des interfaces entre groupes de travail.
L'axe 3 concerne l'évaluation des performances d'une organisation de travail en fonction du nombre d'itérations entre activités : estimation des durées, charges et coûts.
L'axe 4 concerne l'optimisation d'une organisation de travail en fonction des résultats d'évaluation : mise en ?uvre de différentes solutions d'organisation et d'exécution des activités. Des méthodes principalement issues de la théorie des graphes et des techniques de partitionnement et évaluation de performance sont proposées en support dans chaque axe. Un outil logiciel mettant en ?uvre ces propositions a été développé dans le cadre de ces travaux. Il permet d'analyser, de décomposer et d'évaluer des processus complexes, ce qui en fait un support efficace pour l'aide à la décision en management, le contrôle dynamique des processus coopératif, pour la définition et la reconfiguration d'architecture informatique, et pour la mise en ?uvre de logiciels coopératifs (outils de groupware, workflow et portail collaboratif, ...).

Mots clés : Travail coopératif, Organisation, Théorie des graphes, Méthodes de décomposition, Evaluation matricielle

"Conception d'observateurs non linéaires par approche multimodèle : application au diagnostic "

Les méthodes de détection et localisation de défauts pour les systèmes représentés à l'aide d'un modèle dynamique s'appuient sur la génération d'indicateurs de défauts, souvent appelés résidus. Ces derniers sont calculés comme étant la différence entre des mesures prélevées sur le système réel et des estimations calculées à base d'un modèle. De nombreux résultats s'appuyant, en particulier, sur des modèles linéaires ont été développés dans diverses situations. Lorsqu'on souhaite représenter le comportement d'un système à l'aide d'un modèle non linéaire, la conception d'observateurs est en général plus délicate, notamment si l'on souhaite prendre en compte des entrées inconnues et des incertitudes de modèle. Le système peut alors être décrit à l'aide d'un multimodèle.
Dans ce mémoire, nous montrons comment transposer les techniques d'observateurs classiques notamment à mode glissant, appliquées pour l'estimation d'état et d'entrées inconnues de systèmes linéaires, pour la conception de multiobservateurs. La synthèse de ces derniers est basée sur la prise en compte d'un ensemble de contraintes permettant de garantir la convergence asymptotique du multiobservateur, ce qui conduit à la résolution d'un ensemble d'inégalités matricielles bilinéaires (parfois non linéaires) sous des contraintes structurelles. Ces inégalités peuvent être résolues en utilisant des techniques de linéarisation ou à l'aide de formulation LMI (inégalité linéaire matricielle) .

Mots-clés : Approche multimodèle, multiobservateur a entrées inconnues, mode glissant, stabilité quadratique, détection et localisation de défauts.