MANIFESTATIONS, SÉMINAIRES, SOUTENANCES , etc.


ARCHIVE - liste des annonces passées :


Cliquer ici pour afficher la liste
des soutenances de thèse et HDR 2013 à I3S


les manifestations
Date Organisateur Titre Lieu
06/02/2013
au 08/02/2013
Congrès 2013 de la Société Informatique de France
manifestation Société Informatique de France
La formation à l'informatique, de la maternelle au lycée, durant la vie professionnelle
Résumé    [ URL ]
Bâtiment FORUM

Congrès 2013 de la Société Informatique de France:
  
  

Résumé :

   Le congrès sera a organisé en quatre sessions, le mercredi et le jeudi : - formation à l'informatique à l'école, au collègue - l'informatique au lycée, avec un focus sur l'ISN - formation continue et formation professionnelle en informatique - et à l'étranger ? L'assemblée générale de la SIF se déroulera le mercredi 6 en fin d'après-midi. Une conférence commune avec le Colloquium Jacques Morgenstern et la remise du prix de thèse Gilles Kahn sont prévues le jeudi après-midi. Le vendredi 8 sera une "journée doctorants".

   

23/01/2013
au 23/01/2013
14h30
Labex UCN@SOPHIA
manifestation http://www.ucnlab.eu
Mediterranean Students Days
Résumé    [ URL ]
Euler bleu

Labex UCN@SOPHIA:
  
  

Résumé :

   Nous organisons durant 2 jours et demi (23-25 janvier) des journée de présentation du Campus SophiaTech à des étudiants du pourtour méditerranéen. Le but est de leur montrer nos activités scientifiques en espérant que certains d'entre eux vont poursuivre en Master 1 ou 2 ou en thèse à Sophia antipolis. On prévoit d'accueillir 6 à 8 étudiants d' Athènes (ou Grèce) 4 à 5 étudiants de Bologne 2 étudiants de l'Aquila 2 étudiants de Bari 4 étudiants d'Algérie (USTHB, Boumerdess) 3 étudiants de Tunisie : (ENSI, ENIT) 2 étudiants du Maroc INPT Rabat 3/4 étudiants de Barcelone donc entre 20 et 30 étudiants. Ces étudiants sont sélectionnés par nos partenaires ciblés à l'étranger. On prévoit le mercredi apres midi des présentations générales avec témoignages d'étudiants et les 2 autres jours essentiellement une immersion dans les équipes. Nous allons demander aux étudiants quelles thématiques/équipes ils souhaitent voir et nous reviendrons vers vous pour le programme exact, mais dores et déjà tachez de garder des créneaux pour les 24 et 25 Janvier.

   

12/12/2012
9h30 - 13h30
Conseil de laboratoire
manifestation I3S

Résumé   
salle de conference I3S

Conseil de laboratoire:
  
  

Résumé :

   Le conseil de laboratoire est ouvert à tous les membres du laboratoire n'hésitez pas à participer L'ordre du jour prévisionnel est le suivant : - 9h30 - 10h30 : une partie scientifique (la liste des orateurs n'est pas encore finalisée) - 10h30 - 11h30 : une partie formelle - postes mis au concours pour l'année 2013 - CPRH 27 et 61 - prévision de clôture budgétaire 2012 et budget prévisionnel 2013 - Comme lors du conseil de laboratoire du mois de juin, nous essayons de réserver une somme (de l'ordre de 100 Keuros) pour soutenir des projets scientifiques. - Pour soumettre 1 page recto/verso max décrivant la demande (tout est éligible) à faire remonter via votre pôle d'ici la fin novembre qui doit classer les demandes avant le 4 décembre. Le financement sera attribué par le conseil de laboratoire sur proposition du comité de direction. - 11h30 - 12h00 : une partie informative sur nos institutions (CNRS / INRIA / UNS / LABEX) - 12h00 - 13h30 : buffet

   

05/12/2012
13h30 - 15h30
Comité de direction du laboratoire
manifestation I3S

Résumé   
salle de conference I3S

Comité de direction du laboratoire:
  
  

Résumé :

   Ordre du jour prévisionnel - préparation budget - congés des CDD - interclassement demande financement des équipes (budget alloué 100.000 euros)

   

14/11/2012
13h30 - 15h30
Comité de direction du laboratoire
manifestation I3S

Résumé   
salle de conference I3S

Comité de direction du laboratoire:
  
  

Résumé :

   Ordre du jour prévisionnel : - renouvellement CDD Assistantes ? - calendrier d'ouverture / fermeture du laboratoire - feuille de temps si participation aux projets européens / FUI nouvelle géneration --> Marie-Pierre tu te renseignes sur ce qui existe au CNRS --> Mireille tu regardes l'outil que utilise Johan --> Robert tu regardes les outils Inria - ZRR Algorithmes

   

04/11/2012
au 07/11/2012
R. Maniewski, A. Liebert, O. Meste, H. Rix
manifestation
128th ICB Seminar on VARIABILITY IN BIOMEDICAL SIGNALS
Résumé    [ URL ]
Varsovie

R. Maniewski, A. Liebert, O. Meste, H. Rix:
  
  

Résumé :

   

   

18/09/2012
au 21/09/2012
FORMENTI Enrico responsable scientifique
manifestation services generaux / Conférence organisée par l'équipe MC3
AUTOMATA 2012 et JAC 2012
Résumé    [ URL ]
Village Club IGESA LA MARANA-20600 FURIANI

FORMENTI Enrico responsable scientifique :
  
  

Résumé :

   AUTOMATA 2012 est une conférence internationale de grande renommée (dix-huitième édition). A chaque édition environ 75 chercheurs du monde entier se retrouvent pour discuter et présenter leur derniers travaux sur les automates cellulaires et les systèmes dynamiques discrets en général. JAC 2012 est la 3 ème édition des Journées sur les Automates Cellulaires

   

24/10/2011
au 27/10/2011
Philippe RENEVIER-GONIN
EPU Templier
manifestation GLC / I3S/INRIA
23 ième Conférence Francophone Sur l\'Interaction Homme-Machine (IHM 2011)
Résumé    [ URL ]
EPU les Lucioles

Philippe RENEVIER-GONIN:
  EPU Templier
  

Résumé :

   

   

10/10/2011
au 10/10/2011
10h30
O. Meste & G. Carrault
manifestation SIS / GDR STIC-Santé

Résumé    [ URL ]
Paris

O. Meste & G. Carrault:
  
  

Résumé :

   Journée Fibrillation auriculaire: de l’ablation au traitement de l’information. Cette journée a pour objectifs de rapprocher les communautés des cliniciens et chercheurs en STIC autour i) du trouble du rythme cardiaque le plus fréquent qu’est la fibrillation auriculaire (FA) ii) de sa prise en charge thérapeutique par la technique d’ablation par brulures radiofréquences des zones engendrant le phénomène de fibrillation. Cette dernière approche est en effet de plus en plus utilisée en milieu Clinique. La localisation et l’intensité de la brulure dans les oreillettes sont des paramètres d’importance majeure. Toute information permettant d’optimiser ces paramètres avant ou pendant l’opération pourrait réduire les temps d’interventions et l’efficacité du traitement. Sur un plan sciences de l’ingénieur, ceci ouvre la voie aux techniques de modélisations et de traitements des signaux enregistrés en surface (12 voies standard ou BSPM), en endocavitaire ou bien encore in vitro. Les informations recueillies pouvant être temporelles, fréquentielles, spatiales. La matinée sera consacrée à des exposés cliniques mettant en évidence les pratiques cliniques et les besoins de l’ablation par radiofréquence. Les exposés de l’après-midi mettront en avant des modèles de générations, d’observations et de simulation de thérapies de la FA ainsi que les techniques de traitement des signaux actuellement développées pour répondre aux exigences cliniques exposées au paragraphe précédent. Parmi ces méthodes on trouve les techniques de séparation de sources, l’analyse de la complexité spatio-temporelle, … Enfin une large place sera laissée à la discussion et aux échanges informels (base de données, comparaison de méthodes, méthodes de traitements des signaux basées modèle).

   

14/06/2011
au 17/06/2011
Olivier DALLE
manifestation COMRED / COMRED-MASCOTTE (I3S-UNS-CNRS-INRIA)
PADS 2011 "25th IEEE/ACM/SCS Workshop on Principles of Advanced and Distributed Simulation"
Résumé    [ URL ]
UNS - Valrose - NICE-06

Olivier DALLE:
  
  

Résumé :

   PADS has expanded its traditional scope that focussed on state-of-the-art reasearch in parallel and distributed simulation to include all aspects of simulation technology. It is a premier location for introducing innovative ideas and research approaches in the entire simulation field. Due to its workshop character PADS offers a friendly and productive atmosphere enabling open discussions and plenty possibilities for interaction and scientific exchange between the presenters and audience, also outside the sessions.

   

24/05/2011
au 27/05/2011
Frédéric GIROIRE - Nicolas NISSE
manifestation COMRED / COMRED/Mascotte (I3S-CNRS -UNS-INRIA)
ALGOTEL 2011 "13èmes Rencontres Francophones sur les Aspects Algorithmiques de Télécommunications"
Résumé    [ URL ]
Cap Estérel-AGAY-83

Frédéric GIROIRE - Nicolas NISSE:
  
  

Résumé :

   

   

26/04/2011
au 27/04/2011
Frédéric PAYAN
Sophia Antipolis
manifestation SIS / Frédéric PAYAN
Journées GDR ISIS - Thème D - Action 3D : De l'acquisition à la compression des objets 3D - Edition 2011
Résumé    [ Annexes ]      [ URL ]
Porquerolles

Frédéric PAYAN:
  Laboratoire I3S
  Sophia Antipolis

Résumé :

   Ces journées sont organisées dans le cadre de l’Action 3D du thème D (Télécommunications : compression, transmission, protection) du GDR ISIS, en partenariat avec le GDR IG : http://gdr-isis.fr/index.php?page=reunion&idreunion=136 L’objectif est de présenter des travaux en cours sur toutes les techniques qui composent la chaîne «classique» de numérisation d’objets 3D, et également de faire émerger de futurs axes de recherche. Le programme scientifique couvrira 4 grandes thématiques : Acquisition, Représentation & Maillage, Analyse & Traitement (segmentation, protection, etc.), Compression. Un tutorial (conférencier invité) suivi par plusieurs exposés/démos seront proposés dans chaque thématique.

   Le PDF du programme détaillé est disponible à cette page : http://www.i3s.unice.fr/~fpayan/Programme-complet2011.pdf Les diaporamas sont disponibles à cette page http://www.i3s.unice.fr/~fpayan/gdr-isis.php

23/06/2010
9h30
pôle MDSC
Sophia-Antipolis(France)
manifestation MDSC / pôle MDSC
Journée du pôle MDSC
Résumé   
Salle la "Véranda" du Grand Château (Valrose)

pôle MDSC:
  laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   

Programme

9h30-10h: Accueil
10h-11h: Jean-Charles Régin
Improving the Held and Karp Approach with Constraint Programming

11h-11h30: Jérôme Chandesris
Automates cellulaires à coordonnées réelles

11h30-12h: Mohammed Said Belaid
Résolution de contraintes sur les nombres à virgule flottante par une approximation sur les nombres réels

12h-14h:Déjeuné – Restaurant l'Union

14h-15h:Jean-Paul Comet
Modélisations discrète et hybride des réseaux de régulation génétique

15h-15h30:Zhora Khalis
Adaptation de la logique de Hoare pour la modélisation de réseau génétique

15h30-16h: Pause café

16h-16h30:Lionnel Nicolas
Acquisition automatique de règles morphologiques

16h30-17h00: Tran Vinh Duc
One-relation languages and w-code generators".

   

09/06/2010
au 11/06/2010
Coorganisé par Eurécom et l'I3S
manifestation SIS
CROWNCOM 2010 : International Conference on Cognitive Radio Oriented Wireless Networks and Communications
Résumé    [ URL ]
Cannes, 1835 White Palm Hotel

Coorganisé par Eurécom et l'I3S:
  
  

Résumé :

   Scope Cognitive radio is an emerging technology in wireless access, aimed at vastly improving the way radio spectrum is utilized. The motivation for cognitive radio stems from various measurements of spectrum utilization, which generally show that spectrum is under-utilized. This means that there are many "holes" in the radio spectrum that could be exploited by the secondary users. The secondary user must exploit these spectrum opportunities without causing harmful degradation to the primary system. The research challenges in this area include devising methods for efficient spectrum pooling and sensing, and for interference management and dynamic resource allocation, as well as circuits and architectures meeting the often challenging requirements. The aim of this conference is to bring together original, high-quality contributions that present new techniques, concepts and analyses in the area of cognitive radio algorithms and system design. Specific topics of the conference include: spectrum sensing and pooling, network design and optimization, software-defined and flexible radio architectures, channel modeling, collaborative communications, as well as beamforming and multicast methods.

   

26/05/2010
au 28/05/2010
Payan Frédéric
France
manifestation Action 3D - thème D - GDR ISIS
Journées GDR ISIS - Thème D - Action 3D - \"De l\'acquisition à la compression des objets 3D : un état des lieux en 2010\"
Résumé    [ Annexes ]      [ URL ]
Porquerolles

Payan Frédéric :
  I3S
  France

Résumé :

   L’objectif est de faire un point sur les techniques actuelles qui composent la chaîne «classique» de numérisation d’objets 3D (depuis l’acquisition physique de l’objet, scanning, jusqu’à l’étape de compression, en passant par la génération du modèle numérique, maillage, etc.), et également de faire émerger des axes de recherche prometteurs. Le programme scientifique couvre donc 4 grandes thématiques : Acquisition, Représentation & Maillage, Analyse & Traitement (segmentation, protection, etc.), Compression.

   Les diaporamas sont disponibles à cette page http://www.i3s.unice.fr/~fpayan/2010-gdr-isis.php

01/12/2009
au 04/12/2009
14h30
Enrico Formenti
Sophia Antipolis
manifestation MDSC / Equipe MC3
Journées SDA2 + FRAC + NAFIT
Résumé    [ Annexes ]      [ URL ]
Théâtre du Grand Château, Parc Valrose, Nice

Enrico Formenti:
  Laboratoire i3S
  Sophia Antipolis

Résumé :

   Les 3-iemes Journees du groupe de travail SDA2 (Systemes Dynamiques, Automates et Algorithmes) du GDR IM se tiendront du mardi 1er décembre à 14h au vendredi 4 décembre 2009 à 12h à Nice.

Cette annee, ces journees sont couplees a deux autres événements:

- la 7ème édition des rencontres FRAC « Systèmes complexes et modèles de calcul »;
- les journées nationales du projet ANR NAFIT (New Algorithmic Forms for Information Theory).

Ces journees sont avant tout un lieu d'echange. Tous les membres du groupe de travail, doctorants inclus !, sont encourages a proposer des exposes (qui peuvent porter sur des travaux en cours, comme sur des travaux déjà acceptes/publies par ailleurs).

   THEMES PRINCIPAUX

- Automates et langages formels
- Combinatoire des mots
- Algorithmique du texte et du génome
- Systèmes dynamiques discrets
- Dynamique Symbolique
- Automates cellulaires
- Systèmes de numération
- Theorie de l'information
- Complexité de Kolmogorov


ORATEURS INVITES

Laurent Bienvenu (CNRS, Univ. Paris 7)
Jean-Marc Gambaudo (CNRS, Univ. Nice Sophia-Antipolis)
Gianpiero Cattaneo (Università di Milano-Bicocca, Italie)


EXPOSES

Les exposés ont une duree de 30 minutes. Pour en proposer un, il suffit de le préciser lors de votre inscription et de joindre le titre de l'exposé ainsi qu'un résumé de 5 à 10 lignes. (Rq: dans le cas ou le nombre d'exposés proposés serait trop important, nous pourrions être amenés à faire une sélection parmi les exposés).

FRAIS D'INSCRIPTION

Les frais d'inscription sont de 40€, somme couvrant (en plus de l'organisation stricte des rencontres), les 3 déjeuners ainsi que le dîner du mercredi. Les autres frais sont à la charge des participants (transport, logement, autres repas). Les modalités d'inscription sont disponibles sur la page web des rencontres.

PRISE EN CHARGE

Le GT peut prendre en charge la participation aux Journées de quelques participants. N'hésitez pas à vous adresser à mairesse@liafa.jussieu.fr ou enrico.formenti@unice.fr

05/07/2009
au 17/07/2009
Johan Montagnat, Diane Lingrand
I3S
manifestation GLC / équipe Modalis
International Summer School on Grid Computing
Résumé    [ Annexes ]     
Polytech', site des Lucioles

Johan Montagnat, Diane Lingrand:
  I3S
  

Résumé :

   The School will provide an in-depth introduction to Grid technologies that underpin e-Infrastructure and Cyberinfrastructure. It will present a conceptual framework to enhance each student’s ability to work in this rapidly advancing field. Reports from world leaders in deploying and exploiting Grids will complement lectures from research leaders shaping future e-Infrastructure. Hands-on laboratory exercises will give participants experience with widely used Grid middleware.

   http://www.iceage-eu.org/issgc09/index.cfm

29/03/2009
au 03/04/2009
BERNOT Gilles
manifestation I3S et CNRS
École Thématique "Modélisation de systèmes biologiques complexes dans le contexte de la génomique"
Résumé   
BELAMBRA VVF de La Colle sur loup

BERNOT Gilles:
  
  

Résumé :

    La compréhension des mécanismes qui sous-tendent les fonctions biologiques s'enracine dans celle de la morphodynamique des réseaux d'interaction moléculaires et cellulaires. Cette dernière devient aujourd'hui accessible, grâce aux progrès des méthodes de la biologie moléculaire à grande échelle (génomique, transcriptomique, protéomique), mais également à l'émergence de nouveaux outils théoriques permettant d'intégrer les données expérimentales au sein de modèles quantitatifs ou qualitatifs, permettant simulations, analyses et prédictions. Ce programme de recherche requiert un effort commun des informaticiens, mathématiciens, physiciens et biologistes, que l'École «Modélisation de systèmes biologiques complexes dans le contexte de la génomique» a pour objectif de faciliter l'École s'articulera autour de cinq axes d'intérets principaux : Chimie physique des systèmes biologiques Molécules et principes régulateurs Formalismes mathématiques pour les biologistes Réseaux biologiques Modélisation multi-échelle

   

20/11/2008
au 22/11/2008
R. Maniewski, H. Rix, O. Meste
manifestation
100th ICB Seminar on Variability of Biomedical Signals
Résumé    [ URL ]
Varsovie

R. Maniewski, H. Rix, O. Meste:
  
  

Résumé :

   Available Abstracts:
** Cardiovascular Variability Signals : the Epiphany of Complex Regulating System (S. Cerutti)
** Role of Arterial Pulse in Blood Flow (M. Beraia)
** Influence of Heart Rate Changes on Noninvasive Identification of Local Ischemia and Its Compensation (M. Heblakova)
** T-Loop Length and Position Alternans(D. Janusek)
** Variability of Body Surface Potential Maps for different action potential patterns simulation study (M. Kania)
** Physiological and Pathological Variability in Uterine Electrical Activity: a Challenge to be Faced to for the Diagnosis of Preterm Labor (C. Marque)
** Mechanically Induced Heart Rate Variability: Analysis and Processing (O. Meste)
** Multilead Analysis of T Wave Alternans in Stress Test (V. Monasterio)
** Physiological Causes of Variability in Blood Pressure Measurement (A. Murray)
** Inter-Individual Variability of ECG Wave Forms; How to Cope With Its Limiting Effect on Diagnostic Procedure (A. van Oosterom)
** Functional Data Analysis Applied to Biomedical Signal Variability (H. Rix)
** Short Term Heart Rate Variability as a Guide For Direct Noninvasive Detection of Vagus Nerve Activity (U. Steinhoff)
** Noninvasive Identification of Small Single or Double Ischemic Lesions From Variations in Surface Cardiac Electric Field (J. Svehlikowa)
** Multivariate Analysis of Cardiovascular Oscillations for Risk Stratification (A. Voss)
** Variability of The Neurophysiological Signals and Its Diagnostic Meaning (E. Zalewska)
** HR ECG Mapping in Risk Assessment of Ventricular Tachycardia (M. Fereniec)
** Estimation of Brain Connectivity: Where Does Variability Come From? (L. Senhadji)

   

06/11/2008
au 07/11/2008
Frederic Havet
Sophia Antipolis, France
manifestation COMRED / MASCOTTE
10emes Journées Graphes et Algorithmes (JGA)
Résumé    [ URL ]
INRIA

Frederic Havet:
  INRIA/I3S
  Sophia Antipolis, France

Résumé :

   Les JGA sont les rencontres annuelles du groupe de travail Graphes du GDR IM . Elles réunissent tous les ans, depuis dix ans, la communauté francophone des chercheurs en théorie et algorithmique des graphes. Elles sont l’occasion pour les différentes équipes de recherche de présenter leurs résultats marquants de l’année, à la fois ceux déjà présentés dans une conférence internationale et leurs résultats originaux.

   

21/10/2008
au 23/10/2008
12h00
Eric Madelaine
Sophia-Antipolis
manifestation COMRED
Symposium FMCO : Formal Models for Components and Objects
Résumé    [ URL ]
INRIA

Eric Madelaine:
  Equipe Oasis
  Sophia-Antipolis

Résumé :

   Large and complex software systems provide the necessary infrastucture in all industries today. In order to construct such large systems in a systematic manner, the focus in the development methodologies has switched in the last two decades from functional issues to structural issues: both data and functions are encapsulated into software units which are integrated into large systems by means of various techniques supporting reusability and modifiability. This encapsulation principle is essential to both the object-oriented and the more recent component-based sofware engineering paradigms. The objective of this symposium is to bring together researchers and practioners in the areas of software engineering and formal methods to discuss the concepts of reusability and modifiability in component-based and object-oriented software systems. This year the above objective will be realized by a concertation meeting of the following European IST projects and network in the sixth and seventh frameworks: * The IST-FP6 project CREDO on modelling and analysis of evolutionary structures for distributed services. The contact person is Dr. Frank de Boer (CWI, NL). * The IST-FP6 project GridComp and the FP6 CoreGRID Network of Excellence on grid programming with components. The contact person is Prof.Dr. Denis Caromel (INRIA Sophia-Antipolis, FR). * The IST-FP6 project Mobius aiming at developing the technology for establishing trust and security for the next generation of global computers, using the proof carrying code paradigm. The contact persons are Prof.Dr. Martin Hofmann (Ludwig-Maximilians-UniversityMunchen, DE) and Prof.Dr. Peter Müller (ETH, CH). * The ICT-FP7 project DEPLOY on Industrial deployment of advanced system engineering methods for high productivity and dependability . The contact person is Prof.Dr. Alexander Romanovsky (Newcastle University, UK). * The ICT-FP7 project Compass on Compliance-driven models, languages, and architectures for services. The contact person is Prof.Dr Schahram Dustdar (Vienna Un., AT) The symposium is a three days event organized to provide an atmosphere that fosters collaborative work, discussions and interaction. Extended abstracts of the contributions will be published after the symposium in a proceedings of Lecture Notes in Computer Science by Springer-Verlag.

   

20/10/2008
au 24/10/2008
9h
Denis Caromel
Sophia Antipolis FRANCE
manifestation COMRED / équipe OASIS en collaboration avec ERCIM et ETSI
ProActive Parallel Suite User Group, Free Training on Parallelism, Multi-core & Enterprise Grids, FMCO, etc
Résumé    [ Annexes ]      [ URL ]
INRIA

Denis Caromel:
  INRIA
  Sophia Antipolis FRANCE

Résumé :

   

OASIS, en collaboration avec ERCIM et ETSI, organise le 5th GRIDs @ 
Work, Oct. 20-24, sponsorisé par Microsoft, HP, Oracle, ActiveEon, 
Amazon, Premia, Liama, Huawei.

Le programme comprend en particulier: o 5th ProActive and GCM User Group, Tues. Oct. 21 http://www-sop.inria.fr/oasis/plugtests2008/ProActiveGCMUserGroup.html avec entre autres des exposés HP, Oracle-BEA, Amadeus, IBM, ATOS, GridSystems, GMO Boston. o Training gratuits: Parallel Processing: ProActive Overview, Wed. Oct. 22 http://www.activeeon.com/ProActiveOverviewTutorialFinance.php o Hands-On on ProActive Grid Component Model, Thur. Oct. 23 http://www-sop.inria.fr/oasis/plugtests2008/ProActiveGCMTutorial.html Incluant la gestion des codes patrimoines o Distributed and Grid Computing in Computational Finance,Mon. Oct. 20 http://www-sop.inria.fr/oasis/plugtests2008/GCPMF_day.html o EU Technical Concertation meeting: Converging Components, Services, SLA+QoS for Effective Utilities over Network Infrastructure http://gridcomp.ercim.org/content/view/37/16/ o FMCO: Formal Methods for Components and Objects, Oct. 21-23 http://www-sop.inria.fr/oasis/FMCO/fmco08.html o Super Quant Monte-Carlo Challenge, Oct. 20-24 http://www-sop.inria.fr/oasis/plugtests2008/ProActiveMonteCarloPricingContest.html Inscriptions indispensable ici: http://www-sop.inria.fr/oasis/plugtests2008/form.php

   Inscriptions indispensable ici: http://www-sop.inria.fr/oasis/plugtests2008/form.php

13/09/2008
au 13/09/2008
David Coudert
Sophia Antipolis, France
manifestation COMRED / MASCOTTE
1st International Workshop on Ad-hoc Ambient Computing (AdhocAmC)
Résumé    [ Annexes ]      [ URL ]
INRIA

David Coudert:
  INRIA/I3S
  Sophia Antipolis, France

Résumé :

   Ambient, pervasive, and ubiquitous computing are seen as a drastic shift for the computing systems. Indeed networked computing resources shall become invisible to users and cooperatively provide them with the right services at the right time. At the same time, ad hoc networks are wireless infrastructureless systems dynamically formed by co-operating nodes within communication range of each other. As such, they appear as an attractive networking paradigm for ambient computing. The aim of the workshop is to investigate the contribution of ad hoc networks to the realization of the ambient computing vision, from supporting algorithms and protocols to emerging computing paradigms and software system architectures. The overall goal of the workshop is to bring together researchers working on the numerous topics related to ad hoc ambient computing, aiming to provide an environment for sharing experiences and initiating collaborations.

   Collocated with Adhoc Now 2008. Proceedings freely available on http://hal.archives-ouvertes.fr/ADHOCAMC08

13/09/2008
au 13/09/2008
David Coudert
Sophia Antipolis, France
manifestation COMRED / MASCOTTE
PhD Workshop on Ad-hoc and Wireless Networks (PhD-NOW)
Résumé    [ Annexes ]      [ URL ]
INRIA

David Coudert:
  INRIA/I3S
  Sophia Antipolis, France

Résumé :

   The PhD-NOW workshop, following the success of PhD sessions at the senZations’06 and senZations’07 summer schools aims to provide a friendly and supportive atmosphere where PhD students can present their ongoing research for an open discussion, get constructive feedback and learn what problems are being tackled by the fellow students. More importantly, it also provides a venue for all participants to “network” with their peers and established networks researchers, obtain valuable guidance tips and participate in a forum designed specifically to benefit graduate students. We particularly encourage PhD students from the EU convergence regions and Western Balkan countries to take part in the workshop. Applicants should be far enough into their PhD to have a concrete proposal, and have initially outlined the most important issues and proposed research methodology.

   Collocated with Adhoc Now 2008. Proceedings freely available on http://hal.archives-ouvertes.fr/PHDNOW08

10/09/2008
au 12/09/2008
David Coudert
Sophia-Antipolis ( France )
manifestation COMRED / équipe Mascotte
7th International Conference on AD-HOC Networks & Wireless (AdHocNow'08)
Résumé    [ Annexes ]      [ URL ]
INRIA

David Coudert:
  INRIA/I3S
  Sophia-Antipolis ( France )

Résumé :

   Ad-Hoc networks are wireless, self-organizing systems formed by cooperating nodes within communication range of each other that form temporary networks. Their topology is dynamic, decentralized, ever changing and the nodes may move around arbitrarily. The last few years have witnessed a wealth of research ideas on ad-hoc networking that are moving rapidly into implemented standards. Following previous Ad-Hoc Networks and Wireless conferences in Morelia, Mexico (2007), Ottawa, Canada (2006), Cancun, Mexico (2005), Vancouver, Canada (2004), Montreal, Canada (2003), and Toronto, Canada (2002), the 7th International Conference on Ad-Hoc Networks and Wireless will take place at INRIA Sophia Antipolis Mediterranee, Sophia Antipolis, France, September 10-12, 2008.

   Prior to AdHoc-NOW 2008, the AEOLUS workshop will take place on the same site, September 7-9 2008. For more informations: http://aeolus.ceid.upatras.gr/

The two conferences AdHoc-NOW 2008 and IEEE PIMRC 2008 give you an opportunity to have a fruitful and exciting stay in French Riviera. After the 7th International Conference on AD-HOC Networks & Wireless (AdHoc-NOW 2008) in Nice (September 10-12, 2008), the 19th annual IEEE International Symposium on Personal, Indoor and Mobile Radio Communications (PIMRC 2008) will be held in Cannes (September 14-18, 2008).

08/09/2008
au 10/09/2008
David Coudert et Herve Rivano
Sophia Antipolis, France
manifestation COMRED / MASCOTTE
AEOLUS Workshop
Résumé    [ Annexes ]      [ URL ]
INRIA

David Coudert et Herve Rivano:
  INRIA/I3S
  Sophia Antipolis, France

Résumé :

   Aeolus project is an IST Integrated Project motivated by the possibility of a global computer of grand-scale consisting of Internet-connected computing entities (possibly mobile, with varying computational capabilities, connected among them with different communication media), globally available and able to provide to its users a rich menu of high-level integrated services that make use of its aggregated computational power, storage space, and information resources. Achieving this efficiently and transparently is a major challenge that can be overcome by introducing an intermediate layer, the overlay computer. The goal of AEOLUS is to investigate the principles and develop the algorithmic methods for building such an overlay computer that enables this efficient and transparent access to the resources of an Internet-based global computer.

   The Aeolus Workshop is collocated with Adhoc Now 2008.

25/08/2008
au 29/08/2008
Michel RIVEILL
 
manifestation GLC / équipe RAINBOW
6ème école d’été Intergiciel et Construction des Applications Réparties (ICAR)
Résumé    [ URL ]
Maison du séminaire

Michel RIVEILL:
  Professeur à l'EPU, Enseignant chercheur I3S
   

Résumé :

   

   

17/07/2008 E. Formenti
manifestation I3S / JOURNEES THEMATIQUES DE L'I3S
JOURNEE ENTROPIE, COMPLEXITE & INFORMATION
présentations disponibles voir [Annexes]
Résumé    [ Annexes ]      [ URL ]
salle de conference

E. Formenti:
  
  

Résumé :

   

   présentations disponibles:
Formenti

10/07/2008 G. Bernot & O. Meste
manifestation I3S / JOURNEES THEMATIQUES DE L'I3S
JOURNEE BIOSTIC
presentations disponibles voir [Annexes]
Résumé    [ Annexes ]      [ URL ]
salle de conference

G. Bernot & O. Meste:
  
  

Résumé :

   

04/07/2008 J. Galtier
manifestation I3S / JOURNEES THEMATIQUES DE L'I3S
JOURNEE OPTIMISATION COMBINATOIRE CONTINUE
presentations disponibles voir [Annexes]
Résumé    [ Annexes ]      [ URL ]
amphi Morgenstein

J. Galtier:
  
  

Résumé :

   

   présentations disponibles:
Comon
Galtier
Rueher1
Rueher2
Verel

16/06/2008
au 19/06/2008
Association Evolution Artificielle et le CNRS
( France )
manifestation Association Evolution Artificielle et le CNRS
3ième école d'été sur l'optimisation par algorithmes évolutionnaires
Résumé    [ URL ]
île de Porquerolles

Association Evolution Artificielle et le CNRS:
  
  ( France )

Résumé :

   Ecole thématique du CNRS Du 16 au 19 juin 2008 se déroulera, sur l'île de Porquerolles, la 3ième école d'été sur l'optimisation par algorithmes évolutionnaires, organisée conjointement par l'association Evolution Artificielle et le CNRS. Ouverte aux académiques, aux étudiants et aux industriels, elle vise à présenter les techniques d'optimisation par algorithmes évolutionnaires (Algorithmes génétiques, Stratégies d'évolutions, Programmation Génétique) dans un cadre à la fois théorique et applicatif. Structurée autour de 6 cours principaux, couvrant les différentes techniques évolutionnaires, elle permettra à chacun de s'initier ou de se perfectionner à leur utilisation par des travaux pratiques.

   

29/05/2008 Polytech'Nice Sophia, le CNRS, l'APEDV, l'INRIA et l'Université de Nice Sophia Antipolis
Sophia Antipolis ( France )
manifestation GLC / Polytech'Nice Sophia, le CNRS, l'APEDV, l'INRIA et l'Université de Nice Sophia Antipolis
6ème journée DeViNT: Accessibilité et Autonomie en milieu urbain : L'apport des technologies nomades
Résumé    [ URL ]
AGORA Einstein, 905, rue Albert Einstein, Sophia Antipolis.

Polytech'Nice Sophia, le CNRS, l'APEDV, l'INRIA et l'Université de Nice Sophia Antipolis:
  
  Sophia Antipolis ( France )

Résumé :

   Organisation de la journée Cette journée s'organise autour : 1. d'exposés sur les thèmes relatifs à la thématique de la journée, 2. de débats et de tables rondes autour des problèmes soulevés et des solutions proposées. 3. de stands où industriels et chercheurs peuvent présenter leurs solutions technologiques et répondre à certains des problèmes posés lors des exposés et des tables rondes. 4. de présentation de projets DeViNT réalisés par les élèves ingénieurs de Polytech'Nice Sophia en collaboration avec l'institut Clément ADER et l'école du Château à Nice.

   



les séminaires
DateOrateurTitreLieu
10/10/2013
14h00-17h00
M. Morup, C. Févotte, G. Favier
seminaire I3S / I3S
Tutorial on tensor approaches at I3S - 2
Résumé    [ URL ]
salle de conference I3S

M. Morup, C. Févotte, G. Favier:
  
  

Résumé :

   - The first session ***October 3, 2pm-4pm** is a tutorial given by Gérard Favier: general presentation of tensor tools and the broad range of applications in EE and CS. - The second session ***October 10, 2pm-5pm*** is composed of 3 talks: - 2pm-3pm: talk by Morten Morup, from Technical University of Denmark, Copenhagen, with a focus on the application of tensors to neuroimaging. Morten Morup also applies tensor methods to data mining ; - 3pm-3:15pm: coffee break ; - 3:15pm-4pm: talk by Cédric Févotte, Lagrange laboratory, UNS, on audio sources separation ; - 4pm-4:45pm: talk by Gérard Favier on the application of tensor methods to telecommunications ; - 4:45pm-5pm: Discussion.

   

03/10/2013
14h00-16h00
G. Favier
I3S
seminaire I3S / I3S
Tutorial on tensor approaches at I3S - 1
Résumé    [ URL ]
Polytech room 310 (Polytech Templiers, old building, left-hand side of Forum building, main entrance of Polytech)

G. Favier:
  I3S
  

Résumé :

   - The first session ***October 3, 2pm-4pm** is a tutorial given by Gérard Favier: general presentation of tensor tools and the broad range of applications in EE and CS. - The second session ***October 10, 2pm-5pm*** is composed of 3 talks: - 2pm-3pm: talk by Morten Morup, from Technical University of Denmark, Copenhagen, with a focus on the application of tensors to neuroimaging. Morten Morup also applies tensor methods to data mining ; - 3pm-3:15pm: coffee break ; - 3:15pm-4pm: talk by Cédric Févotte, Lagrange laboratory, UNS, on audio sources separation ; - 4pm-4:45pm: talk by Gérard Favier on the application of tensor methods to telecommunications ; - 4:45pm-5pm: Discussion.

   

03/09/2013
14h00
Sharhram Izadi
Cambridge, UK
seminaire SIS
Making Augmented Reality, a reality
Résumé   
salle de conference I3S

Sharhram Izadi:
  Microsoft Research
  Cambridge, UK

Résumé :

   Abstract: Augmented reality is gaining newfound momentum with the advent of new technologies such as consumer depth cameras, practical augmented reality glasses, and greater compute capabilities on mobile devices. However, it is still fundamentally a challenging problem which requires many new algorithmic and engineering contributions including computer vision, optics, hardware and rendering. In this talk, I will outline why augmented reality has become such an important field, why the time for this type of technology is now, and what the key challenges are. I will then outline new work we are doing in this space, particularly in the sensing and algorithmic space, in particular exploring new sensors for AR, and the design of new 3D reconstruction and user input algorithms. Bio: Professor Shahram Izadi is a principal research scientist within Microsoft Research Cambridge. He leads the Interactive 3D Technologies (I3D) group, and holds a visiting professorship in the Virtual Environments and Computer Graphics (VECG) group at University College London (UCL). He describes his work as: mashing together exotic sensing and display hardware with signal processing, vision and graphics algorithms to create new interactive systems, which enable users to experiences computing in magical ways. His group has had many notable projects and publications to date including: KinectFusion; KinEtre; Vermeer; HoloDesk; Mouse 2.0; SurfacePhysics; SecondLight; and ThinSight. Shahram has been at Microsoft Research since 2005 and prior to that spent time at Xerox PARC. He received a TR35 award in 2009 and was nominated one of the Microsoft Next in 2012.

   

03/09/2013
14h30
J.M Martínez Montiel
I3A Universidad de Zaragoza. Spain.
seminaire SIS
Finite Element based Sequential Bayesian Non-Rigid Structure from Motion
Résumé   
salle de conference I3S

J.M Martínez Montiel:
  I3A Universidad de Zaragoza. Spain.
  

Résumé :

   Abstract: Navier’s equations modelling linear elastic solid deformations are embedded within an Extended Kalman Filter (EKF) to compute a sequential Bayesian estimate for the Non-Rigid Structure from Motion problem. The algorithm processes every single frame of a sequence gathered with a full perspective camera. No prior data association is assumed because matches are computed within the EKF prediction-match-update cycle. Scene is coded as a Finite Element Method (FEM) elastic thin-plate solid, where the discretization nodes are the sparse set of scene points salient in the image. It is assumed a set of Gaussian forces acting on solid nodes to cause scene deformation. The EKF combines in a feedback loop an approximate FEM model and the frame rate measurements from the camera, resulting in an efficient method to embed Navier’s equations without resorting to expensive non-linear FEM models. The proposed algorithm can perform in real time at frame rate. It has been validated with three real sequences gathered with hand-held camera observing isometric and non-isometric deformations. It is also shown the consistency of the EKF estimation with respect to ground truth computed from stereo. Biography José María Martínez Montiel.- Full Professor (2012) Departamento de Informática e Ingeniería de Sistemas (Computer Science Dpt at Universidad de Zaragoza, specialized in real time 3D vision. He has been postdoctoral research visitor at Oxford University and Imperial College London. His basic research is funded by Spanish and European grants (Main researcher in the Spanish funded grant: Semantic Visual SLAM for Rigid and non Rigid Scenes (DPI2012-32168) “. Universidad de Zaragoza main researcher in the EU funded, “RoboEarth. Robots sharing a knowledge base for world modelling and learning of actions” FP7-ICT-248942). Recently his interests include transforming research results in products that can be exploited by companies; he leads privately funded transfer project and also government supported transfer projects such as "BinPickingSLAM - Bin-picking for industrial robot based on visual SLAM. He has co-authored numerous research papers published in the most prestigious conferences and journals in the field such as Int. Conf. on Robotics and Automation (finalist “ICRA Best Vision Paper Award 2009” and winner in “ICRA Best Vision Paper Award 2010”), Robotics Science and Systems Conference (RSS), IEEE Transactions on Robotics or International Journal of Computer Vision.

   

03/09/2013
15h00
Joni-Kristian Kamarainen
Tampere University of Technology, Department of Signal Processing, Finland
seminaire SIS
Object Alignment
Résumé   
salle de conference I3S

Joni-Kristian Kamarainen:
  Tampere University of Technology, Department of Signal Processing, Finland
  

Résumé :

   Abstract: Alignment of images containing objects is a predominant problem in visual object class detection and learning. Methods should learn objects by their parts and spatial variation of parts (eye, nose, etc.) which is difficult for objects in arbitrary poses. A straightforward solution is to annotate images with a set of ``object landmarks'', but due to laborious manual annotation, semi-supervised methods requiring no extra information except object example images are preferred. In this presentation, I explain our recent algorithm to rigidly align object class images. Our algorithm is based on the standard tools: local feature detectors and descriptors, correspondence based homography estimation, and random sampling based spatial validation of local features. References: Our method (BMVC2011): http://personal.lut.fi/users/joni.kamarainen/downloads/publications/bmvc2011.pdf State-of-the-art prior us (ICCV2007): http://vis-www.cs.umass.edu/papers/iccv07alignment.pdf Bio: Joni-Kristian Kamarainen holds the position of Associate Professor (tenure-track) of Signal Processing at the Department of Signal Processing, Tampere University of Technology. He works in computer vision, image and video analysis and pattern recognition. In addition to basic research, he has been involved with numerous industrial and applied research projects.

   

17/06/2013 Enrico FORMENTI
seminaire I3S,CNRS et UNS
CIBB & PRIB 2013 (Eighth IAPR International Conference on Pattern Recognition in Bioinformatics & Tenth International Meeting on Computational Intelligence Methods for Bioinformatics and Biostatistics)
Résumé    [ URL ]
Théâtre de Valrose à la Faculté des Sciences de Nice Sophia Antipolis

Enrico FORMENTI:
  
  

Résumé :

   

   

11/06/2013
10h00
Pierre Wiess
Toulouse
seminaire SIS / Pole SIS
Echantillonnage compressé suivant des trajectoires continues
Résumé   
salle de conference I3S

Pierre Wiess:
  Institut Mathématique de Toulouse, Institut des Technologies Avancées en sciences du Vivant
  Toulouse

Résumé :

   La théorie de l'échantillonnage compressé assure la reconstruction de signaux parcimonieux à partir d'un faible nombre de projections sur une famille de vecteurs. Elle a le potentiel de fortement réduire les temps d'acquisition, ce qui a de nombreuses conséquences positives en imagerie biologique et médicale par exemple. Cette théorie, bien que séduisante, souffre encore de très nombreuses lacunes pour être applicable sur des systèmes réels. Dans cet exposé, nous proposerons un état des lieux de la théorie existante ainsi que des éléments manquants pour pouvoir l'appliquer à des systèmes d'imagerie réels. Nous nous focaliserons ensuite sur un problème spécifique : la nécessité d'effectuer des mesures suivant des trajectoires continues. Nous montrerons plusieurs stratégies (et les justifieront théoriquement) pour résoudre ce problème. Elle reposent sur de l'échantillonnage par blocs, l'échantillonnage suivant des marches aléatoires ou encore sur l'utilisation de solveur du problème de voyageur de commerce.

   

31/05/2013
de 8H à 18H
Nhan La T
seminaire

Résumé   
salle de conference I3S

Nhan La T:
  
  

Résumé :

   

   

31/05/2013
de 8H à 18H
Nhan La T
seminaire

Résumé   
salle de conference I3S

Nhan La T:
  
  

Résumé :

   

   

31/05/2013
de 8H à 18H
Nhan LE THAN
seminaire Polytech,I3S,INRIA,Université de Nice
ESP 2013 (E-santé de Proximité)
Résumé    [ URL ]
salle de conference I3S

Nhan LE THAN:
  
  

Résumé :

   Quels sont les méthodes, les techniques et les outils scientifiques d'accompagnement des professionnels, des patients, des citoyens et des décideurs ? Le premier colloque ESP'2013 consacré à cette thématique aura lieu le vendredi 31 mai, salle CHARVET à Roquefort-Les-Pins. Organisé conjointement par la Mairie de Roquefort-Les-Pins et le groupe multidisciplinaire PSP (Pôle de Santé de Proximité) de l'Université de Nice Sophia Antipolis, il permettra de faire le point sur les travaux en cours et à venir dans ce domaine

   

22/05/2013 Frédéric PAYAN
Sophia Antipolis
seminaire SIS / Frédéric PAYAN pour le GDR ISIS (en partenariat avec le GDR IG)
AC3D’13 : De l’acquisition à la compression des objets 3D, Edition 2013
Résumé    [ URL ]
Ile de Porquerolles

Frédéric PAYAN:
  Laboratoire I3S - UNS
  Sophia Antipolis

Résumé :

   L’objectif principal était de faire rencontrer et de fédérer les chercheurs et industriels travaillant sur toutes les étapes présentes dans une chaîne de numérisation d’objets 3D : acquisition, reconstruction/modélisation, traitement/analyse, et compression. programme sur http://www.i3s.unice.fr/~fpayan/gdr-isis.php

   

05/03/2013
14h00
Irène VOTSI
Compiègne
seminaire SIS / séminaire SIS
Hidden Markov and Hidden Semi-Markov Modeling for Seismic Hazard Assessment
Résumé   
salle de conference I3S

Irène VOTSI:
  Laboratoire de Mathématiques Appliquées, UTC
  Compiègne

Résumé :

   Hidden Markov models (HMMs) are applied in an attempt to reveal key features for the earthquake generation, associated with the stress field, which is not accessible to direct observation. Considering that the states of the models correspond to levels of stress fields, the stress field level at the occurrence time of each strong event is revealed. The observations are considered after grouping earthquake magnitudes and the cases of different number of states are examined. The problems of HMMs theory are solved and the ensuing models are compared on the basis of Akaike and Bayesian information criteria. Although HMMs can contribute in revealing the stress field underlying the earthquake generation, these models are characterized by the constraint of a geometric sojourn time distribution for the different hidden states. Hidden semi-Markov models (HSMMs) were then introduced for dealing with relevant aspects, in order to overcome the constraint characterizing the HMMs. An HSMM is proposed and applied to observations related to earthquake occurrences. A nonparametric estimation method is followed by means of which, insights into features of the earthquake process are provided which are hard to detect otherwise. The observable and the hidden processes have finite state spaces, the underlying Markov chain is homogeneous and stationary and the observations are conditionally independent. The models are applied in Greece and its surrounding lands, concerning a complete data sample with strong (M > 6.5) earthquakes that occurred in the study area since 1845 up to present. In the sequel, the rate of the earthquake occurrence is evaluated through the proposed HSMM and its statistical estimator is calculated. The asymptotic properties of the estimator are studied, including consistency and asymptotic normality. A comparison between HMMs and HSMMs in a Markov and a semi-Markov framework is presented in order to reveal possible differences in their stochastic behavior partially governed by their transition probability matrices. Basic results are based on simulated data as well as on real ones. The impact of the differences is observed through the calculation of the mean value and the variance of the number of steps that the Markov chain (HMM case) and the embedded Markov chain (HSMM case) need to make for visiting for the first time a particular state.

   

21/02/2013
10h30
Paolo Robuffo Giordano
Rennes
seminaire SIS / séminaire SIS
Passive and Decentralized Shared Control of Multi-Robot Systems
Résumé    [ Annexes ]     
salle de reunion I3S

Paolo Robuffo Giordano :
  IRISA - Lagadic Team
  Rennes

Résumé :

   This talk will give an overview of some recent theoretical and experimental results in the field of shared control of multiple remote mobile robots, with a special attention to the case of flying robots such as Unmanned Aerial Vehicles (UAVs). In these applications, a human operator partially controls the behavior of a semi-autonomous group of mobile-robots by means of one or more haptic interfaces, and receives back a force cue informative of the swarm tracking performance and of additional properties of the surrounding environment (e.g., presence of obstacles or loss of connectivity). This kind of systems are designed in order to enhance the telepresence of the operator and the quality of the human robot interaction, especially when applied to practical scenarios like search and rescue, surveillance, exploration and mapping of remote/unaccessible sites. The talk will illustrate the nature and kind of problems addressed within this research line, by focusing on both theoretical analyses and experimental implementations, and then discuss some future research directions.

   Bio: Paolo Robuffo Giordano is a CNRS researcher at IRISA in Rennes and has previously been Project Leader of the group Human-Robot Interaction at the Max Planck Institute for Biological Cybernetics. He received the M.Sc. degree in Computer Science Engineering and the Ph.D. degree in Systems Engineering from the Dipartimento di Informatica e Sistemistica, Università di Roma "La Sapienza", in 2001 and 2008. He was a PostDoc at the Robotics Institute of the German Aerospace Center (DLR) in from 2007 to 2008. His interests are in the general areas of robotics and nonlinear control. In particular, he has been working on kinematic and dynamical modeling of physical systems, motion control of fixed and mobile manipulators, visual servoing, nonlinear state estimation, nonholonomic systems, control design for VR applications, motion simulation technologies, aerial robotics, bilateral teleoperation, and multi-robot systems.

06/12/2012
16h00
Gianfranco FERRARI, Libera Fresiello, Arianna Di Molfetta
Rome, Italie
seminaire SIS / séminaire sis
Activities of Cardiovascular Engineering Group of IFC-CNR. Two applications of circulatory modeling.
Résumé   
salle de reunion I3S

Gianfranco FERRARI, Libera Fresiello, Arianna Di Molfetta:
  Cardiovascular Engineering Group of IFC-CNR, Institute of Clinical Physiology
  Rome, Italie

Résumé :

   Main research activity of Cardiovascular Engineering Group at the Institute of Clinical Physiology (IFC) of Italian National Council for Research (CNR) is based on applications of circulatory modeling. This activity started in the frame of a project to develop a total artificial heart and, thanks to the cooperation with Nałęcz Institute of Biocybernetics and Biomedical Engineering of the Polish Academy of Sciences (IBIB-PAN), it was progressively extended to mechanical circulatory assistance through the development of circulatory models based on a hybrid structure (computational-physical). Mechanical circulatory assistance is one of the keywords of the Group’s activity. In this frame, it is important to analyze the interaction between the assistance and the cardio-respiratory system in different conditions determined by the level of physical activity. To this aim, an integrated model of respiratory (developed at IBIB-PAN) and circulatory systems, including autonomic controls, was developed to create a tool aimed at reproducing the effects of physical activity. The respiratory model includes the respiratory mechanics, the pulmonary circulation and the gas exchange modules. The computational circulatory model provides a lumped parameter representation of both venous and arterial sections of the systemic circulation split into: head, upper limbs, kidney, splanchnic and lower limbs circulations. Each district was characterized in terms of: resistance, flow and artero-venous oxygen difference (avO2diff). Physical activity was reproduced with the increment of oxygen consumption in the exercising circulatory regions. This tool, ready as a prototype, will be applied to mechanical circulatory assistance and is one of the applications presented in this seminar. A second keyword of the Group’s activity are clinical applications of circulatory models used as a support to clinical decision. In this different field, a numerical model dedicated to cardiac resynchronization therapy optimization was developed and tested in a prospective and randomized clinical trial. Another ongoing application is the use of the numerical model to support clinical decision in the field of pediatric cardiology, modeling congenital heart diseases and the different applicable surgical strategies. In the case of its clinical application, the model should reproduce the physiopathological condition of a specific patient starting from the measurements available in clinical environment (echocardiography, haemodynamics,...). Starting from the simulation of the patient it is possible to simulate different medical and surgical strategies both on adults and on children (pacemaker, mechanical assist device, atrial/arterial baffle, hybrid palliation,..). For this specific application, a more detailed model of the heart was developed. The model of the heart, including atria, ventricles and septum, is based on variable elastance models representing the Starling’s law and relating mechanical activity to the electrical activity represented by the ECG signal.

   

03/12/2012
10h30
Alexandre Dufour
Paris, France
seminaire SIS / Pole SIS
Analyzing cellular morpho-dynamics via time-lapse imaging
Résumé    [ Annexes ]     
salle de conference I3S

Alexandre Dufour:
  Institut Pasteur, unité d'imagerie quantitative
  Paris, France

Résumé :

   Cell deformation and motility are key factors involved in numerous biological phenomena, including tissue development, immune responses and different infectious processes. With the help of modern 2D/3D time-lapse fluorescence imaging techniques, we tackle the problem of cell motility and morphology analysis by developing mathematical image processing and shape modeling techniques. A case-study on cells under amoeboid motion illustrates how such transversal mathematical approaches can improve our understanding of the cell.

   Contact: Laure Blanc-Féraud

22/11/2012
10h30
Dana Lahat
Israel
seminaire SIS / Pole SIS
Second-Order Multidimensional ICA: Theory and Methods
Résumé   
salle de conference I3S

Dana Lahat:
  Tel-Aviv University
  Israel

Résumé :

   Independent component analysis (ICA) and blind source separation (BSS) deal with extracting a number of mutually independent elements from a set of observed linear mixtures. Motivated by various applications, this talk considers a more general and more flexible model: the sources can be partitioned into groups exhibiting dependence within a given group but independence between two different groups. The core of this talk is the statistical analysis of the blind separation of multidimensional components based on second-order statistics, in a piecewise-stationary model. We develop the likelihood and the associated estimating equations for the Gaussian case. We obtain closed-form expressions for the Fisher information matrix and the Cramér-Rao lower bound (CRLB) of the de-mixing parameters, as well as the mean square error (MSE) of the component estimates. For Gaussian data, our separation criterion achieves, up to higher-order terms, the CRLB, and is thus optimal in the MSE sense. We then turn to the case when the separation procedure is based on a one-dimensional model, followed by a clustering step, in which the one-dimensional output is assigned into groups, representing the multidimensional components. We show that for piecewise stationary data, and when only second-order statistics are used, this form of separation is suboptimal. We demonstrate our methods and algorithms on an astrophysical application. Namely, the extraction of the Cosmic Microwave Background Radiation from its observations.

   

13/07/2012
11h
France Robert
Fort Collins/USA
seminaire GLC / équipe Modalis
Bringing Software Models to Life
Résumé    [ URL ]
salle de conference I3S

France Robert :
  Computer Science Department / Colorado State University
  Fort Collins/USA

Résumé :

   Abstract :

Some practitioners have the limited perception that the purpose of software modeling is to produce models that communicate a developer's vision in the form of pictures. Others feel that the primary purpose of a model is to produce an implementation. While these are certainly good uses of software models, there is another important use: The use of models as a mechanism for obtaining feedback on one's understanding of software problems and on the quality of solutions (designs). While work on formal specification techniques address this issue, the tools developed thus far have proven to be too heavyweight for some software development projects. In this talk I will discuss some of the work we are doing on applying formal specification techniques in a software modeling context to provide lightweight support for rigorously analyzing model. I will describe a tool we developed for animating and testing UML design models, and an approach for statically analyzing behavior described in class models against good and bad usage scenarios.

   

09/07/2012
10h30
Varela Carlos
Troy/USA
seminaire GLC / équipe Rainbow
A Programming Model for Spatio-Temporal Data Streaming Applications
Résumé    [ Annexes ]      [ URL ]
salle de conference I3S

Varela Carlos:
  Worldwide Computing Laboratory à Rensselaer Polytechnic Institute,
  Troy/USA

Résumé :

   Abstract :

We describe a programming model to enable reasoning about spatio-temporal data streams. A spatio-temporal data stream is one where each datum is related to a point in space and time. For example, sensors in a plane record airspeeds (Va) during a given flight. Similarly, GPS units record an airplane’s flight path over the ground including ground speeds (Vg) at different locations. An aircraft’s airspeed and ground speed are related by a simple mathematical formula that correlates them with the wind speed and direction. Wind speeds and directions are typically forecast in 3,000-foot height intervals over discretely located fix points in 6-12 hour ranges. Modelling the relationship between these spatio-temporal data streams allows us to estimate with high probability the likelihood of sensor failures and consequent erroneous data. Tragic airplane accidents (such as Air France’s Flight 447 on June 1st, 2009 killing all 216 passengers and 12 aircrew aboard) could have been avoided by giving pilots better information which can be derived from inferring stochastic knowledge about spatio-temporal data streams. This work is a first step in this direction.

   Bio:
Dr. Carlos A. Varela is Associate Professor of Computer Science and Founding Director of the Worldwide Computing Laboratory at Rensselaer Polytechnic Institute.
Dr. Varela received his B.S with honors, M.S., and Ph.D. degrees in Computer Science, all from the University of Illinois at Urbana-Champaign.
Before joining RPI, Dr. Varela worked as a Research Staff Member at IBM’s T.J. Watson Research in 2000-2001.
Dr.Varela is Associate Editor and Information Director of the ACM Computing Surveys journal.
Dr. Varela is the Program Committee co-Chair for the 5th IEEE/ACM International Conference on Utility and Cloud Computing (UCC 2012), Dr. Varela was the Program Committee Chair for the 2011 IEEE/ACM International Conference on Cluster, Cloud, and Grid Computing (CCGrid 2011) and has been a member of of approximately forty other conference and workshop Program Committees.
Dr. Varela has given ten invited plenary lectures at international and national venues. He has supervised three Ph.D. dissertations and seven M.S. theses. Dr. Varela received Best Paper awards at HPDC-GECO’2006, eScience’2007, and CCGrid’2007. He is also a recipient of the NSF CAREER Award and two IBM Innovation Awards. The research reported in this talk is partially funded by the Air Force Office of Scientific Research.

06/07/2012
10h00
Florent Perronnin
Grenoble, France
seminaire I3S / Séminaire SIS/GLC
Large-Scale Visual Recognition with Fisher Vectors
Résumé   
salle de conference I3S

Florent Perronnin:
  Xerox Research Center Europe
  Grenoble, France

Résumé :

   The bag-of-visual-words (BOV) is certainly one of the most popular image representations. It consists in representing an image as a histogram of quantized local descriptor counts. I will present the Fisher vector (FV), an extension of the BOV which includes higher order statistics, i.e. which goes beyond counting. I will show that the FV enjoys several benefits with respect to the BOV: it is very efficient to compute and process and it yields to state-of-the-art results in large-scale retrieval and classification tasks. Especially, I will show retrieval results on up to 100M images and classification results on up to 9M images and 10K classes.

   

28/06/2012
16h
Sofiane BOUDAOUD
Compiègne
seminaire SIS / sémianire SIS
Analyse de la variabilité de forme des signaux électrophysiologiques
Résumé   
salle de reunion I3S

Sofiane BOUDAOUD:
  UTC
  Compiègne

Résumé :

    Les signaux électrophysiologiques représentent les mesures électriques de la propagation de bio-courants dans les tissus vivants. Ils se diversifient selon leur foyer de génération et leur utilité. Ils peuvent être vecteurs d’information neuronale (signaux EEG, potentiels auditifs,…) ou source de stimulation musculaire (ECG et EMG). De part leur nature et le mode de propagation, ils contiennent une variabilité sous forme diverse (amplitude, dynamique temporelle, forme). Les paramètres classiques de caractérisation se heurtent souvent à la nature fonctionnelle de la variabilité et n’arrive à exprimer qu’une information partielle et/ou erronée de celle-ci. Il faut donc proposer des outils adaptés à cette spécificité et capables de capter toute la variabilité présente. L’analyse de forme essaye de répondre à cette complexité d’analyse en proposant un formalisme fonctionnel adapté. Ce formalisme a fait ses preuves dans de nombreuses applications sur des signaux électrophysiologiques. Dans ce séminaire, seront exposés les derniers développements de cette technique de caractérisation de signaux. Nous présenterons deux applications pour illustrer son potentiel. La première application concerne l’étude de la variabilité de forme de potentiels cérébraux auditifs sains dans le but de détecter, par la suite, des troubles éventuels de l’audition. La deuxième application concernera l’analyse du signal EMG de surface, un signal aléatoire, dans le but d’extraire de l’information sur la stratégie de recrutement des Unités Motrices (UM). En effet, un grand challenge de l’électromyographie moderne est de pouvoir extraire, d’une manière non-invasive, de l’information sur la commande motrice représentée par le patron de recrutement des UM. Ce problème est complexe et sous-déterminé. Dans ce sens, et après une présentation de la physiologie musculaire, nous exposerons des résultats récents de simulation dans le but de tester la sensibilité (et la robustesse à la variabilité inter-sujets) d’un nouveau descripteur, basé sur l’analyse de forme de la densité de probabilité du signal EMGs, à des modifications de la commande motrice et de la physiologie musculaire.

   

25/06/2012
15h
Mohammad B. SHAMSOLLAHI
Tehran, Iran
seminaire SIS / séminaire SIS
Traitement des signaux ECG basé sur un modèle (Model Based ECG Signal Processing)
Résumé   
salle de conference I3S

Mohammad B. SHAMSOLLAHI:
  Professeur, Biomedical Signal and Image Processing Laboratory (BiSIPL), School of Electrical Engineering, Sharif University of Technology
  Tehran, Iran

Résumé :

   L'analyse automatique de l'ECG a fait l'objet d'intenses recherches au cours des trois dernières décennies. L'intérêt particulier pour l'analyse de l'ECG vient de son rôle étant une méthode efficace d'investigation non invasive qui fournit des informations utiles pour la détection, le diagnostic et le traitement des maladies cardiaques. Le signal ECG étant pseudo-périodique, chaque battement est composé d'ondes spécifiques PQRST, apparaissant pseudo-périodiquement dans le temps. Dans un travail en 2003, McShary et al. ont proposé un modèle de synthèse de l'ECG qui a unifié la morphologie et la répartition des impulsions du signal ECG dans un seul modèle non-linéaire dynamique. Dans ce séminaire, un nouveau cadre pour le traitement du signal ECG, basé sur ce modèle dynamique, est présenté. La formulation du modèle étant sous la forme d'une représentation d'état, les procédures d'estimation bayésienne pourraient être appliquées au modèle si les observations appropriées sont trouvées et liées à des variables d'état. Le signal ECG étant une variable d'état dans le modèle, le signal ECG enregistré peut être considéré comme une observation et ainsi un cadre bayésien à base de ce modèle est proposé en utilisant un filtre de Kalman étendu pour suivre les états de ce modèle dynamique. Certaines applications de ce cadre, tels que le débruitage, la compression et l'extraction des ondes PQRST, sont ensuite présentées. Dans le modèle McShary, l'ECG synthétique est considéré comme la somme de certaines fonctions Gaussiennes. En supposant la présence de trois ondes distinctes caractéristiques, correspondant à l'onde P, QRS et onde T, le signal ECG peut être divisé en trois composantes couplées. En considérant ces trois composantes comme variables d'état, un modèle dynamique modifié est proposé et un nouveau cadre (appelé cadre basé sur ondes) est proposé pour le traitement du signal ECG. Enfin, un modèle dynamique de plusieurs signaux cardiovasculaires est présenté. A la fin quelques applications de ces derniers modèles, tels que le débruitage simultané de signaux cardiovasculaires et la détection des arythmies cardiaques, sont présentés.

   

24/06/2012 PAYAN Frédéric (organisateur local)
Sophia Antipolis
seminaire SIS
La chaîne numérique 3D : de l'acquisition à la compression de données (Ecole d'été annuelle en traitement du signal et des images du GRETSI)
Résumé    [ URL ]
Peyresq (Alpes de Haute Provence)

PAYAN Frédéric (organisateur local):
  Laboratoire I3S
  Sophia Antipolis

Résumé :

   Le GRETSI et le GdR ISIS organisent depuis 2006 une École d'Été annuelle en traitement du signal et des images. Ouverte à toute personne intéressée (académiques ou industriels), elle s'adresse prioritairement à des doctorants ou chercheurs en début de carrière, et a pour but de présenter une synthèse ainsi que les avancées les plus récentes dans un thème de recherche d'actualité. Cette École d'Été a lieu tous les ans et a pour cadre le magnifique village de Peyresq. Motivations scientifiques Les développements technologiques récents concernant l’imagerie tridimensionnelle (outils d’acquisition comme les scanners 3D, modeleurs, cartes graphiques dédiées, etc.) rendent possibles la création et le stockage de modèles tridimensionnels à grande échelle. C'est pourquoi, l’utilisation des modèles tridimensionnels se retrouve aujourd'hui dans de nombreuses applications telles que le patrimoine culturel, les simulations médicales, l’industrie mécanique, les jeux, la réalité virtuelle, et, de manière générale, tout ce qui touche au multimédia. Ces modèles , lorsqu'une représentation discrète est utilisée, sont souvent appelés maillages 3D dynamiques, puisqu'ils vont évoluer avec le temps. L'exploitation de cette masse d'information tridimensionnelle statique ou dynamique pose de nouveaux problèmes aux communautés qui jusqu’à récemment étaient plus habituées à travailler sur des signaux unidimensionnels ou bidimensionnels. Le traitement du «signal géométrique» puise ses fondements scientifiques dans de nombreuses disciplines. On peut citer les méthodes spectrales et l’analyse multi-résolutions par les ondelettes, les géométries différentielle/Riemannienne, l’analyse fonctionnelle, les statistiques sur des variétés non-linéaires, et enfin l’informatique graphique. C'est la raison pour laquelle l’étude des modèles tridimensionnels statiques et dynamiques est pluridisciplinaire par nature. Objectif L'objectif de cette école est de donner une couverture de l'état de l'art des étapes présentes dans une chaîne de numérisation d’objets 3D : acquisition, reconstruction/modélisation, traitement/analyse, et compression. Plus précisément, ces cours veilleront à: - donner les fondements théoriques nécessaires à l’analyse du maillage 3D statique et dynamiques. - présenter les algorithmes de compression 3D. - décliner les différentes facettes d'applications en particulier la TV3D. Ces cours seront donnés par des experts du domaine. L'école a pour ambition d'attirer un large public pluri-disciplinaire pour le faire profiter de cours donnés par des experts du domaine, permettant ainsi aux auditeurs de se former à ses avancées méthodologiques à la pointe en traitement des données tridimensionnelles. plus d'informations sur le site Web.

   

24/06/2012 Frédéric Payan (co-directeur scientifique de la manifestation)
Sophia Antipolis
seminaire I3S / GRETSI et ISIS
7ème École d'Été en traitement du signal et des images de Peyresq : La chaine numérique 3D
Résumé    [ URL ]
salle de conference I3S

Frédéric Payan (co-directeur scientifique de la manifestation):
  Laboratoire I3S - UNS
  Sophia Antipolis

Résumé :

   7ème École d'Été en traitement du signal et des images de Peyresq du 24 au 30 juin 2012, intitulée : « La chaine numérique 3D » (http://peyresq12.u-bourgogne.fr).

   

21/06/2012
14h00
Bertrand Gauthier
Université de Saint-Etienne
seminaire SIS / Pole SIS
Approche spectrale pour l'interpolation à noyaux
Résumé   
salle de conference I3S

Bertrand Gauthier:
  Université de Saint-Etienne
  

Résumé :

   Nous étudions les méthodes d'interpolation, dites à noyaux, dans le contexte des espaces vectoriels topologiques et décrivons comment la construction d'éléments interpolants peut être associée à un problème spectral. On définit un opérateur intégral à partir d'un processus de paramétrisation des données (consistant grossièrement à attribuer un certain poids aux informations) aboutissant au plongement du sous-espace hilbertien (ou RKHS) sous-jacent dans un espace de Hilbert auxiliaire, composé pour sa part de fonctions de carré intégrable. On obtient ainsi une représentation spectrale des éléments interpolants, permettant en particulier leur approximation par troncature du spectre. On peut alors montrer le caractère IMSE-optimal de l'approximation ainsi obtenue. Un exemple numérique (théorique) est développé, dans lequel nous illustrons comment cette approche peut être utilisée afin d'intégrer des informations de type conditions aux limites dans un modèle d'interpolation (nombre de données infinies) et en quoi elle offre une alternative intéressante pour la réduction de dimension.

   

14/06/2012
17h00
Alexandre Rolim Fernandes
Université de Fortaleza, Brésil
seminaire SIS
Cooperative Amplify-And-Forward Systems: Some New Results
Résumé   
salle de conference I3S

Alexandre Rolim Fernandes:
  Université de Fortaleza, Brésil
  

Résumé :

   In this talk, we are going to present some new results concerning cooperative amplify-and-forward (AF) wireless communication systems. In the first part of the talk, a theoretical analysis of the outage probability of an AF cooperative diversity orthogonal frequency division multiplexing (OFDM) system accounting for nonlinear distortions introduced by a nonlinear power amplifier (PA) is developed. Our analysis shows how the PA parameters affects the outage probability and the order of diversity for different SNR levels. In the second part, a new receiver for a multiuser AF cooperative diversity scheme is proposed. The receiver is based on the canonical polyadic (CP) decomposition of a tensor composed of received signals with dimensions associated with space (receive antennas), slot (cooperative channel) and time (symbol period). Under the assumption that channel state information (CSI) is not available neither at the relays nor at the base station, the proposed receiver jointly and blindly estimates the transmitted symbols and channel parameters.

   

07/06/2012
11h
Cortier Véronique
Vandoeuvre-lès-Nancy / France
seminaire I3S / Colloquium J. Morgenstern
Sécurité sur Internet ? La logique à la rescousse...
Résumé   
Amphi Morgenstern, INRIA, Sophia Antipolis

Cortier Véronique:
  Loria
  Vandoeuvre-lès-Nancy / France

Résumé :

   De nombreux dispositifs électroniques visent à améliorer la sécurité des échanges sur des réseaux ouverts comme Internet. Ces dispositifs, tels que les protocoles cryptographiques, reposent souvent sur le chiffrement des données et plus généralement sur des fonctions cryptographiques. Chiffrer les données sensibles est cependant loin d'être suffisant pour assurer la sécurité des communications. Ainsi, les protocoles cryptographiques peuvent comporter des failles subtiles, qui ne sont révélées que plusieurs années après. Il est donc nécessaire de concevoir des techniques rigoureuses pour analyser la sécurité de systèmes électroniques comme les protocoles.
Est-il possible d'aller plus loin et de prouver la sécurité d'un système, quelque soit le comportement d'adversaires malicieux ? Nous verrons dans quels cadres (ou modèles) des preuves de sécurité sont possibles. Nous évoquerons ainsi les modèles symboliques, où les protocoles sont représentés par des objets abstraits (comme la logique du premier ordre) et les modèles cryptographiques, où les messages et les protocoles sont représentés beaucoup plus fidèlement. Les premiers offrent un cadre simplifié, plus accessible à la preuve tandis que les seconds offrent des garanties de sécurité plus fortes.
Nous illustrerons nos propos avec un exemple important et controversé : les protocoles de vote électronique.

   

31/05/2012
11h
Bouleau Nicolas
Paris / France
seminaire I3S / Colloquium J. Morgenstern
Risque, science, et pluralisme
Résumé   
Amphi Morgenstern, INRIA, Sophia Antipolis

Bouleau Nicolas:
  Ecole Nationale des Ponts et Chaussées
  Paris / France

Résumé :

   En partant des probabilités philosophiques de Cournot, et en étudiant l'accueil dans le monde scientifique de la notion de hasard chez Jacques Monod, ainsi que quelques cas de l'histoire de l'astronomie, nous nous sensibiliserons à la nature des risques que prend la construction de connaissance.
Ceci nous permettra de pousser la réflexion épistémologique dans la ligne mais au delà de Thomas Kuhn et de Paul Feyerabend, dans le but premièrement d'un fonctionnement plus ouvert de la communauté scientifique, deuxièmement de prise en compte de problèmes environnementaux et écologiques mal appréhendés par la pensée économique.
Références
• "On excessive mathematization, Symptoms, Diagnosis and Philosophical bases for Real World knowledge"Real World Economics. n 57, 6 September 2011, 90-105. • Risk and Meaning, Adversaries in Art, Science and Philosophy, Springer 2011

   

11/05/2012
10h
Roose Philippe
Bayonne / France
seminaire GLC / équipe Rainbow
Les architectures logicielles pour l'Informatique Ambiante et Autonomique
Résumé    [ Annexes ]      [ URL ]
salle de conference I3S

Roose Philippe:
  LIUPPA-T2I / IUT de Bayonne / UPPA
  Bayonne / France

Résumé :

   ================== Résumé de l'intervention ===================

Les architectures logicielles pour l'Informatique Ambiante et Autonomique Philippe Roose, Maître de conférences, HdR, LIUPPA/UPPA

1/ Présentation de la thématique de travail de l’équipe T2I du LIUPPA
2/ Présentation de la plateforme Kalimucho (autonomique computing & informatique ambiante)
3/ Présentation de SGP (adaptation de documents multimédias pour périphériques mobile),
4/ Définition et intégration des communautés spontanées en environnement pervasif

L’équipe T2I (T2I Traitement des Informations spatiales, temporelles et thématiques pour l’adaptation de l’Interaction au contexte et à l’utilisateur) du LIUPPA est compose de 18 enseignants chercheurs. Elle se divise en 3 axes principaux :
1/ Modèles / plateformes d’Extraction et d’Indexation des informations spatio-temporelles (Ingénierie des documents électroniques : RDF, OWL,X-Schema ; Sémantique des contenus pour l'extraction et l'indexation d'informations spatio-temporelles ; Recherche d’informations combinant des critères spatiaux, temporels et thématiques avec représentation de cette information via une interface web cartographique ; Recherche d’informations combinant des critères spatiaux, temporels et thématiques avec représentation de cette information via une interface web cartographique)
2/ Modèles et Outils permettant d’opérationnaliser des interactions avec l'utilisateur tirant parti de la sémantique des contenus spatio-temporels (Ingénierie des Environnements Informatiques pour l'Apprentissage Humain, Conception Centrée Utilisateur final : End-user modeling, DSL ; Environnements de modélisation visuelle - Mashups)
3/ Architectures supportant l’échange de flux spatio-temporels issus ou vers des périphériques mobiles contraints (dont Architecture logicielle et plateforme pour systèmes ambiants intelligents, Gestion des données et contrôle des ressources dans les réseaux de capteurs sans-fils en fonction du contexte des applications et de la mobilité, Gestion des flux de données dans les grilles de calculs, optimisation des protocoles de transport pour le haut-débit et le trafic interactifs temps-réel, Méthodes de conception pour applications pervasives)
Dans ce séminaire, je vais essentiellement parler des architectures pour l’informatique ambiante/ubiquitaire/pervasive (tout est synonyme !), de l’autonomic computing faisant une grande place à l’adaptation, dans une optique de respect de QoS pour l’usager. C’est dans ce cadre-là que sera présentée la plateforme Kalimucho permettant l’implémentation d’applications pervasive autonomiques (n’ayons pas peur !) sur périphériques mobiles (ou pas !) de type PC, Tablette et Smartphones. Je présenterais également la suite de Kalimucho, qui est une plateforme elle-même dynamiquement adaptable. L’objectif est d’obtenir une plateforme logicielle permettant l’adaptation dynamique d’applications, permettant sa propose adaptation dynamique, et supportent différents types de modèles de contextes et de politiques d’adaptations au contexte. Parallèlement à la plateforme Kalimucho, axé essentiellement sur l’adaptation d’applications par reconfigurations dynamiques (aspect fonctionnel), sera présentée également une approche pour l’adaptation de documents multimédias en environnement pervasifs. Actuellement, les documents multimédias peuvent être consultés à tout moment et n’importe où sur une grande variété de dispositifs mobiles. L’hétérogénéité de ces plateformes, les préférences utilisateurs mais également le contexte de consultation impose des adaptations de documents à certaines contraintes, i.e. ne pas jouer de contenus audio lorsque l’utilisateur participe à une réunion. Actuellement, les langages de modélisation de contexte ne traitent pas ce type de contraintes. Ils listent généralement de multiples valeurs d’informations qui doivent être interprétées par les processus d’adaptation afin d’en déduire implicitement des contraintes. L’approche que nous préconisons est une modélisation du contexte où les informations du contexte sont liées par des contraintes explicites riches. Afin de valider cette proposition, nous avons utilisé des technologies du Web sémantique en spécifiant les profils en RDF et en expérimentant leur utilisation sur plusieurs plateformes.
Enfin, le dernier axe de nos travaux intègre la notion communautaire à nos applications pervasives. L’idée est d’étendre la plateforme Kalimucho à la prise en compte de communautés spontanées s’articulant autour d’un intérêt ou d’une pratique commune. Nous travaillons sur une modélisation de communauté virtuelle, basée sur une ontologie, dont l’objectif est de faciliter l’interopérabilité et la collaboration.

   CV:

Philippe Roose est maitre de conférences en informatique depuis septembre 2001.
Il a passé sa thèse intitulée « ELKAR - Ré-Ingénierie d'applications pour la mise en œuvre de la coopération : Méthodologie et Architecture » en décembre 2000.
Il a monté et dirigé l’équipe ALCOOL (Architectures Logicielles, COmposants et ProtocOLes) de 2005 à 2010.
En 2006, il a eu un premier projet ANR JCJC accepté intitulé « TCAP - Transport de flux vidéo sur réseaux de capteurs pour la surveillance à la demande » (2006-2009) en collaboration avec le CRAN de Nancy.
En 2008 il a passé don HdR intitulée « De la réutilisation à l'adaptabilité ».
En 2010, il a déposé et obtenu une ANR (programme CONTINT) intitulée « MOANO - Modèles et Outils pour Applications NOmades de découverte de territoire » en collaboration avec l’IRIT (équipe IC3), LIG (Steamer, Sigma) et LIFL (Noce & INRIA Adam) (2010-2014).
Il est également le co-responsable du projet open-source Kalimucho, déposé et accepté sur OW2 et en cours de transfert technologique.
Il a coédité 2 revues (finalise un la coédition d’un livre sur l’adaptation) et écrit 2 livres sur l’histoire des micro-ordinateurs (2006) et des consoles de jeux de salon (2011) publiés chez Cépadues Editions
En 2012, il sera président des conférences UBIMOB & NOTERE/CFIP qui se dérouleront à Anglet en juin et octobre prochain.

10/05/2012
14h
Charles GOMES
ingénieur R&D chez l'Oréal
seminaire SIS / séminaire SIS
Contribution à la planification expérimentale et à la modélisation de réponses complexes et à l’analyse de sensibilité
Résumé   
salle de conference I3S

Charles GOMES:
  ingénieur R&D chez l'Oréal
  

Résumé :

   Les plans d'expérience classiques [1] permettent de déterminer les expériences optimales à réaliser afin de modéliser des surfaces de réponses de types continus et polynomiaux à partir de facteur(s) quantitatif(s) et/ou qualitatif(s) pour lesquelles nous pouvons obtenir des réponses qualitatives. L'avantage de ces plans est d’être optimal dans le cas linéaire, et que tous les outils de sensibilité [2] associés (consistant à déterminer, quantifier et analyser comment réagissent les sorties d’un modèle à des perturbations sur ses variables d’entrée) sont déjà bien développés. Néanmoins, ce type de plans montre des inconvénients, mis en évidence dans les cas de phénomènes discontinus [3,6]. En effet, la complexité des équations mathématiques sous-jacentes de certaines études chez l’Oréal, laisse supposer qu'une simple modélisation polynomiale n’est pas satisfaisante. La solution alors envisagée dans la littérature est d'utiliser le krigeage [6] ainsi que des plans d'expériences adaptés comme les Space Fillings Designs (SFD) [5]. A l'aide d'hypercubes latins qui permettent d'effectuer des simulations à l'intérieur du domaine expérimental, on ajuste une surface de réponse krigée. La structure du modèle de krigeage se prête bien à cette approche des phénomènes discontinus [3, 6]. Après une expérience pratique, il s'avère que cette solution ne répond pas forcément à tous les scénarii. En effet, une limite apparaît lorsqu'il s'agit de générer ce type de plans dans des espaces sous contraintes, lorsque la variable réponse est qualitative (ex: score) et lorsque les facteurs sont nombreux. De plus, la méthodologie pour les plans de type SFD n'est pas aussi complète que les plans classiques au niveau des outils de sensibilités. Bibliographie : [1] Droesbeke J.J., Fine J., Saporta G. (1994). Plans d’expériences, Applications à l’entreprise. Ed. Technip. [2] Jacques, J. (2005). Contributions à l’analyse de sensibilité et à l’analyse discriminante généralisée. Thèse de l’Université Joseph Fourier de Grenoble I. [3] Franco, J. (2008). Planification d’expériences numériques en phase exploratoire pour la simulation des phénomènes complexes. Thèse de l’école Nationale Supérieure des Mines de Saint-Etienne [4] Jourdan A. (2000). Analyse statistique et échantillonnage d’expériences simulées, Thèse de l’Université de Pau et des Pays de l’Adour. [5] Sergent M. (1989). Contribution de la Méthodologie de la Recherche Expérimentale à l'élaboration de matrices uniformes : Application aux effets de solvants et de substituants, Thèse de l’Université Aix Marseille III [6] Scheidt C. (2006). Analyse statistique d’expériences simulées : Modélisation adaptative de réponses non-régulières par krigeage et plans d’expériences. Thèse de l’Université Louis Pasteur Strasbourg. [7] Borkowski J.J., Piepel G.F., (2009) Uniform Designs for Highly Constrained Mixture Experiments. Journal of Quality Technology.

   

13/04/2012
14h
Mouloud ADEL
Marseille
seminaire SIS / séminaire SIS
ANALYSE AUTOMATIQUE DU RÉSEAU VASCULAIRE RÉTINIEN PAR DES MÉTHODES STATISTIQUES DE TRAITEMENT D’IMAGES
Résumé   
salle de conference I3S

Mouloud ADEL:
  Institut Fresnel
  Marseille

Résumé :

   L’analyse automatique de l’arbre vasculaire rétinien par des techniques de traitement d’images est une tâche importante pour de nombreuses investigations cliniques et constitue un domaine de recherche scientifique de premier plan. Une méthode automatique probabiliste de tracking pour la détection de vaisseaux sanguins de la rétine a été développée dans ce cadre. Cette technique permet de segmenter l’ensemble du réseau vasculaire rétinien, en tenant compte des bifurcations et des croisements. L’algorithme commence à partir de quelques points d’initialisation sur l’image, puis détecte de manière itérative les points de contours des vaisseaux sanguins de la rétine jusqu’à ce que le diamètre mesuré avoisine la taille d’un pixel. Durant la phase de tracking, une approche Bayesienne avec le Maximum a postériori comme critère, est utilisée pour détecter les points de contours parmi l’ensemble des points candidats. Une estimation de la direction locale du vaisseau est effectuée grâce à l’information fournie par le gradient. Le modèle linéaire par morceau puis le modèle Gaussien sont appliqués pour l’estimation du profil transversal des vaisseaux. Une évaluation des techniques développées est réalisée aussi bien sur des images simulées que sur des images de fond de l’œil issus de bases de données publics. Les résultats obtenus montrent une grande précision dans la localisation des vaisseaux et la mesure des diamètres locaux ainsi qu’une bonne identification des structures vasculaires (bifurcation et croisements).

   

10/04/2012
14h00
Richard Chbeir
Dijon
seminaire GLC / Séminaire GLC
Similarité XML et contrôle d’accès aux contenus multimédias dans les réseaux sociaux
Résumé    [ URL ]
salle de conference I3S

Richard Chbeir:
  Maître de conférences à l'université de Bourgogne
  Dijon

Résumé :

   Les technologies web (web 2.0, réseaux sociaux, etc.) et dispositifs portables (PDA, téléphone portable, etc.) ont permis de faciliter la production et l’utilisation des données/contenus multimédias dans nos vies quotidiennes. Chaque acteur de l’Internet (individus, entreprises, collectivités territoriales, etc.) est devenu à la fois producteur et consommateur de contenus. La manipulation de ces contenus multimédias reste encore inadaptée aux usagers finaux (pas forcément spécialistes en multimédia) car elle englobe en réalité de véritables difficultés liées, entre autres, à la recherche d’informations, au partage et au contrôle d’usages, à l’identification de liens entre les contenus multimédias, etc. Dans mon séminaire, je présenterai mes activités de recherche liées 1) à la similarité XML et son application dans plusieurs domaines d’application, et 2) au contrôle d’accès direct et indirect aux données multimédias dans les réseaux sociaux. Je parlerai des différentes implémentations que nous avons réalisées afin de valider nos propositions.

   

06/04/2012
10h00
Valeriu Vrabie
Reims
seminaire SIS / Séminaire SIS
Diagnostic de tumeurs cancéreuses par traitement d'images hyperspectrales et à résolution nanométrique de coupes de tissus non-colorées.
Résumé   
salle de conference I3S

Valeriu Vrabie:
  CReSTIC UFR Sciences Exactes et Naturelles
  Reims

Résumé :

   L'anatomopathologie est le « gold standard » pour le diagnostic et l'évaluation pronostique de lésions tumorales à l'échelle tissulaire. Les spectroscopies vibrationnelles, Raman et IR, représentent un axe de développement prometteur pour cette spécialité en ouvrant la voie à l'histologie spectrale. Bien que la faisabilité de cette démarche soit maintenant prouvée, il reste encore de nombreux points à traiter avant un transfert clinique pour une utilisation sur des coupes tissulaires conventionnelles. Les verrous rencontres sont essentiellement liés au déparaffinage numérique des coupes tissulaires et à la construction automatique et non supervisée de classes. En développant des prétraitements basés sur l'ICA et EMSC et un algorithme automatique et optimisé basé sur la classification floue, nous montrons que cette approche permet d'identifier les structures tissulaires sur différentes types de biopsies : carcinomes basocellulaires (BCC), spinocellulaires (SCC), maladies de Bowen et mélanomes. De plus, cette approche permet de mieux caractériser les hétérogénéités intra-tumorales, l'interconnectivité entre les structures tissulaires saines et tumorales et le front d'invasion tumoral. Un autre axe prometteur est l'utilisation d'une nouvelle technique microscopique quantitative, la Spatial Light Interference Microscopy (SLIM). Développée récemment à l'UIUC, cette technique permet de mesurer le contraste intrinsèque des structures cellulaires de coupes de tissus non-colorées avec une résolution de 200 nm, une précision topographique de 0.3 nm et des temps d'acquisition rapides. Le verrou est lié à l'extraction des caractéristiques pertinentes et leur combinaison pour extraire des informations liées à la dégradation introduite par le cancer dans l'architecture des cellules. En développant une méthodologie basée sur des statistiques globales et locales et en proposant différentes possibilités de les combiner, les résultats qualitatifs et quantitatifs obtenus sur des adénocarcinomes de la prostate montrent le fort potentiel de cette approche pour le diagnostic du cancer.

   

05/04/2012
10h00
Christophe Charrier, Maître de Conférences HDR, Université de Caen Basse-Normandie
Caen
seminaire SIS / Séminaire SIS
Evaluation de la qualité des images avec référence par classification multiclasse. Extension au cas de la classification des images biomédicales.
Résumé   
salle de conference I3S

Christophe Charrier, Maître de Conférences HDR, Université de Caen Basse-Normandie :
  GREYC Lab, UMR CNRS 6072
  Caen

Résumé :

   L’évaluation de la qualité des images dégradée est nécessaire dès lors que l'on souhaite quantifier la gêne visuelle induite. Ce processus peut être basée sur l’observation humaine. Les résultats ainsi obtenus permettent de déterminer des seuils de sensibilité de l’observateur humain. L’un des inconvénients majeurs de ce type de mesure, est une mise en œuvre particulièrement longue ainsi que l’utilisation d’un protocole contraignant. L’objectif est alors de disposer d’une mesure automatique de qualité, plus rapide, et, a priori, sans intervention directe de l’être humain dans le processus de prédiction du score de qualité d’une image. Dans cette présentation nous utiliserons un processus de classification et de régression basé sur les Séparateurs à Vaste Marge permet de plagier le fonctionnement du SVH. L’application des SVM dans un cadre multi-classe implique la définition d’une stratégie de combinaison des résultats réalisée sous raisonnement incertain. Ceci permet de prendre en compte les incertitudes des classificateurs impliqués. Une fois le processus de classification exécuté, une régression par SVM est effectuée afin de passer d’une représentation vectorielle de l’image à un score de qualité. Une fonction de régression est construite pour chacune des classes de qualité de façon à garantir une complexité faible de ladite fonction. Une extension de ces travaux dans le domaine de la classifications des images cellulaires sera également présentée.

   

05/04/2012
11h
Gribonval Rémi
Rennes / France
seminaire I3S / Colloquium J. Morgenstern
Sparsity & Co.: Analysis vs Synthesis in Low-Dimensional Signal Models
Résumé   
Amphi Morgenstern, INRIA, Sophia Antipolis

Gribonval Rémi:
  INRIA
  Rennes / France

Résumé :

   In the past decade there has been a great interest in a synthesis-based model for signals, based on sparse and redundant representations. Such a model, which assumes that the signal of interest can be composed as a linear combination of few columns from a given matrix (the dictionary), has been extensively exploited in signal and image processing. Its applications range from compression, denoising, deblurring & deconvolution, to blind signal separation, and even more recently to new approaches to acquire and measure data with the emerging paradigm of compressive sensing. The talk will begin with a brief review of the main existing algorithmic and theoretical results dedicated to the recovery of sparse vectors from low-dimensional projections, which form the basis of a number of signal reconstruction approaches for such generic linear inverse problems (e.g., compressed sensing, inpainting, source separation, etc.).
An alternative analysis-based model can be envisioned, where an analysis operator multiplies the signal, leading to a so-called cosparse outcome. How similar are the two signal models ? Can one derive cosparse regularization algorithms with performance guarantees when the data to be reconstructed is cosparse rather than sparse ?
Existing empirical evidence in the litterature suggests that a positive answer is likely.
In recent work we propose a uniqueness result for the solution of linear inverse problems under a cosparse hypothesis, based on properties of the analysis operator and the measurement matrix. Unlike with the synthesis model, where recovery guarantees usually require the linear independence of sets of few columns from the dictionary, our results suggest that linear dependencies between rows of the analysis operators may be desirable. The nature and potential of these new results will be discussed and illustrated with toy image processing and acoustic imaging experiments.

   

03/04/2012
14h
Richard Nock
Martinique
seminaire SIS / Séminaire SIS
Apprentissage en ligne de porte-feuilles dans une généralisation du modèle de Markowitz
Résumé   
salle de conference I3S

Richard Nock :
  CEREGMIA laboratory at the Faculty of Economics and Law, Université des Antilles et de la Guyane
  Martinique

Résumé :

   Portfolio allocation theory has been heavily influenced by a major contribution of Harry Markowitz in the early fifties: the mean-variance approach. While there has been a continuous line of works in on-line learning portfolios over the past decades, very few works have really tried to cope with Markowitz model. A major drawback of the mean-variance approach is that it is approximation-free only when stock returns obey a Gaussian distribution, an assumption known not to hold in real data. In this paper, we first alleviate this assumption, and rigorously lift the mean-variance model to a more general mean-divergence model in which stock returns are allowed to obey any exponential family of distributions. We then devise a general on-line learning algorithm in this setting. We prove for this algorithm the first lower bounds on the most relevant quantity to be optimized in the framework of Markowitz model: the certainty equivalents. Experiments on four real-world stock markets display its ability to track portfolios whose cumulated returns exceed those of the best stock by orders of magnitude.

   

03/04/2012
14h
Tettamanzi Andrea
Milan / Italie
seminaire I3S
A Conceptual Representation of Documents and Queries for Information Retrieval Based on Light Ontologies
Résumé    [ Annexes ]      [ URL ]
Salle du conseil de Polytech, site des Templiers (salle 424)

Tettamanzi Andrea :
  université de Milan
  Milan / Italie

Résumé :

   This talk will focus on some recent research work I have carried out on the combination of fuzzy logic, ontologies, and information retrieval.
Specifically, I will present a vector space model approach to representing documents and queries, based on concepts instead of terms and using WordNet as a light ontology. Such representation reduces information overlap with respect to classic semantic expansion techniques.
I will end the talk by presenting the results of experiments carried out on the MuchMore benchmark and on the TREC-7 and TREC-8 Ad-Hoc collections, which demonstrate the effectiveness of the proposed approach.

   Andrea Tettamanzi, professeur associé à l'université de Milan est candidat au poste PR 27 0116 à l'UNS.

29/03/2012
14h00
Yannick Prié
Maître de Conférences à l'université Lyon 1
seminaire GLC / Catherine Faron Zucker
Dynamique de l’activité et des inscriptions dans les systèmes d’interprétation : quelques travaux liés à l’ingénierie des connaissances dynamiques et aux traces d'activité
Résumé    [ URL ]
salle de conference I3S

Yannick Prié:
  Maître de Conférences à l'université Lyon 1
  

Résumé :

   Nous présentons nos propositions de considérer l'interaction homme-machine comme co-individuation de l'activité humaine et de ses inscriptions de connaissances. Dans ce contexte, nous proposons la notion de structures informationnelle comme inscription objet de l'activité. Une inscription peut être canonique si elle est identifiée dans le système, ou non canonique si elle est identifiable. La notion de structure informationnelle permet de considérer le passage d'inscriptions non canoniques en inscriptions canoniques au cours de l'activité, à des niveaux d'activité variés, et de définir la notion d'espace informationnel qu'un utilisateur énacte. Nous pouvons alors considérer des espaces informationnels composés d'inscriptions explicites manipulées par des travailleurs de la connaissances au sein de systèmes d'interprétation. Nous présentons deux lignées de travaux autour de systèmes d'interprétation pour la lecture active (projet Advene) mais également pour l'interprétation de traces d'activité, notamment dans le cadre d'activités réflexives (systèmes à base de traces).

   

26/03/2012
11h
Rassul Ayani
Stockholm (Sweden)
seminaire COMRED / Professeur invité équipe OASIS
Simulation and Analysis of Large Scale Models
Résumé    [ Annexes ]     
salle de conference I3S

Rassul Ayani:
  School of Information and Communication Technology (ICT)
  KTH Royal Institute of Technology
  Stockholm (Sweden)

Résumé :

   Large scale models are encountered in a wide range of applications, including P2P systems, cloud computing, task assignments and global warming models. Simulation of such models is usually a time consuming process, e.g., and a single simulation run may take hours, days, or weeks. Certainly, such running times are often not acceptable and we must find ways to reduce the run time of such simulations.
In this talk, I will present methods and techniques that have been used at KTH in the past decade to simulate and analyze some large scale models in a reasonable time. In particular, I will elaborate on how various techniques and methods, such as parallel and distributed simulation, design of experiments (DoE), and evolutionary algorithms can be used to reduce substantially the simulation time of large scale models. I will also discuss how we can identify the most important factors in large models and thus focus on a small subset of the parameters without compromising the results.

   Speaker’s biography

Rassul Ayani is professor of computer science at the School of Information and Communication Technology (ICT), KTH Royal Institute of Technology, Stockholm, Sweden. He received his diploma from Technical University of Vienna (Austria), his master degree from University of Stockholm and his PhD from KTH.

He has hold visiting positions at several universities, including Georgia Institute of Technology (USA), University of Waterloo (Canada), National University of Singapore (NUS), and Nanyang Technological University (Singapore).

Dr. Ayani has been working on parallel and distributed systems for the past twenty years. In the recent years, he has focused on semantic interoperability and composability of model components, symbiotic simulations, and simulation-based optimizations.

Dr. Ayani has served as an area/associate editor for seven international journals, including the ACM Transactions on Modelling and Computer Simulation (TOMACS). He is currently a panel member of the European Research Council (ERC).

19/03/2012
09h30
Lionel Fillatre, Maître de Conférences - HDR
UMR STMR - CNRS, Troyes, France
seminaire SIS / Séminaire SIS
Approches décisionnelles appliquées au traitement des images
Résumé   
salle de conference I3S

Lionel Fillatre, Maître de Conférences - HDR:
  ICD - LM2S - Université de Technologie de Troyes (UTT)
  UMR STMR - CNRS, Troyes, France

Résumé :

   La théorie de la décision statistique est un outil bien adapté pour exploiter de façon optimale (ou presque) des signaux, des images ou des vidéos. Les critères de performance sont souvent très exigeants (peu de fausses alarmes notamment), ce qui motive le développement d'outils originaux. Les enjeux principaux de ce genre de travaux de recherche consistent, d'une part, à développer des outils statistiques et algorithmiques performants tant du point de vue de la vitesse de traitement que des erreurs de décision et, d'autre part, à valider la pertinence expérimentale de ces outils pour des applications concrètes. Les résultats présentés dans ce séminaire concernent essentiellement le développement d’outils statistiques avancés pour détecter et classifier des paramètres informatifs (anomalie, cible) en exploitant de manière optimale des données multidimensionnelles (signal, image, séquence d’images). Plusieurs exemples pratiques sont abordés : la détection de défauts à partir de radiographies, la détection d’informations cachées dans des images naturelles et la détection de l’apparition d’objets dans une séquence vidéo. Les innovations majeures de ces travaux consistent en la définition de critères de performance originaux lorsque les paramètres informatifs sont de nature vectorielle (forme d’un objet par exemple) et que les données observées sont dégradées par des paramètres de nuisance inconnus (fond de l’image par exemple). Les algorithmes de détection/classification respectant ces critères de performances sont présentés et discutés sur quelques exemples pratiques.

   

15/03/2012
11h
Bournez Olivier
Saclay / France
seminaire I3S / Colloquium J. Morgenstern
Calculer avec des modèles analogiques ou avec des aspects analogiques.
Résumé    [ URL ]
Amphi Ouest, Polytech - Templiers, Sophia-Antipolis

Bournez Olivier:
  Laboratoire d'Informatique de l'X (LIX) / Ecole Polytechnique
  Saclay / France

Résumé :

   Les modèles de calculs actuels de l'informatique sont des modèles digitaux: ils travaillent sur des bits, ou sur des symboles en nombre fini. Il y a de nombreux modèles, mais la thèse de Church-Turing (et ses variantes physique, ou effective) stipule que tous les modèles digitaux, dès qu'ils sont suffisamment puissants, sont équivalents. On peut aussi considérer des modèles analogiques ou avec des aspects analogiques. À vrai dire, chaque époque a ses systèmes de calculs et ses questions de calculabilité: au 19e siècle, l'essor des communications a mené à se poser des questions sur la possibilité de calculer certains mouvements. Au début du 20e siècle, l'apparition de dispositifs informatiques mécaniques pour résoudre des problèmes d'ingénierie a mené à se poser des questions sur la possibilité de calculer mécaniquement certaines fonctions. Au 21e siècle, l'essor des télécommunications fait que certains systèmes distribués actuels se décrivent et se programment aussi avec des aspects analogiques: par exemple, la grande taille de certains systèmes fait que leur description naturelle devient une description statistique et thermodynamique. Chacun de ces systèmes se programme. Chacun de ces systèmes n’est pas clairement couvert par la calculabilité et la complexité classique moderne, qui parle de modèles comme les machines de Turing. Certains de ces systèmes ont toutefois une théorie très riche, avec des notions par exemple d'universalité, différentes, mais tout aussi utiles que celles de la calculabilité moderne. L'objectif de cet exposé sera d'introduire quelques un de ces modèles, et de présenter ce que l'on sait sur leur puissance de calculs.

   

08/03/2012
14h
Charles Deledalle
Ceremade, Paris Dauphine
seminaire SIS / séminaire SIS
Moyennes non-locales en présence de bruit non-Gaussien et patchs adaptatifs
Résumé    [ URL ]
salle de conference I3S

Charles Deledalle:
  Ceremade, Paris Dauphine
  

Résumé :

   Les méthodes récentes de réduction du bruit dans les images sont basées sur le principe de non-localité introduit par Buades et al (2005). Alors que les méthodes locales dégradent la résolution des images, les approches non-locales préservent mieux contours et textures. Au lieu de prendre en compte uniquement les pixels voisins, le filtrage s'effectue en comparant les ``patchs'' de l'image. Ces petites imagettes, généralement carrées, renseignent sur l'information contextuelle des structures de l'image. Les choix de la géométrie des patchs et de la mesure de similarité utilisée sont deux points clés de ces méthodes. Nous montrerons que des outils statistiques permettent d'adapter la géométrie des patchs à l'information locale du signal. Nous verrons ensuite comment étendre la notion de similarité entre patchs dans le cas des bruits non gaussiens. La méthodologie proposée sera illustrée sur des images tests standards, des données astronomiques obtenues en imagerie à rayons X et en imagerie radar à synthèse d'ouverture pour la télédétection. Je présenterai finalement quelques perspectives qui sont au coeur de mon projet de recherche.

   

23/02/2012
10h00
Mohamed LALAMI
Nice
seminaire SIS / Pôle SIS
Le titre de l’exposé est : Heuristique et Méthodes parallèles pour les problèmes d’optimisation combinatoire.
Résumé   
salle de conference I3S

Mohamed LALAMI:
  Université Nice Sophia Antipolis
  Nice

Résumé :

   Dans le domaine de la logistique, plusieurs problèmes réels se présentent sous formes de combinaison de différents types de sous-problèmes d’optimisation combinatoire. Ces sous problèmes, qu’ils soient des variantes du problème de sac à dos KP ou des problèmes de programmation linéaire LP, s’avèrent très souvent difficile à résoudre. En effet, les méthodes exactes existantes sont limitées à de petites instances. Aujourd’hui, la résolution des instances très difficiles s’effectue grâce à des approches heuristiques, l’aptitude de ces dernières à fournir des solutions de bonne qualité les rend indispensables dans le domaine pratique et elles s’avèrent aussi très utiles pour le développement de méthodes exactes fondées sur des techniques d’évaluation et de séparation. L’émergence de nouvelles architectures massivement parallèles dédiées au calcul intensif, notamment les nouvelles cartes graphique GPU, permet de résoudre de plus grandes instances à l’aide d’algorithmes basés sur la parallélisassions efficace de méthodes exactes existantes. Nous nous sommes intéressés ici au problème du sac à dos multiple MKP dans la complexité est NP difficile. L’approche heuristique que nous proposons est comparée à la meilleure heuristique de la littérature MTHM et au logiciel CPLEX. Dans un deuxième temps l’implémentation parallèle de deux méthodes exactes de résolution de problème de RO sur l’architecture GPU. Ainsi l’implémentation CPU-GPU de l’algorithme du Branch and Bound pour la résolution du problème du sac à dos a montré une accélération de 21, pour des instances fortement corrélées, sur une carte graphique Tesla C2050 (448 cœurs). Une implémentation CPU-GPU du Simplex pour la résolution du problème de programmation linéaire LP est aussi proposée. Cette dernière offre une accélération de 14.5 sur la carte graphique Tesla C2050. Enfin, nous proposons une implémentation Multi-GPU de l’algorithme du simplexe, mettant à contribution plusieurs cartes graphiques présentes dans une même machine (2 cartes Nvidia Tesla C2050 dans notre cas). Outre l’accélération obtenue par rapport à l’implémentation séquentielle de la méthode du Simplexe, une efficacité de 96.5 % est obtenue, en passant d’une carte à deux cartes graphiques.

   

16/02/2012
17h
Bernot Gilles
Sophia Antipolis (FRANCE)
seminaire Université de Nice / CEPERC (Université de Provence) et Pôle de Biologie Systémique de Nice
Les apports de la logique formelle pour la modélisation des systèmes biologiques
Résumé    [ URL ]
Salle de Conférence du Laboratoire J.A. Dieudonné

Bernot Gilles:
  Laboratoire I3S
  Sophia Antipolis (FRANCE)

Résumé :

   L’informatique donne un sens particulier au mot "formel", qui se situe entre "plus rigoureux que rigoureux" et "reductible à des manipulations mécaniques sur la syntaxe". Cette vision permet d’assister par ordinateur des raisonnements logiques pas nécessairement difficiles mais fastidieux, combinatoires et donc sujets à des erreurs. Cet exposé, fondé sur une pratique empirique de la modélisation en biologie, a pour but de montrer comment la logique formelle conduit à une méthode originale de modélisation des systèmes complexes en biologie. L’ordinateur y est utilisé comme un assistant pour raisonner sur le système à modéliser plutôt que comme un outil de force brute pour effectuer des simulations. Il peut même assister le fameux "retour paillasse" qui motive en partie la modélisation en biologie. Suivant cette approche, les propriétés logiques que doit satisfaire un "bon" modèle sont au moins aussi importantes que la structure du modèle ou les équations qui régissent sa dynamique. Pire : après tout qu’importe de connaître précisément la structure et les équations si l’on peut caractériser l’ensemble des modèles qui satisfont les propriétés pertinentes ?

   

16/02/2012
11h
Guang-Zhong Yang
London, United Kingdom
seminaire I3S / Colloquium J. Morgenstern
i-Snake - Imaging–Sensing Navigated and Kinematically Enhanced Surgical Robot
Résumé   
salle de conference I3S

Guang-Zhong Yang:
  Imperial College of Science, Technology, and Medicine
  London, United Kingdom

Résumé :

   Reduced patient trauma and recovery time combined with improved precision and dexterity for micro-scale tasks are major benefits of robotically assisted Minimal Invasive Surgery (MIS). This lecture outlines key clinical challenges and research opportunities in developing biomimetic robotic systems integrated with in situ, in vivo imaging and sensing towards the future evolution of medical robotics. The lecture will cover the latest developments in fully articulated, bio-inspired (e.g. Snake) robot platforms that facilitate intra-luminal or extra-luminal anatomical curved pathway navigation with integrated sensing and navigation. It addresses key theoretical considerations of bio-mimetic control for intra-operative manipulation under dynamic local/global constraints, as well as the current paradigm shift and clinical demand for bringing cellular and molecular imaging modalities to an in vivo, in situ setting to allow for real-time tissue characterization, functional assessment, and intraoperative guidance. Issues concerning effective, natural human-robot interface are discussed and example implementations for these highly redundant robot platforms based on the concept of perceptual docking are provided.

   

09/02/2012
14h
PORTELLI Geoffrey
Laboratoire I3S - Multimedia image coding and processing
seminaire SIS / Séminaire SIS
The visual system and bio-inspiration : two examples
Résumé   
salle de conference I3S

PORTELLI Geoffrey:
  Laboratoire I3S - Multimedia image coding and processing
  

Résumé :

   The visual system and bio-inspiration, two examples : - Visual flight control : When an insect flies in its environnement, the image of the surrounding objects moves on its retina. Several studies have shown that this angular movement, called "optic flow", plays a major role in the insect flight control. We design a functional scheme based on optic flow, describing the principles involved in the 3D flight control system of an insect. This model is supported by several behavioral experiments on free flying honeybees. Besides, this model is explicit and it may be directly implemented onboard aerial or spatial robots. (PhD work, advisor: Nicolas Franceschini, Biorobotic, CNRS Marseille) - From computer vision to the salamander retina: How to interpret the neural code to identify image categories? Image classi cation has become a very important working area in the computer vision community. Meanwhile, neuroscience is also making lots of progress in understanding the visual system and how the visual content is translated and transmitted to the brain. The goal of this study is to investigate how to perform image classi cation directly from spike trains recordings coming from a salamander retina. (Postdoc work, advisors : Marc Antonini (I3S CNRS) and Pierre Kornprobst (INRIA), Sophia Antipolis)

   

23/01/2012
10h00
Alexandre Pauchet
Rouen
seminaire GLC / équipe KEIA
Apprentissage, extraction de régularités et clustering : application à la modélisation des interactions homme-machine
Résumé   
Salle du conseil (424) - EPU - site des Templiers

Alexandre Pauchet:
  Laboratoire LITIS - INSA de Rouen
  Rouen

Résumé :

   L'objectif applicatif de ces travaux est d'améliorer l'usage des systèmes interactifs par la prise en compte de l'utilisateur. L'approche que nous adoptons est pluridisciplinaire. Elle permet d'étudier la relation entre l'homme et les systèmes informatiques en posant comme axiome que les interactions sont représentatives de l'usage. Nous nous appuyons sur des techniques issues de l'intelligence artificielle afin d'extraire des connaissances de traces d'activité humaine. Plus précisément, il s'agit de personnaliser les interactions par l'identification de classes de comportements dans un corpus de traces d'interaction. Les interactions homme-machine se multipliant, le volume et la complexité des données à considérer pour cette tâche de classification nécessitent des outils d'analyse performants et robustes au bruit. Nous proposons une modélisation matricielle des traces d'interaction permettant une caractérisation multi-dimentionnelle des comportements. La classification proprement dite s'effectue en 3 étapes~: 1) Utilisation d'algorithmes d'apprentissage afin d'obtenir une suite d'ensemble d'éléments caractérisés sémantiquement (i.e. une matrice d'interaction). 2) Extraction de régularités dans les matrices d'interaction sous la forme de motifs comportementaux. 3) Classification non supervisée des motifs extraits. Cette approche est actuellement appliquée à deux problèmes distincts : - Conception d'outils d'analyse semi-automatique de dialogues utilisés pour l'étude d'interaction entre un enfant et un agent conversationnel animé(projet PEPS-CNRS). - Interactions tangibles avec des contenus géolocalisés dans un contexte de mobilité (contrat Orange Labs).

   

16/11/2011
10h
Sylvie Szulman
Paris
seminaire GLC / Equipe KEWI
Méthodes et outils de construction d'ontologies à partir de textes
Résumé    [ URL ]
salle de conference I3S

Sylvie Szulman:
  Equipe RCLN du laboratoire LIPN (Université Paris 13)
  Paris

Résumé :

   L'équipe RCLN du LIPN s'intéresse depuis plus de 10 ans à l'articulation entre langage naturel et représentations des connaissances. Ses travaux s'inscrivent dans le domaine de l'ingénierie des connaissances textuelles, en particulier la construction d'ontologies à partir de textes. Sylvie Szulman présentera un panorama des activités de l'équipe RCLN et des projets DAFOE (ANR) et OntoRule (FP7 IP) auxquels elle participe. Elle développera ensuite l'exposé de ses résultats sur les différences entre terminologies, ontologies et réseau de termino-concepts.

   

28/10/2011
10h30
Prof. Matthieu Cord
Paris
seminaire GLC / Séminaire GLC, équipe KEIA
Detection and representation for image understanding.
Résumé    [ URL ]
salle de conference I3S

Prof. Matthieu Cord:
  LIP6 - UPMC - Sorbonne Universités
  Paris

Résumé :

   We are mainly contributing in the area of image understanding by designing complex representations, kernel similarities and learning deep architectures. In this talk, I will briefly overview our research activities and projects, and then focus on two recent challenging developments on object detection and image classification:

- Text detection in natural images. We propose a full detection system, SnooperText, combining top-down and bottom-up mechanisms. The hypothesis generation bottom-up step consists in segmentation and grouping processes embedded in a multi-resolution strategy able to deal with complex situations (large variations in text size, texture, etc). Regarding hypothesis validation process, text boxes are classified using a new descriptor, Fuzzy HOG, fully adapted for text box analysis. Several experiments are reported on street level images from the ANR Itowns project (http://www.itowns.fr/).

- Biologically inspired model for image categorization. Recent approaches such as the HMAX model attempt at mimicking the basic operations performed by the visual cortex. They go beyond flat architectures by using deep networks organized into hierarchical processing layers. I will introduce our network boosting the modeling power of visual representations like HMAX architecture by learning multi-scale features that are better adapted to the image visual content.

http://www-poleia.lip6.fr/~cord

   

12/10/2011
13h30-18h
SAFA Group
seminaire COMRED / SAFA group
SAFA Workshop(SAFA 2011) Joint with SAME 2011
Résumé    [ URL ]
CICA 2229 Route des Crêtes, 06560 Valbonne

SAFA Group:
  
  

Résumé :

   Workshop Program
13:30 Opening of the workshop

13:40 Invited talk : Radu Mateescu, INRIA, Vasy team
"Model Checking and Performance Evaluation with CADP Illustrated on Shared-Memory Mutual Exclusion Protocols"
Abstract: Mutual exclusion protocols are an essential building block of concurrent shared-memory systems: indeed, such a protocol is required whenever a shared resource has to be protected against concurrent non-atomic accesses. Hence, many variants of mutual exclusion protocols exist, such as Peterson's or Dekker's well-known protocols. Although the functional correctness of these protocols has been studied extensively, relatively little attention has been paid to their non-functional aspects, such as their performance in the long run. In this paper, we report on experiments with the CADP toolbox for model checking and performance evaluation of mutual exclusion protocols using Interactive Markov Chains. Steady-state analysis provides an additional criterion for comparing protocols, which complements the verification of their functional properties. We also carefully re-examined the functional properties of these protocols, whose accurate formulation as temporal logic formulas in the action-based setting turns out to be quite involved.

14:30 Session 1
· Multi-active Objects
Ludovic Henrio, Fabrice Huet, Zsolt Istvána, Gheorghe Sebestyén
INRIA – CNRS – I3S – Univ Nice Sophia Antipolis, Technical University of Cluj-Napoca

15:00 Coffee break

15:30 Session 2
· Semantic Multi-view model for Low-Power
Carlos Gómez, Julien DeAntoni, Frédéric Mallet Université de Nice-Sophia Antipolis

· A refinement approach to design and verification of on-chip communication protocols
Hocine Mokrani, Rabéa Ameur-Boulifa Institut Telecom, Telecom ParisTech

· Mechanical Support for Efficient Dissemination on the CAN Overlay Network
Francesco Bongiovanni, Ludovic Henrio INRIA Méditérranée – CNRS – I3S – Univ. de Nice Sophia-Antipolis

17:00 Discussion
18:00 Closing

   

23/09/2011
15h
Czarnecki Krzysztof
Waterloo University
seminaire GLC / équipe Modalis
Model Mappings and Synchronization: From Theory to Practice
Résumé    [ Annexes ]     
salle de conference I3S

Czarnecki Krzysztof:
  Waterloo University
  

Résumé :

   Model-driven engineering often requires many overlapping models of a system, each supporting a particular kind of stakeholder or task. Mappings are specifications of the overlaps, and tools can use them to provide consistency checking and synchronization. I will use examples from industrial practice to illustrate the challenges of designing mappings and synchronization tools.Then I will present our ongoing effort to create both a theoretical framework addressing these challenges and tools based on the framework. I will close with a view on the challenges ahead.

   short bio :

Krzysztof Czarnecki is Associate Professor in the Department of Electrical and Computer Engineering at the University of Waterloo and NSERC/Bank of Nova Scotia Industrial Research Chair in Requirements Engineering of Service-oriented Software Systems. He received the MS degree in Computer Science from California State University, Sacramento, and his PhD in Computer Science from Technical University of Ilmenau, Germany. Before coming to University of Waterloo in 2003, he worked for eight years at DaimlerChrysler Research, Germany, focusing on improving software development practices and technologies in enterprise and embedded domains. He is a co-author of the book \"Generative Programming\" (Addison- Wesley, 2000). He received the Premier\'s Research Excellence Award in 2004 and the British Computing Society in Upper Canada Award for Outstanding Contributions to IT Industry in 2008. He is the Principal Investigator of a $9.3 million project on \"Model-Based Software Service Engineering\", funded by the Province of Ontario (2008-2013). His work focuses on developing model-based approaches to software engineering that work in industrial practice.

23/06/2011
13h30
RUZ Cristian
Sophia-Antipolis(France)
seminaire COMRED / équipe AOSIS
Autonomic Monitoring and Management of Component-Based Services
Résumé    [ Annexes ]     
INRIA Sophia Antipolis, salle Euler Bleu

RUZ Cristian:
  laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Les applications ont évolué, depuis des logiciels monolithiques, stables, centralisés et fortement structurés, à des logiciels fortement décentralisés, distribués et dynamiques, ce qui a provoqué un changement dans le processus de développement. Ainsi, les préoccupations actuelles sont tournées vers le développement des logiciels orientés services, où le pivot est la fourniture de toute fonctionnalité ?en tant que service?, où des fournisseurs indépendants proposent des services qui peuvent être composés de façon dynamique, et réutilisés pour créer de nouvelles applications à valeur ajoutée, ce qui donne naissance à un écosystème grandissant de services à couplage faible, géographiquement distribués, et qui évoluent rapidement.

Malgré les avantages offerts par l'approche basée services pour le développement des logiciels, il se pose aussi de nouveaux défis. La nature dynamique, évolutive, et hétérogène de ces compositions de services rend les tâches de gestion plus complexes, car les services ne sont plus contrôlés pour une seule entité, et les changements de l'environnement pendant l'exécution d'une composition des services ne peuvent pas être complètement prévus à l'avance. Pour être capable d'affronter ces types de situations, un logiciel basé sur des services doit s'adapter de manière si possible autonome à ces conditions.

Dans cette thèse, nous présentons un canevas générique qui permet d'améliorer l'adaptabilité des logiciels basés sur des services en proposant un moyen uniforme et efficace pour ajouter des tâches de surveillance et de gestion dans une application, et aussi permettre de fournir un comportement autonomique. Le canevas est lui même basé sur des composants logiciels, SCA au niveau de la conception, et GCM/ProActive au niveau de la mise en oeuvre. Nous illustrons la faisabilité de notre approche à travers un exemple d'application basée sur des services, que nous étendons avec des fonctionnalités de surveillance et d'administration autonomes. Ces exemples et leur évaluation nous laissent penser que notre approche est utilisable en pratique.


Abstract :

Software applications have evolved from monolithic, stable, centralized and structured applications to highly decentralized, distributed and dynamic software, forcing a change in the software development process. Current attention has turned to the development of service-based applications, where the focus is in the provision of functionality that is delivered "as a service" and where independent providers offer services that can be dynamically composed and reused in order to create new added-value applications, giving rise to an ever-growing ecosystem of loosely-coupled, geographically dispersed, and rapidly evolving services.

Among the multiple advantages of the service-based approach to software development, new challenges raise. The dynamic, evolving, and heterogeneous nature of such service compositions makes the management tasks more complex as not all the services are under the control of a single entity, and the environmental changes during the execution of a service composition cannot be completely foreseen. In order to properly address this situation, a service-based application must be able to adapt itself to such conditions.

In this thesis, we present a generic framework that improves the adaptability of component service-based applications by giving a common and efficient means to introduce monitoring and management tasks at runtime into the application, and allows to provide autonomic behaviour. The framework itself follows a component-based approach where the different tasks of an autonomic control loop can be inserted and removed at runtime in order to adapt to the monitoring and managment needs.

We present the design of our framework using a generic component model (SCA), and we provide an implementation using a middleware that supports distributed component-based services (GCM/ProActive). We illustrate the feasibility of our approach through an example service-based application improved with monitoring and management features, providing an autonomic behaviour. The examples and evaluations conducted lead us to think that this approach is a feasible tool that can facilitate the insertion and development of autonomic features.

   Jury :
- Pr. Mireille BLAY-FORNARINO, Université de Nice - Sophia Antipolis, Président du Jury
- Pr. Philippe LALANDA, Université Joseph Fourier, Grenoble, rapporteur
- Pr. Lionel SENTURIER, Université Lille 1, rapporteur
- Dr. Romain ROUVOY, Université Lille 1, co-rapporteur
- Dr. Luc BELLISSARD, Tagsys RFID, examinateur
- Pr. Françoise BAUDE, Université de Nice - Sophia Antipolis, Directeur de Thèse

27/04/2011
10h30
Chollet Stéphanie
seminaire GLC / équipe Modalis
Construction d’applications à base de services hétérogènes, sécurisés et dynamiques.
Résumé   
salle de conference I3S

Chollet Stéphanie:
  
  

Résumé :

   Récemment, l'approche à services est apparue en ayant pour but de construire des applications à partir d'entités logicielles, nommées services. Un service fournit un ensemble de fonctionnalités définies par une description de services. A partir de cette description, un consommateur de service peut rechercher un service qui corresponde à ses besoins, le sélectionner et l'invoquer. La construction d'applications par composition de services demeure néanmoins une activité complexe puisqu'il faut traiter conjointement les aspects métier et techniques ; la composition doit satisfaire aux exigences fonctionnelles et non-fonctionnelles ainsi que respecter les contraintes des technologies à services liées, notamment, à l'hétérogénéité des plates-formes. Par ailleurs, les points forts de l'architecture à services, qui sont la distribution et le déploiement des services sur des plates-formes hétérogènes, ouvrent d’importantes failles de sécurité.

Dans cet exposé, je vais définir et formaliser une approche dirigée par les modèles pour l’orchestration de services hétérogènes et sécurisés. Cette approche s’adapte au contexte dynamique des services, c’est-à-dire à leurs arrivées et à leurs départs. Je montrerai aussi comment il est possible d’adapter cette approche au domaine de l’électricité. Finalement, je présenterai mon projet de recherche sur la construction d’application à base de services hétérogènes, sécurisés et dynamique ainsi que son intégration dans les axes de recherche de l’équipe MODALIS.

   

11/04/2011
14h30
Precioso Frederic
Paris (France)
seminaire GLC / candidat au poste 27 PR 0933 "Internet du futur"
Recherche d'information basée sur le contenu : méthodes d'apprentissage artificiel pour la classification et la recherche interactive de données multimédia
Résumé   
salle de conference I3S

Precioso Frederic:
  Maître de Conférences au Laboratoire d'Informatique de Paris VI (LIP6) actuellement en Délégation CNRS à l'UPMC - Sorbonne Universités
  Paris (France)

Résumé :

   La démocratisation d’Internet et avec lui des partages de contenus (blogs, réseaux sociaux, Youtube…), ainsi que la banalisation des périphériques d’acquisition comme les appareils photos numériques, webcams ou téléphones portables ont contribué à l’explosion de la quantité de contenu multimédia, le plus souvent accessible par Internet, depuis une décennie. Si pour les données textuelles, les moteurs de recherche offrent des performances impressionnantes, il n'en est pas de même pour les données multimédia. La similarité entre les représentations numériques de deux données n’est pas toujours en adéquation avec la similarité, attendue par l’utilisateur, entre les contenus sémantiques. Face à ce « fossé sémantique/numérique », des avancées récentes et significatives ont été réalisées en termes de nouvelles représentations de données, plus riches et plus complexes, et en termes de méthodes d’apprentissage artificiel pour la recherche d’information et la classification de gros volumes de données.

C’est dans ce cadre que s’inscrit la majeure partie de mes travaux actuels que je présenterai autour de trois axes :
Tout d’abord, je décrirai de nouvelles représentations des données multimédia que nous avons proposées et qui préservent, par exemple, la structure temporelle des données vidéo ou la structure spatiale d’objets présents dans une base d’images. Ensuite, j’introduirai de nouvelles mesures de similarité (fonctions noyaux), entre ces représentations structurées, et montrerai comment leur intégration naturelle dans une Machine à Vecteurs de Supports (SVM) peut aussi bien répondre à un problème de classification supervisée qu’à un problème de recherche interactive de l'information. Je présenterai une application de notre système à la recherche d’acteurs dans les séquences de films.
Je détaillerai ensuite de nouveaux algorithmes combinant recherche approximée des plus proches voisins basée hachage (Local Sensitive Hashing) et stratégie interactive permettant le passage à l’échelle de la recherche d’information. Je présenterai nos résultats en classification supervisée et en recherche interactive d'images dans de très grandes bases de données.
Enfin, je présenterai certaines activités transversales où l’intégration de méthodes d’apprentissage artificiel dans des problèmes de vision par ordinateur ou de traitement d’images permet de proposer des solutions par exemple au suivi, à la reconnaissance et à la virtualisation de personnes par filtrage particulaire/classification ou encore à l'aide au diagnostic du cancer par méthodes hybrides de classification/segmentation.

   

11/04/2011
9h30
Chbeir Richard
(France)
seminaire GLC / candidat sur le poste N°PR933
Rrecherche d'information et contrôle d'accès multimédias
Résumé   
EPU, Bat. SI, salle de conseil, niveau 4

Chbeir Richard:
  Laboratoire LE2I, Université de Bourgogne
  (France)

Résumé :

   La plupart des données échangées sur la toile l'est sous forme de données personnelles majoritairement multimédias (vidéos, audios, images, etc.). Une des causes de cet échange massif des données multimédias est que chaque acteur de l'Internet (individus, entreprises, collectivités territoriales, etc.) est devenu à la fois producteur et consommateur de contenus multimédias. Cependant, la gestion de cette masse de données multimédias pose de véritables difficultés et challenges tels que :
- La représentation et description des données : comment représenter et décrire une donnée multimédia riche en contenu ?
- Les mécanismes de stockage et d'organisation des données : comment catégoriser, classifier, et fragmenter une base de données multimédias ?
- L'interrogation des contenus multimédias : comment permettre à un utilisateur de rechercher une donnée multimédia de manière simple et intuitive ? Comment adapter le résultat à lui renvoyer ? Comment fournir à l'utilisateur un moyen de recherche d'information multimédia plus approprié que les mots-clés proposés par les systèmes actuels de recherche d'information ?
- Le partage et le contrôle d'accès aux données multimédias : comment permettre à un utilisateur de protéger sa vie privée tout en publiant ses photos et vidéos ?
Dans mon exposé, je présenterai brièvement les différents travaux que j'ai menés afin de répondre à ces préoccupations et je parlerai davantage du problème de partage et d'usage des données multimédias sur les réseaux sociaux.

   

05/04/2011
10h
Tettamanzi Andrea G. B.
Milan/Italie
seminaire GLC / candidat au poste 27 PR 0933 "Internet du futur"
INTELLIGENCE COMPUTATIONNELLE POUR L'EXTRACTION DE CONNAISSANCES
Résumé   
salle de conference I3S

Tettamanzi Andrea G. B. :
  Professeur Associé au Département des Technologies de l'Information de l'Université de Milan
  Milan/Italie

Résumé :

   Ce séminaire présente des méthodes mises au point par l'intervenant et ses collaborateurs pour l'extraction de modèles basés sur des règles floues à l'aide d'algorithmes évolutionnaires.
L'extraction automatique de connaissance à partir de volumes importants de données fait l'objet d'un grand intérêt à niveau scientifique et applicatif. En plus de l'extraction de connaissances pertinentes, une exigence très importante et parfois indispensable dans les applications dans le monde réel, est le fait que les résultats obtenus soient interprétables.
Les algorithmes évolutionnaires sont des méthodes stochastiques d'optimisation inspirées par la théorie de l'évolution de Darwin. Dans le cadre de l'extraction de connaissances, les algorithmes évolutionnaires peuvent être utilisés pour trouver, parmi les modèles possibles, ceux qui mieux expliquent les données.
La logique floue est une extension de la logique classique qui admet un continu de dégrées de vérité. Elle permet d'exprimer des modèles basés sur des règles linguistiques qui sont capables de décrire des relations non linéaires entre les variables et dont l'interprétation se révèle particulièrement intuitive pour l'expert humain.
L'approche développée consiste à utiliser un algorithme évolutionnaire pour faire évoluer des individus qui représentent des systèmes de règles floues. La méthode exploite une représentation de haut niveau et des opérateurs de mutation et de recombinaison qui manipulent les éléments d'un système de règles (nombre et définitions des valeurs linguistiques pour chaque variable, nombre et structure des règles) de façon informée et gouvernée par des heuristiques.
Les règles peuvent évoluer avec des contraintes minimales, tandis que des techniques particulières sont mises en place pour éviter le surapprentissage et garantir la généralité des systèmes de règles évolués. L'approche décrite sera illustrée à l'aide d'exemples d'applications à des problèmes du monde réel dans différents domaines comme la finance (apprentissage de modèles pour le « day trading »), le marketing (prédiction des chiffres d'affaires potentiels générés par les clients) et l'épidémiologie du cancer du colon-rectum (caractérisation de facteurs de hasard liés au régime alimentaire).

   

16/03/2011
10h-12h
Curé Olivier
Marne-la-vallée(France)
seminaire GLC / équipe Rainbow
Gestion des connaissances dans le cadre d'une application médicale
Résumé    [ Annexes ]     
salle de conference I3S

Curé Olivier:
  Université Paris-Est Marne-la-Vallée
  Marne-la-vallée(France)

Résumé :

   Depuis plusieurs années, je développe avec des professionnels de Santé une application Web permettant au grand public d'obtenir des informations sur les médicaments et symptômes de l'automédication.
Cette application exploite les technologies du Web Sémantique à plusieurs niveaux: représentation et stockage des connaissances liées à différents domaines (molécules, classes thérapeutiques, etc.),raisonnement sur ces connaissances pour offrir différents services ('diagnostic', évaluation de la qualité de données et réparation des bases de données), alignement d'ontologies et intégration des données.
Dans certaines de ces approches, l'incertitude sur la pertinence des mappings et des données est prise en compte pour rendre un service de qualité.
L'ensemble des solutions adoptées dans le développement de ces services sont généralisables à d'autres domaines et ont déjà fait l'objet d'une exploitation dans des projets relatifs à l'archéologie sous-marine(projet FP6 VENUS) et à la modélisation dynamique de paysages (ANR STAMP).

   Olivier Curé candidat au poste "27 PR 0933 - Internet du futur" à l'EPU sera en visite à l'I3S et à l'EPU le 16 mars 2011. A cette occasion, il effectuera cette présentation de ses activités de recherche.

14/12/2010
11h
Sid Touati
St-Quentin en Yvelines (FRANCE)
seminaire COMRED / AOSTE
Méthodes d'optimisations de codes bas niveau
Résumé   
INRIA Sophia-Antipolis, salle Euler Violet (006)

Sid Touati:
  maître de conférences à l'université de Versailles St-Quentin en Yvelines
  St-Quentin en Yvelines (FRANCE)

Résumé :

   Cet exposé synthétise plus d'une décade de notre recherche académique sur le sujet d'optimisation de codes bas niveau, dont le but est une intégration dans un compilateur optimisant ou dans un outil d'optimisation semi-automatique. Dans les programmes bas niveau, les caractéristiques du processeur sont connues et peuvent être utilisées pour générer des codes plus en harmonie avec le matériel.

Nous commençons notre exposé par une vue générale sur le problème d'ordonnancement des phases de compilation. Actuellement, des centaines d'étapes de compilation et d'optimisation de codes existent; un problème fondamental et ouvert reste de savoir comment les combiner et les ordonner efficacement. Pour pallier rapidement cette difficulté, une stratégie du moindre effort consiste à appliquer une compilation itérative en exécutant successivement le programme avant de décider de la technique d'optimisation de code à employer et avec quels paramètres. Nous prouvons que l'approche de compilation itérative ne simplifie pas fondamentalement le problème, et l'utilisation de modèles statiques de performances reste un choix raisonnable.

Un problème classique de conflit entre deux étapes de compilation est celui qui lie l'allocation de registres et l'ordonnancement d'instructions. Nous montrons comment gérer efficacement cet antagonisme en séparant les contraintes de registres des contraintes d'ordonnancement d'instructions. Cela est possible grâce à la notion de saturation en registres (RS), qui est le besoin maximal en registres pour tous les ordonnancements possibles d'un graphe. Nous apportons une contribution formelle et une heuristique efficace, qui permettent la détection de contraintes de registres toujours vérifiées; ils peuvent par conséquent être négligées.

Nous introduisons la plate-forme SIRA, qui permet de garantir l'absence de code de vidage avant l'ordonnancement d'instructions. SIRA est un modèle basé sur la théorie des graphes permettant de borner le besoin maximal en registres pour tout pipeline logiciel, sans altérer, si possible, le parallélisme d'instructions. SIRA modélise les contraintes cycliques des registres dans différentes architectures possibles: avec plusieurs types de registres, avec tampons ou files d'attente, et avec des bancs de registres rotatifs. Nous apportons une heuristique efficace qui montre des résultats satisfaisants, que ce soit comme outil indépendant, ou comme passe intégrée dans un vrai compilateur.

Dans le contexte des processeurs exhibant des retards d'accès aux registres (VLIW, EPIC, DSP), nous attirons l'attention sur le problème qui peut survenir lorsque les contraintes de registres sont traitées avant l'ordonnancement d'instructions. Ce problème est la création de circuits négatifs ou nuls dans le graphe de dépendances de données. Nous montrons comment éliminer ces circuits indésirables dans le contexte de SIRA.

SIRA définit une relation formelle entre le nombre de registres alloués, le parallélisme d'instructions et le facteur de déroulage d'une boucle. Nous nous basons sur cette relation pour écrire un algorithme optimal qui minimise le facteur de déroulage tout en sauvegardant le parallélisme d'instructions et en garantissant l'absence de code de vidage. D'après nos connaissances, ceci est le premier résultat qui démontre que le compactage de la taille de code n'est pas un objectif antagoniste à l'optimisation des performances de code.

L'interaction entre la hiérarchie mémoire et le parallélisme d'instructions est un point central si l'on souhaite réduire le coût des latences d'opérations de chargement. Premièrement, notre étude pratique avec des micro-benchmarks montre que les processeurs superscalaires ayant une exécution dans le désordre ont un bug de performances dans leur mécanisme de désambiguation mémoire. Nous montrons ensuite qu'une vectorisation des opérations mémoire résoud ce problème pour des codes réguliers. Deuxièmement, nous étudions l'optimisation de préchargement de données pour des codes VLIW embarqués irréguliers.

Finalement, avec l'arrivée des processeurs multicoeurs, nous observons que les temps d'exécution des programmes deviennent très variables. Afin d'améliorer la reproductibilité des résultats expérimentaux, nous avons conçu le Speedup-Test, un protocole statistique rigoureux. Nous nous basons sur des tests statistiques connus (tests de Shapiro-Wilk, F de Fisher, de Student, de Kolmogorov-Smirnov, de Wilcoxon-Mann-Whitney) afin d'évaluer si une accélération observée du temps d'exécution médian ou moyen est significative.

   

27/07/2010
15h
Bergel Alexandre
Santiago(Chile)
seminaire GLC / équipe MODALIS
Visualizing Dynamic Metrics with Profiling Blueprints
Résumé    [ Annexes ]      [ URL ]
salle de conference

Bergel Alexandre:
   University of Chile
  Santiago(Chile)

Résumé :

   While traditional approaches to code profiling help locate performance bottlenecks, they offer only limited support for removing these bottlenecks. The main reason is the lack of visual and detailed runtime information to identify and eliminate computation redundancy.

We provide two profiling blueprints which help identify and remove performance bottlenecks. The structural distribution blueprint graphically represents the CPU consumption share for each method and class of an application. The behavioral distribution blueprint depicts the distribution of CPU consumption along method invocations, and hints at method candidates for caching optimizations. These two blueprints helped us to significantly optimize Mondrian, an open source visualization engine. Our implementation is freely available for the Pharo development environment and has been evaluated in a number of different scenarios.

   
Publications:
Alexandre Bergel, Romain Robbes and Walter Binder, Visualizing Dynamic Metrics with Profiling Blueprints, In Proceedings of the 48th International Conference on Objects, Models, Components, Patterns (TOOLS EUROPE'10), July 2010, LNCS Springer Verlag

Biblio :
Alexandre Bergel is Assistant Professor at the University of Chile. He obtained his PhD in 2005 from the University of Berne, Switzerland, under the supervision of O. Nierstrasz and S. Ducasse. After his PhD, A. Bergel made a first postdoc at Trinity College Dublin, Ireland, and a second one at the Hasso-Plattner Institute, Germany. A. Bergel is the author of over 40 articles, published in international and peer review scientific forums, including the most competitive conferences and journals in the field of software engineering. A. Bergel and his collaborators carry out research in diverse aspects of software engineering and software quality.

01/07/2010
14h30
Patrick AMAR
ORSAY(France)
seminaire MDSC
Modélisation de l'auto-assemblage et du comportement de complexes macro-moléculaires
Résumé    [ URL ]
salle de conference

Patrick AMAR:
  LRI
  ORSAY(France)

Résumé :

   De nombreuses voies métaboliques dans les cellules mettent en évidence des réactions catalysées par des protéines (fonction enzymatique). Dans les expériences faites 'in vitro' le milieu est homogène et le volume considérablement plus grand que dans une cellule, on doit mettre de grandes quantités de réactifs pour obtenir la concentration nécessaire à l'établissement des réactions chimiques. A contrario dans une cellule, la quantité de réactifs est bien plus faible et bien que le volume soit lui aussi réduit, la concentration est trop basse pour que certaines réactions puissent avoir lieu. L'idée est que les concentrations locales sont suffisamment élevées pour les réactions se fassent.

Pour modéliser le fonctionnement de ces voies métaboliques 'in vivo' les systèmes continus à base d'équations différentielles ne sont pas bien adaptés: dans certains processus cellulaires un très petit nombre de molécules est mis en jeu et consécutivement les facteurs stochastiques sont très importants.

On a donc opté pour un modèle discret au niveau macromoléculaire (de l'ordre de grandeur d'une protéine) de type entité-centré. La cellule est représentée par un volume limité par une membrane qui contient le nombre de molécules des réactifs de la voie métabolique étudiée correspondant à ce qui existe réellement dans une cellule vivante. La cellule simulée peut contenir des compartiments, et le milieu n'est pas forcément homogène (la viscosité peut être fonction de la localisation spatiale). Le simulateur prend en entrée un fichier décrivant les réactifs: type, vitesse nominale de diffusion, etc. et les réactions: formation de complexes, échange de groupes (phospohrylation et déphospohrylation par exemple), ainsi que la cinétique de ces réactions. En cours de fonctionnement, le simulateur produit à la fois un affichage 3D de la cellule et de son contenu, en reconnaissant et affichant les complexes (agrégats de macromolécules) avec leur localisation dans la cellule, et un affichage sous forme de courbes de l'évolution des concentrations des divers produits. Un histogramme du nombre et de la taille des complexes est aussi affiché.

Le simulateur est hybride en ce sens que l'on peut choisir de représenter certaines espèces chimiques soit par des entités localisées soit par une population homogène dans un compartiment. L'intéret étant de pouvoir intégrer les très petites molécules présentes en très grand nombre et réparties de façon homogène dans le compartiment avec un faible cout en temps calcul.

L'accent est particulièrement porté sur l'étude des complexes car il est montré que les réactions peuvent être plus efficaces de plusieurs ordres de grandeur avec les chaînes enzymatiques agrégées et des réactions canalisées plutot que par libre diffusion. Cela pourrait expliquer pourquoi in-vivo certaines voies métaboliques fonctionnent avec une faible concentration de réactifs.

Des exemples de modèles de types très différents seront présentés à la fin de l'exposé pour montrer la diversité des utilisations possibles du simulateur.

   

29/04/2010
14h
Guillaume Urvoy-Keller
Eurecom
seminaire SIS
Classification de trafic : le cas d'un FAI
Résumé    [ URL ]
salle de reunion

Guillaume Urvoy-Keller:
  Eurecom
  

Résumé :

   Voir lien ci-dessous

   

22/04/2010
16h
Aymen El Gouhl
Sophia Antipolis
seminaire ADSTIC
A phase field higher-order active contour model of directed networks
Résumé    [ URL ]
salle de conference

Aymen El Gouhl:
  INRIA
  Sophia Antipolis

Résumé :

   The segmentation of directed networks is an important problem in many domains, e.g. medical imaging (vascular networks) and remote sensing (river networks). Directed networks carry a unidirectional flow in each branch, which leads to characteristic geometric properties. In this talk, We present a nonlocal phase field model of directed net- works. In addition to a scalar field representing a region by its smoothed characteristic function and interacting non- locally so as to favour network configurations, the model contains a vector field representing the ‘flow’ through the network branches. The vector field is strongly encouraged to be zero outside, and of unit magnitude inside the re- gion; and to have zero divergence. This prolongs network branches; controls width variation along a branch; and produces asymmetric junctions for which total incoming branch width approximately equals total outgoing branch width. In conjunction with a new interaction function, it also allows a broad range of stable branch widths. We analyse the energy to constrain the parameters, and show geometric experiments confirming the above behaviour. We show results on very high resolution Quickbird images for road and river network extraction.

   

15/04/2010
14h
Olivier ADAM
Université Paris Sud
seminaire SIS
Analyse de sons d'origine médicale et biologique. Application aux potentiels évoqués auditifs et aux sons émis par les cétacés
Résumé    [ URL ]
salle de conference

Olivier ADAM:
  Université Paris Sud
  

Résumé :

   http://www.i3s.unice.fr/~comport/seminairePoleSIS/

   

15/04/2010
16h
Sidi-Mohammed SENOUCI
Lannion
seminaire SIS
Développement des technologies sans fil pour les réseaux
Résumé    [ URL ]
salle de conference

Sidi-Mohammed SENOUCI:
  Orange Labs
  Lannion

Résumé :

   http://www.i3s.unice.fr/~comport/seminairePoleSIS/

   

25/03/2010
16h00
Olivier Strauss
seminaire SIS
Nouvelles représentations des mesures de confiances.

For more details, please follow the following link:
Pour plus de détails, veuillez suivre le lien suivant :
Résumé    [ URL ]
salle de conference

Olivier Strauss:
  
  

Résumé :

   

   

26/02/2010
17h
Aline Cabasson
EPFL
seminaire
Développement d'une toolbox pour l'interprétation des signaux enregistrés en fibrillation auriculaire & Prédiction de la fibrillation auriculaire à partir de l'étude des signaux électrocardiographiques
Résumé    [ URL ]
salle de conference

Aline Cabasson:
  EPFL
  

Résumé :

   

   

03/02/2010
16h
Dino M. Lopez Pacheco
Sophia Antipolis
seminaire SIS
Improving the performance of long life flows with Explicit Rate Notification protocols in Heterogeneous large BDP networks

For more details, please follow the following link:
Pour plus de détails, veuillez suivre le lien suivant :
Résumé    [ URL ]
salle de conference

Dino M. Lopez Pacheco:
  I3S - SigNet
  Sophia Antipolis

Résumé :

   

   

21/10/2009
16h
Cécile Picard
Sophia Antipolis
seminaire ADSTIC
A Robust And Multi-Scale Modal Analysis For Sound Synthesis
Résumé    [ URL ]
salle de conference

Cécile Picard:
  INRIA
  Sophia Antipolis

Résumé :

   Cecile Picard is currently a Computer Graphics Ph.D. candidate at INRIA, France, in the REVES team. Her current research focuses on real-time sound rendering for virtual reality and in particular, on the synthesis of sounds resulting from physical interactions of various objects in a 3D virtual environment. The main goal is to address different techniques for sound rendering based on the constraints that sounds are highly dynamic and vary depending on the interaction type and the objects properties. In this presentation, we address an efficient sound modeling that appropriately render the attributes of the resonating objects. We propose a generic method for modal analysis that preserves sound variety across the surface of an object, at different scales of resolution and for a variety of complex geometries.

   

17/09/2009
14h00
Hanna Becker & Martin Haardt
Germany
seminaire SIS / séminaire SIS
Higher-Order SVD-Based Subspace Estimation to Improve the Parameter Estimation Accuracy in Multidimensional Harmonic Retrieval Problems
Résumé    [ URL ]
salle de conference

Hanna Becker & Martin Haardt:
  Ilmenau University of Technology
  Germany

Résumé :

   Multidimensional harmonic retrieval problems are encountered in a variety of signal processing applications in- cluding radar, sonar, communications, medical imaging, and the estimation of the parameters of the dominant multipath components from MIMO channel measurements. -dimensional subspace-based methods, such as -D Unitary ESPRIT, -D RARE, or -D MUSIC, are frequently used for this task. Since the measurement data is multidimensional, current approaches require stacking the dimensions into one highly structured matrix. However, in the conventional subspace estimation step, e.g., via an SVD of the latter matrix, this structure is not exploited. In this paper, we define a measurement tensor and estimate the signal subspace through a higher-order SVD. This allows us to exploit the structure inherent in the measurement data already in the first step of the algorithm which leads to better estimates of the signal subspace. We show how the concepts of forward-backward averaging and the mapping of centro-Hermitian matrices to real-valued matrices of the same size can be extended to tensors. As examples, we develop the -D standard Tensor-ESPRIT and the -D Unitary Tensor-ESPRIT algorithms. However, these new concepts can be applied to any multidimensional subspace-based parameter estimation scheme. Significant improvements of the resulting parameter estimation accuracy are achieved if there is at least one of the dimensions, which possesses a number of sensors that is larger than the number of sources. This can already be observed in the two-dimensional case.

   

31/08/2009 LAVIROTTE Stéphane
seminaire projet RAINBOW
MOBILITY 2009
Résumé    [ URL ]
EPU Templier

LAVIROTTE Stéphane:
  
  

Résumé :

   

   

09/07/2009
16h
W. Mueller
Linz, Autriche
seminaire SIS
Issues in Spatial Design.
Résumé    [ URL ]
salle de conference

W. Mueller:
  Johannes Kepler Universitaet
  Linz, Autriche

Résumé :

   In the talk I would like to present two typical cases for the need of spatial sampling designs. Several important statistical issues, such as counterintuitive design effects, possible relations to Kiefer-Wolfowitz equivalence, etc. will be discussed.

   

03/07/2009
14h
Robert France
Fort Collins, USA
seminaire GLC / projet MODALIS (I3S) et projet PULSAR (INRIA)
Why Modeling is Essential to Software Engineering
Résumé   
salles K1/K2/K3 qui se trouvent au rez-de-chaussée du bâtiment Kahn de l'INRIA

Robert France:
  Colorado State University
  Fort Collins, USA

Résumé :

   The term Model Driven Engineering (MDE) is typically used to describe software development approaches in which models of software systems are created, analyzed and used to create dependable implementations. In this talk I will discuss some of the major challenges that must be tackled in order to realize the MDE vision of software development. I argue that MDE research addresses core software engineering concerns. The challenges can be viewed as wicked problems, but they present the software engineering community with research opportunities that, if properly exploited, can lead to a significant reduction in the gap between evolving software complexity and software development technologies.

   

02/07/2009
16h
C. Cavalcante
Brazil
seminaire SIS
Interference Cancellation and Information Processing in Communication Systems
Résumé    [ Annexes ]      [ URL ]
salle de conference

C. Cavalcante:
  UFC
  Brazil

Résumé :

   Signal processing is a key issue in the optimization and design of wireless communication system as well as a powerful tool for problems in several areas. This talk describes the research lines and some results developed in the Wireless Telecommunication Research Group (GTEL) at Federal University of Ceará (UFC) in Brazil. We will show some actual problems we are interested in, namely, precoding strategies, limited feedback systems, game-theoretic algorithms, convex optimization and majorization theory, and them discuss some results and status. Further, some problems and research in blind source separation and equalization are also covered in the lecture.

   Biography:
Charles Casimiro Cavalcante received a D.Sc. degree from the University of Campinas (UNICAMP) in São Paulo, Brazil in 2004. Dr. Cavalcante has been working on signal processing strategies for communications where he has several papers published and he has worked on funded research projects on the area. He has held a grant for Scientific and Technological Development from 2004 to 2007 and since March 2009 he has a grant of Scientific Research Productivity both from the Brazilian Research Council (CNPq). From March 2007 to November 2008 he was a visiting professor at Teleinformatics Engineering Department of UFC and since November he is an Assistent Professor at the same department and university. Dr. Cavalcante is a researcher of the Wireless Telecommunications Research Group (GTEL) where he leads research on signal processing and wireless communications. His main research interests are in signal processing for communications, blind source separation, wireless communications, and statistical signal processing.

18/06/2009
16h
Farzad Kamalabadi
Illinois, USA
seminaire SIS
On Optimal Sensor Array Configuration in Remote Image Formation
Résumé    [ URL ]
salle de conference

Farzad Kamalabadi:
  University of Illinois at Urbana Champaign
  Illinois, USA

Résumé :

   Determination of optimal sensor array configuration is an important factor affecting the information content of the data acquired in remote image formation modalities such as tomographic and interferometric imaging. Consequently, the quality of the reconstructed images are influenced by the choice of the placement of array elements. The problem of optimizing the array configuration has most commonly been approached from a transform-domain analysis by investigating the impact of the sensor placement on the sampling of multi-dimensional Fourier space, or alternatively by considering the distribution of the singular values of the imaging operator.
In this work, a combinatoric optimization of possible configurations based on minimizing a statistical error measure is proposed. In particular, a statistical framework is developed which allows for inclusion of several widely used image model constraints, and a search is performed over the space of candidate sensor locations to determine the configuration that optimizes the desired statistical optimality criterion over all candidates. In order to make the search process computationally feasible, a suboptimal backward greedy algorithm is proposed. Computational complexity of the proposed algorithm is analyzed and a fast implementation is described. Furthermore, upper bounds on the performance of the proposed algorithm are derived. Connections of the method to the deterministic backward greedy algorithm for the subset selection problem are discussed. Finally, the performance of the proposed framework is investigated through numerical experiments for a tomographic imaging scenario.

   

17/06/2009
16h
Hala Rifai
Sophia Antipolis
seminaire ADSTIC
Commande de systèmes robotiques aériens
Résumé   
salle de conference

Hala Rifai:
  Laboratoire I3S - SIS
  Sophia Antipolis

Résumé :

   La commande des systèmes robotiques aériens a suscité récemment un intérêt particulier pour des applications de surveillance, d'observation et d'inspection. La première partie de cette présentation portera sur la modélisation d'un robot biomimétique volant en se basant sur la biomécanique des insectes et les efforts aérodynamiques générés par les ailes battantes. La commande du robot insecte est ensuite assurée en agissant sur les forces et les couples appliqués au corps. Un couplage entre la force de portance verticale et l'angle de roulis est considéré afin d'assurer le mouvement tridimensionnel du microdrone. Les lois de commande sont bornées pour tenir compte des saturations des angles des ailes. Elles sont à faible coût de calcul et robustes aux perturbations et aux erreurs de modèle. Ces commandes, basées sur un retour d'état et/ou de mesure de capteurs embarqués, garantissent la stabilité globale du système. Dans la deuxième partie, la téléopération bilatérale des drones sera abordée: un joystick à retour de force permet à l'opérateur de contrôler le véhicule et de ressentir les résistances au mouvement dues à l'environnement (approche d'un obstacle par exemple).

   

11/06/2009
11h
Claude Le Bris
E.N.P.C.
seminaire Colloquium Morgenstern
Simulation numérique pour la science des matériaux : vers une mécanique moderne
Résumé    [ URL ]
 

Claude Le Bris:
  E.N.P.C.
  

Résumé :

   

   

11/06/2009
16h
Liva Ralaivola
Marseille
seminaire SIS
Apprentissage et données non IID : quelques résultats
Résumé    [ URL ]
salle de conference

Liva Ralaivola:
  LIF, Université de Provence
  Marseille

Résumé :

   Une hypothèse communément faite en apprentissage statistique est que les données considérées sont indépendamment et identiquement distribuées (IID) suivant une distribution de probabilité (fixe et inconnue). Néanmoins, plusieurs tâches d'apprentissage suscitées par des applications réelles conduisent au constat que cette hypothèse IID n'est pas vérifiée : c'est par exemple le cas pour l'ordonnancement biparti, l'apprentissage actif, le 'covariate shift', la prédiction dans des graphes. Après avoir rappelé le cadre standard de l'apprentissage statistique, cet exposé s'intéressera précisément à présenter quelques problèmes où l'hypothèse IID n'est pas vérifiée ainsi que des résultats théoriques permettant d'assurer que des procédures d'apprentissage retenues dans ces situations sont valides. Nous présenterons de nouvelles bornes Pac-Bayésiennes et illustrerons sur le ranking biparti la pertinence de ces résultats théoriques.

   

04/06/2009
16h
Manuel Caroli
Sophia Antipolis
seminaire ADSTIC
Triangulating the 3D periodic space
Résumé    [ URL ]
salle de conference

Manuel Caroli:
  INRIA - Geometrica
  Sophia Antipolis

Résumé :

   This work is motivated by the need for software computing 3D periodic triangulations in numerous domains including astronomy, material engineering, biomedical computing, fluid dynamics etc. We design an algorithmic test to check whether a partition of the 3D flat torus actually forms a triangulation (which subsumes that it is a simplicial complex). We propose an incremental algorithm that computes the Delaunay triangulation of a set of points in the 3D flat torus without duplicating any point, whenever possible. To the best of our knowledge, this is the first algorithm of this kind whose output is provably correct. Proved algorithms found in the literature are in fact always computing with 27 copies of the input points, while our algorithmic test detects when such a duplication can be avoided, which is usually possible in practical situations. The algorithm was implemented and has been accepted by the CGAL Edi- torial Board as a new package of CGAL 3.5.

   

28/05/2009
11h
Seth Teller
M.I.T.
seminaire Colloquium Morgenstern
Development of a Self-Driving Car for the DARPA Urban Challenge
Résumé    [ URL ]
 

Seth Teller:
  M.I.T.
  

Résumé :

   

   

14/05/2009
11h
Pascal Koiran
E.N.S. Lyon
seminaire Colloquium Morgenstern
Près de 40 ans après le théorème de Cook, où en est la complexité algorithmique ?
Résumé    [ URL ]
 

Pascal Koiran:
  E.N.S. Lyon
  

Résumé :

   

   

30/04/2009
16h
Andrew Comport
I3S
seminaire SIS
Multi-camera and model-based robot vision
Résumé    [ URL ]
salle de conference

Andrew Comport:
  I3S
  

Résumé :

   This talk will address 6 degrees of freedom (d.o.f.) real-time pose estimation and localization for robot control in two parts. In the first part, a real-time monocular 3D model-based approach is presented where it is assumed that an a priori wire-frame model of the environment is available. A non-linear estimation approach is derived using classical visual servoing techniques within a virtual framework and robust M-estimation is used iteratively to reject outliers. In a second part, a stereo pair of cameras is introduced to avoid requiring an a-priori 3D CAD model. This allows 6 d.o.f visual odometry to be performed in unknown large scale environments. In this case a direct appearance based approach is presented which is based on stereo novel view synthesis. This allows formulation of a non-linear minimization approach based on a geometric quadrifocal relationship between adjacent image pairs in a video stream.

   

16/04/2009
16h
M. Cagnazzo
E.N.S.T
seminaire SIS
Distributed video coding for multiview application - A differential approach to the image interpolation problem
Résumé    [ URL ]
salle de conference

M. Cagnazzo:
  E.N.S.T
  

Résumé :

   

   

09/04/2009
11h
Frank Nielsen
Ecole Polytechnique
seminaire SIS
Computational Information Geometry: from Euclidean to dually flat spaces
Résumé    [ Annexes ]      [ URL ]
salle de conference

Frank Nielsen:
  Ecole Polytechnique
  

Résumé :

   High-dimensional noisy datasets encoding heterogeneous feature vectors abound in many real-world applications. On one hand, practitioners face the crucial problem of choosing the best-suited distance allowing them to use their algorithmic toolboxes. On the other hand, theoreticians are focusing on recovering the intrinsic dimensionality and underlying topology of datasets, and focus on learning the most appropriate distances. In the first part of the lecture, we start by presenting recent advances of the celebrated k-means clustering algorithm (namely, G-means++ that automatically learns the proper number of clusters using a careful seeding). We then present broad generalizations of k-means: convex k-means and Bregman k-means (that preserves the centroid relocation scheme). We introduce the notion of Bregman divergences and Bregman information, and explain the fundamental convex duality arising from the Legendre Fenchel transform. We describe the 1-to-1 map from Bregman divergences to statistical exponential families that allows one to design easy soft-clustering algorithms (expectation-maximization). In the second part of the lecture, we present the underlying geometry induced by a convex contrast function: Dually flat spaces generalizing the traditional Euclidean geometry (self-dual). We explain how the standard Euclidean notions of bisectors/projection/orthogonality and geodesics extend to these spaces, and present generalizations of common algorithms and data-structures in computational geometry: smallest enclosing ball, Voronoi and Delaunay/regular triangulations, etc. We then restate these results under the framework of information geometry. Finally, we conclude with other broad classes of distances (eg., Csiszár’s f divergences, f-Jensen semi-distances, alpha-divergences) with their corresponding non-flat geometries.

   Cette présentation sera suivie d'un mini-cours l'après-midi (14h-17h en salle de réunion) pour approfondir le sujet.

09/04/2009
14h à 17h
Frank Nielsen
Ecole Polytechnique
seminaire SIS
Computational Information Geometry: from Euclidean to dually flat spaces
Résumé    [ Annexes ]      [ URL ]
salle de reunion

Frank Nielsen:
  Ecole Polytechnique
  

Résumé :

   High-dimensional noisy datasets encoding heterogeneous feature vectors abound in many real-world applications. On one hand, practitioners face the crucial problem of choosing the best-suited distance allowing them to use their algorithmic toolboxes. On the other hand, theoreticians are focusing on recovering the intrinsic dimensionality and underlying topology of datasets, and focus on learning the most appropriate distances. In the first part of the lecture, we start by presenting recent advances of the celebrated k-means clustering algorithm (namely, G-means++ that automatically learns the proper number of clusters using a careful seeding). We then present broad generalizations of k-means: convex k-means and Bregman k-means (that preserves the centroid relocation scheme). We introduce the notion of Bregman divergences and Bregman information, and explain the fundamental convex duality arising from the Legendre Fenchel transform. We describe the 1-to-1 map from Bregman divergences to statistical exponential families that allows one to design easy soft-clustering algorithms (expectation-maximization). In the second part of the lecture, we present the underlying geometry induced by a convex contrast function: Dually flat spaces generalizing the traditional Euclidean geometry (self-dual). We explain how the standard Euclidean notions of bisectors/projection/orthogonality and geodesics extend to these spaces, and present generalizations of common algorithms and data-structures in computational geometry: smallest enclosing ball, Voronoi and Delaunay/regular triangulations, etc. We then restate these results under the framework of information geometry. Finally, we conclude with other broad classes of distances (eg., Csiszár’s f divergences, f-Jensen semi-distances, alpha-divergences) with their corresponding non-flat geometries.

   Ce mini-cours fait suite à la présentation générale au Séminaire du Pôle SIS qui aura lieu le matin à 11h.

26/03/2009
11h
Vin de Silva
Pomona College
seminaire Colloquium Morgenstern
Point-clouds, sensor networks, and persistence: algebraic topology in the 21st century
Résumé    [ URL ]
 

Vin de Silva:
  Pomona College
  

Résumé :

   

   

10/03/2009
16h
A. Lilienthal
Suede
seminaire SIS
Research at the AASS Learning Systems lab (particular focus on mobile robot olfaction)
Résumé    [ URL ]
salle de conference

A. Lilienthal:
  AAAS Research Center, Orebro University
   Suede

Résumé :

   In this talk, I will present research work at the AASS Learning Systems lab (http://www.aass.oru.se/Research/Learning/). The scientific directions we pursue can be described as (1) scan registration, localization and map learning/SLAM, (2) robot vision, (3) mobile robot olfaction and (4) tactile description and programming-by-demonstration. I will first give a brief overview on (1) and (2), highlighting prominent results obtained in the last five years. In the second part of the presentation, I will turn towards (3), our work on mobile robot olfaction, and again present, though in more detail, some of our major results. I won't include (4), tactile description and programming-by-demonstration, since this is a developing direction - and also for the sake of time.

   

17/02/2009
16h
Céline Roudet
Lyon
seminaire SIS
Compression adaptative de surfaces par ondelettes géométriques
Résumé    [ URL ]
salle de conference

Céline Roudet:
  LIRIS
  Lyon

Résumé :

   L'évolution de l'infographie et des techniques de numérisation a récemment ouvert la voie à une modélisation tridimensionnelle du monde qui nous entoure. Afin de s'adapter à l'hétérogénéité des ressources et médias manipulant ces objets 3D, des techniques basées sur l'analyse multirésolution sont généralement utilisées car elles fournissent une représentation "scalable" de ces modèles géométriques. C'est dans ce cadre de compression et de transmission progressive d'objets 3D (modélisées sous forme de maillages surfaciques) que se situe mon travail de thèse, réalisé dans le cadre du projet "CoSurf" (collaboration entre le laboratoire LIRIS de Lyon et Orange Labs de Rennes). A l'issue de cette collaboration, nous avons proposé une nouvelle méthode de compression hiérarchique s'appuyant sur une décomposition en ondelettes, outil d'analyse performant et robuste qui a fait ses preuves en termes de compression d'images et de vidéos. Notre méthode se démarque des techniques de l'état de l'art, puisqu'elle s'appuie sur une segmentation préalable de la surface en régions d'amplitudes fréquentielles variables. Pour cela, une étude de la distribution des coefficients d'ondelettes sur les différents niveaux de résolution a été considérée. Les partitions résultantes peuvent ainsi être traitées indépendamment durant les phases d'analyse multirésolution, de quantification et d'allocation binaire, de façon à s'adapter aux caractéristiques surfaciques locales des maillages et ainsi réduire les informations à coder. La contribution visuelle de chacune des partitions à l'ensemble de la surface est également un point important à considérer dans la phase d'optimisation des bits alloués à celles-ci, notamment pour des applications comme la transmission et la visualisation sélectives. L'étude de la distribution de l'angle polaire des coefficients d'ondelettes nous a également servi à détecter les régions concaves et convexes dans les maillages surfaciques triangulaires. Nous prévoyons d'intégrer la mesure considérée à notre processus de segmentation, de façon à mieux identifier les variations de courbures sur la surface. Cette notion pourrait de même être prise en compte pour mesurer la similarité visuelle entre maillages, de façon à mieux s'adapter à la sensibilité de l'œil humain. D'autres applications telles que le tatouage, le filtrage, le débruitage, l'indexation ou enfin la correction d'erreurs après transmission sur un canal bruité, pourraient bénéficier de notre concept générique d'analyse multirésolution adaptative.

   

12/02/2009
11h
Olivier Talagrand
E.N.S.
seminaire Colloquium Morgenstern
Modélisation Numérique du Climat. Méthodes, Résultats, Promesses et Limites
Résumé    [ URL ]

Olivier Talagrand:
  E.N.S.
  

Résumé :

   

   

15/12/2008
14h30
A. Bijaoui
Nice
seminaire Projet ARIANA
 
Résumé    [ URL ]
INRIA - bât. Galois - Salle Coriolis

A. Bijaoui:
  Observatoire de la Côte d'Azur
  Nice

Résumé :

   

   

11/12/2008
11h
Laurent Thénié
Cadence Design Systems
seminaire Colloquium Morgenstern
La course à l'infiniment petit et ses challenges technologiques
Résumé    [ URL ]
 

Laurent Thénié:
  Cadence Design Systems
  

Résumé :

   Notre quotidien se numérise (appareil photo, lecteur mp3, téléphone, voiture, tv....).
C'est une évidence et pourtant la fabrication des circuits qui peuplent cet univers micro et desormais nanoélectronique reste souvent mystérieuse.
Nous essayerons dans cette présentation de passer en revue les étapes de fabrication des circuits, ainsi que de comprendre les difficultés techniques imposées par cette course à la miniaturisation.

   

11/12/2008
16h30
D. Nion
Belgium
seminaire SIS
Les décompositions tensorielles: modèles, applications, algorithmes, perspectives
Résumé    [ URL ]
salle de conference

D. Nion:
  K.U.Leuven Campus Kortrijk
  Belgium

Résumé :

   Les décompositions tensorielles sont des outils d'algèbre multilinéaire qui suscitent un intérêt croissant dans de nombreuses disciplines, notamment en traitement du signal. Comparativement aux décompositions matricielles, la puissance de ces outils réside dans un certain nombre de propriétés intéressantes. Tout d'abord, lorsqu'un signal et intrinsèquement multidimensionnel, sa représentation au format tensoriel, c'est à dire sous forme d'un tableau à plusieurs dimensions, ainsi que son analyse et son traitement via des outils d'algèbre tensorielle, permettent d'exploiter pleinement la structure de ce signal. En ce sens, l'analyse tensorielle est en général plus adéquate que l'analyse matricielle dans les applications faisant intervenir des signaux multivariés. Outre cette capacité de modélisation, l'unicité des décompositions tensorielles est également une propriété essentielle. Tandis que les décompositions matricielles sont uniques sous certaines contraintes (par exemple orthogonalité des composantes), certaines décompositions tensorielles sont uniques à des indéterminations triviales près. Du fait de ces propriétés, l'analyse tensorielle connaît une popularité croissante dans des disciplines variées, telles que la séparation de sources, les télécommunications, le traitement d'images, la chimiométrie, etc. Ce séminaire sera structuré comme suit. Dans une première partie, le principe et le formalisme de quelques décompositions tensorielles seront présentés, de manière non exhaustive. Dans une seconde partie, la portée pratique de ces décompositions sera illustrée au travers de quelques applications. Cette partie consistera d'abord en une brève description de quelques applications sélectionnées dans la littérature, puis d'une description plus détaillée de deux applications spécifiques: le suivi de cibles pour les radars MIMO et la séparation aveugle de signaux de parole. Dans une troisième partie, l'aspect algorithmique sera abordé. Cette partie consistera en une brève description des algorithmes hors-ligne existants et proposera une étude plus détaillée des algorithmes adaptatifs émergents. Ce séminaire sera conclu par quelques perspectives de recherche, enrichies par une discussion avec l'auditoire.

   

27/11/2008
11h
Frédo Durand
M.I.T.
seminaire Colloquium Morgenstern
Computation is the New Optics: Coded Imaging in Computational Photography
Résumé    [ URL ]

Frédo Durand:
  M.I.T.
  

Résumé :

   Les principes de la formation d’image n’ont guère change depuis l’invention de la photographie: un objectif focalise les rayons lumineux provenant de la scène vers un capteur 2D qui enregistre directement cette information. L’image finale est une simple copie de l’image optique et tout gain de qualité passe généralement par une amélioration de l’optique. La photographie algorithmique (« computational photography ») est un nouveau domaine qui vise a changer cette situation en utilisant des calculs comme étape fondamentale dans le processus de formation d’image. Cela veut dire en particulier que l’image optique n’a plus besoin d’être semblable au but final, ce qui change énormément les systèmes optiques possibles. Le calcul peut être bien plus qu’un simple post-traitement appliqué a une image traditionnelle, il peut complètement changer les buts du système optique. En particulier, on peut voir l’optique comme un codage de l’information tandis qu’un algorithme est responsable du décodage. Optique et algorithme demandent a être développés et optimisés de concert afin de maximiser les performance du système.
Cet expose se concentre sur de nouvelles approches en photographie algorithmique qui traitent des problèmes de flou de mouvement et de flou de mise au point. Une méthode d’ouverture codée permet de capturer une information de profondeur ainsi qu’une image classique, mais ou le flou de mise au point a été enlevé. Une autre technique permet d’éliminer le flou de mouvement lorsque la direction du mouvement est connue mais pas la vélocité. La camera est déplacée lors de l’exposition selon une trajectoire qui rend le flou indépendant de la vitesse. Un budget d’information est dérivé et cette nouvelle technique atteint presque la borne supérieure.
Ces travaux ont été réalisés en commun avec Anat Levin, Rob Fergus, Bill Freeman, Taeg Cho, et Peter Sand.

   

27/11/2008
16h30
V. Garcia
Sophia Antipolis
seminaire ADSTIC
Fast k Nearest Neighbor Search using GPU
Résumé   
salle de conference

V. Garcia:
  Laboratoire I3S
  Sophia Antipolis

Résumé :

   Statistical measures coming from information theory represent interesting bases for image and video processing tasks such as image retrieval and video object tracking. For example, let us mention the entropy and the Kullback-Leibler divergence. Accurate estimation of these measures requires to adapt to the local sample density, especially if the data are high-dimensional. The k nearest neighbor (kNN) framework has been used to define efficient variable-bandwidth kernel-based estimators with such a locally adaptive property. Unfortunately, these estimators are computationally intensive since they rely on searching neighbors among large sets of d-dimensional vectors. This computational burden can be reduced by pre-structuring the data, e.g. using binary trees as proposed by the Approximated Nearest Neighbor (ANN) library. Yet, the recent opening of Graphics Processing Units (GPU) to general purpose computation by means of the NVIDIA CUDA API offers the image and video processing community a powerful platform with parallel calculation capabilities. In this talk, we present a CUDA implementation of the “brute force” kNN search and we compare its performances to several CPU-based implementations including an equivalent brute force algorithm and ANN. We show a speed increase on synthetic and real data by up to one or two orders of magnitude depending on the data, with a quasi-linear behavior with respect to the data size in a given, practical range.

   

20/11/2008
14h
Janine Guespin-Michel
Université de Rouen
seminaire MDSC
Le point de vue de la complexité en biologie
Résumé   
salle de conference

Janine Guespin-Michel:
  Université de Rouen
  

Résumé :

   Etudier les organismes vivants comme des systèmes complexes, c'est adopter un point de vue dynamique qui a ses avantages et ses exigences. Cette thèse sera illustrée par des exemples simples.

   

07/11/2008
14h
R. Mahony
Australie
seminaire SIS
Gradient like observers for invariant systems
Résumé    [ Annexes ]      [ URL ]
salle de conference

R. Mahony:
  ANU
  Australie

Résumé :

   This talk considers the considers the design of non-linear observers for invariant kinematic systems posed on finite-dimensional connected Lie groups. Both the case of full-state measurements and partial-state measurements are considered with the measurement process modelled by a transitive group action acting on a manifold termed the output space. Concepts of synchrony (between observer and the plant) and invariant innovations are used to provide a structure theory for observer design. A gradient like construction is proposed to design the innovation terms, leading to strong (almost) global convergence properties for observation error. Such a construction requires a cost function with certain invariance properties and I give a short discussion of how such functions can be generated. The proposed approach has been successfully applied to the design of attitude filters on aerial robotic vehicles.

   Bio.: Robert Mahony is currently a reader in the Department of Engineering at the Australian National University. He received a PhD in 1995 (systems engineering) and a BSc in 1989 (applied mathematics and geology) both from the Australian National University. He worked as a marine seismic geophysicist and an industrial research scientist before completing a postdoctoral fellowship in France and a Logan Fellowship at Monash University in Australia. He has held his post at ANU since 2001. His research interests are in non-linear control theory with applications in robotics, geometric optimisation techniques and systems theory.

23/10/2008
10h30
Michael Weiss
Milano-Bicocca
seminaire MC3
Calculabilité des pavages
Résumé    [ URL ]
salle de conference

Michael Weiss:
  Milano-Bicocca
  

Résumé :

   

   

21/10/2008
11h00
Yann Brenier
NIce (France)
seminaire COMRED / Seminaire I3S/INRIA Sophia-Antipolis
Problemes de combinatoire en transport optimal
Résumé    [ Annexes ]     
salle Byron blanc (INRIA)

Yann Brenier :
  Université de Nice, Mathématiques
  NIce (France)

Résumé :

   Le concept de "transport optimal" s'est revele tres fructueux en analyse pure (inegalites geometriques, geometrie riemannienne) et appliquee (equations aux derivees partielles), avec des applications surprenantes par la simplicite des preuves et la generalite des resultats. Pourtant, il ne s'agit que de l'equivalent "continu" d'un des concepts les plus simples de l'optimisation combinatoire: celui d'affectation optimale lineaire (linear assignment). On decrira quelques applications. On soulignera surtout l'absence d'algorithmes vraiment performants dans la limite du continu, malgre de nombreuses tentatives recentes, avec des applications aussi variees que le traitement des images en couleur et la reconstruction de l'univers primitif a partir des catalogues de galaxies observees.

   Contact: Jerome Galtier (Jerome.Galtier@orange-ftgroup.com)

20/10/2008
14h30
Denis Gingras
Quebec
seminaire Projet ARIANA
D parametric estimation of stellar loci for quasi-stellar objects identification from photometric data
Résumé    [ URL ]
INRIA - bât. Galois - Salle Coriolis

Denis Gingras:
  Department of Electrical Engineering and Computer Sciences - Sherbrooke university,
  Quebec

Résumé :

   Following a brief introduction to the Université de Sherbrooke and some of its research activities in imaging and image processing, I shall present some preliminary results of an ongoing work at the Syrte laboratory from the Observatoire de Paris, focusing on the detection and identification of quasars from panchromatic or multi-band astronomical CCD images. With astrometric accuracy of astronomical data steadily improving, it is required to get the best reference standards possible to build the International Celestial Reference System (ICRS) in the visible range. This is mandatory nowaday for localisation and identification of any astronomical objects. Because of their very huge distance, quasars constitute ideal quasi inertial landmarks for the realization of such reference systems, however they are for a good many, obstructed by the Milky Way and cannot be directly discriminated from stars in CCD images. Fortunately, quasars distinguish themselves in most cases from other celestial bodies by their spectral signature obtained from spectroscopic observations. However, considering the very high density of celestial objects present in today's astronomical charts, it is not possible to measure the spectral signature of every object detected in CCD images. The approach presented here aims therefore at performing a pre-filtering and identification of potential quasars by using only 3 or 4 spectral bands for the building of a 3D color-index space (difference of magnitudes) for the celestial objects extracted from CCD astronomical images. In this 3D space, we apply an iterative algorithm allowing the parametric estimation of the spindly stellar locus. Indeed, stars regroup themselves in a dense manner and form according to their age and their evolutionary characteristics a spindly locus in 3D color index space. At every locus point estimated, we fit an ellipse allowing to quantify the distribution of stars in a plane perpendicular to the locus and to fix a distance beyond which, the celestial objects will be considered to be potential quasars. Those selected are then subjected to a finer spectrometric analysis for validation, before insertion in ICRS. I shall conclude the talk by presenting some preliminary results from the algorithm and a comparison of performance with other approaches.

   

20/10/2008
16h
Hiroshi Ishikawa
Nagoya, Japan
seminaire Projet ARIANA
What is a pattern?---A theory of grounded computation
Résumé    [ URL ]
INRIA - bât. Galois - Salle Coriolis

Hiroshi Ishikawa:
  Department of Information and Biological Sciences, Nagoya City University
  Nagoya, Japan

Résumé :

   Computer Science traditionally has dealt only with bits and other symbolic entities. Theories are content with the notion that any other information can be encoded into bits; and in practice such data are indeed converted into bit-streams in an ad hoc way. However, the arbitrariness of encoding makes it unclear what such concepts as information and complexity mean in the case of non-symbolic information, because sometimes the information can be hidden in the encoding itself. In this talk, we describe a uniform representation of general objects (represented a priori as subsets of a space) that captures their regularities with respect to the structure of the space, which is characterized by a set of maps. It also can represent any computation; giving a notion of computation directly in terms of objects in general spaces, without encoding them into bits first. Most importantly, everything represented is grounded, i.e., how the representation relates to the raw data is encoded as a part of the representation. Thus it does not hide any external structure-by-structure information, other than the maps explicitly given. Using the representation, we can also define a measure of information so that the smaller the possible representation of the data is, the less information it contains. We can think of pattern discovery as a search for ever smaller representation of given raw data. Finally, the measure turns out to be equivalent to Kolmogorov Complexity, when defined relative to the structure of natural numbers.

   

06/10/2008
14h30
G. Borgefors
Uppsala, Sweden
seminaire Projet ARIANA
Discrete distance-based skeletons for digital shapes in 2D and 3D
Résumé    [ URL ]
INRIA - bât. Galois - Salle Coriolis

G. Borgefors:
  Swedish University of Agricultural Sciences
  Uppsala, Sweden

Résumé :

   The skeleton of a digital object is a (reversible) representation of the object of lower dimension. A 2D shape is represented by curves, while a 3D object is represented by areas and curves, or just curves. This simplified representation can be useful for many image analysis applications. There are literary hundreds of skeletonization algorithms to be found in the literature, with different properties. Some make strong assumptions on the properties of the objects: they must be "nice" according to some openly or tacitly assumed rules. Some demand that the digital object in the image is first converted to an object in continuous space, described by some continuous equations. Some are simple but slow, some are complex and fast. Or slow. I will present a general skeletonization scheme that makes no demands on the object shape and never leaves digital space. It is based on the key concepts "distance transforms", "centres of maximal discs" and "simple points". As long as you have a suitable distance transform, a way to detect its maximal discs and can identify simple points, the methods can be used in any dimension and in any grid. The general method is simple but needs a number of iterations depending on the thickness of the object. Of course there are complications, at least in higher dimensions, but these can be overcome in various ways. I will also talk about some ways to simplify the skeletons.

   

03/10/2008
14h
R. Mahony
Australie
seminaire SIS
Vision based control of aerial robots
Résumé    [ Annexes ]      [ URL ]
salle de conference

R. Mahony:
  ANU
  Australie

Résumé :

   This talk provides an overview of my contributions to the field of image based visual servo (IBVS) control of aerial robotic vehicles over the last 10 years. The talk recaps the early work done to extend classical visual servo techniques to aerial vehicle dynamics, covers the case where optic flow is used as a velocity measure in dynamic IBVS and some of the practical issues encountered, and and ends by describing some recent work on vision based teleoperation of aerial vehicle.

   Biography: Robert Mahony is currently a reader in the Department of Engineering at the Australian National University. He received a PhD in 1995 (systems engineering) and a BSc in 1989 (applied mathematics and geology) both from the Australian National University. He worked as a marine seismic geophysicist and an industrial research scientist before completing a postdoctoral fellowship in France and a Logan Fellowship at Monash University in Australia. He has held his post at ANU since 2001. His research interests are in non-linear control theory with applications in robotics, geometric optimisation techniques and systems theory.

02/10/2008
11h
François Bourdoncle
Exalead
seminaire Colloquium Morgenstern
Moteurs de recherche: technologies & enjeux
Résumé    [ URL ]
INRIA - bât. Kahn - Amphi. Morgenstern

François Bourdoncle:
  Exalead
  

Résumé :

   L'exposé propose une introduction aux grands principe de fonctionnement de moteurs de recherche et passe en revue quelques enjeux technologiques, industriels et commerciaux liés à leur développement et à leur exploitation

   

22/09/2008
14h30
J. A. Benediktsson
Iceland
seminaire Projet ARIANA
Fusion of multiple classifiers for remote sensing data
Résumé    [ URL ]
INRIA - bât. Galois - Salle Coriolis

J. A. Benediktsson:
  University of Iceland
  Iceland

Résumé :

   In this talk the use of an ensemble of classifiers or multiple classifiers for classification of remote sensing data will be explored. Furthermore, a strategy for classifying multisensor imagery and hyperspectral imagery will be presented. In this strategy each image “source” is individually classified by a support vector machine (SVM). In decision fusion the outputs of the pre-classification are combined to derive the final class memberships. This fusion is performed by another SVM. The results are compared with well-known parametric and nonparametric classifier methods. The proposed SVM-based fusion approach outperforms all other methods and improves the results of a single SVM that is trained on the whole multisensory/hyperspectral data set. Moreover the results clearly show that the individual image sources provide different information and a multiclassifier approach generally outperforms single-source classifications.

   

17/09/2008
14h30
Farzad Kamalabadi
USA
seminaire Projet ARIANA
A Monte-Carlo Approach to Dynamic Image Reconstruction
Résumé    [ URL ]
INRIA - bât. Galois - Salle Coriolis

Farzad Kamalabadi:
  University of Illinois at Urbana-Champaign
  USA

Résumé :

   The problem of estimating the parameters that describe a complex dynamic system from a collection of indirect, often incomplete, and imprecise measurements arises, for example, in atmospheric and space remote sensing, biomedical imaging, and economic forecasting. When the problem is formulated with a state-space model, state estimation methods may be used to systematically infer the system parameters from the data. The Kalman filter applies when the state-space model is linear and the prior information Gaussian while the particle filter may be used in more complicated nonlinear and non-Gaussian scenarios. However, these standard statistical signal processing methods quickly become computationally prohibitive when the number of parameters and the data volume increase, and are thus inapplicable to large-scale computational imaging applications. This talk focuses on our sequential Monte-Carlo methods for large-scale state estimation and their application to dynamic image reconstruction of time-varying scenes. We derive the convergence properties of our statistical approach and demonstrate the effectiveness of our methods in a numerical experiment where biased but near-optimal estimates are obtained using only a fraction of the computational effort of standard methods. In addition, we illustrate the use of independent component analysis and manifold learning, techniques used in computer vision and machine learning, for optimally inferring the parameters of the dynamic system in addition to incomplete or unknown parameters of the state-space model.

   

11/07/2008
10h
Giulio Iannello
Rome (Italie)
seminaire SIS
Facing Polychotomies Through Classification by Decomposition
Résumé    [ URL ]
salle de conference

Giulio Iannello:
  Facolta' di Ingegneria, Universita' Campus Bio-Medico di Roma.
  Rome (Italie)

Résumé :

   Polychotomies are recognition tasks with a number of categories greater than two, consisting in assigning patterns to a finite set of classes. Although many of the learning algorithms developed so far are capable of handling polychotomies, most of them were designed by nature for dichotomies, that is, for binary learning. Therefore, various methods that decompose the multiclass recognition task in a set of binary learning problems have been proposed in the literature. After addressing the different dichotomies, the final decision is reconstructed according to a given criterion. Among the decomposition approaches, one of them is based on a pool of binary modules, where each one distinguishes the elements of one class from those of the others. For this reason, it is also known as one-per-class method. Under this decomposition scheme, we discuss a reconstruction criterion to set the final decision on the basis of the single binary classifications. It looks at the quality of the current input and, more specifically, it is a function of the reliability of each classification act provided by the binary modules. The approach has been tested on several public datasets confirming that the method improves the accuracies achieved so far. In the second part of the seminar, the approach is further extended to deal with the performance needs of real applications. In this respect, the measure of classification reliability of final output is useful to take into account the many issues influencing the achievement of satisfactory results. We therefore discuss and compares three different reliability estimators for classification systems belonging to the one-per-class framework. They are based on the reliabilities provided by each dichotomizer and are independent of the binary module design. Again their performance is assessed and ranked on public datasets, showing that one of the estimators outperforms the others.

   

10/07/2008
8h45-17h
G.Bernot et O.Meste
Sophia-Antipolis ( France )
seminaire I3S
journée bioSTIC de l'I3S
Résumé    [ URL ]
salle de conference

G.Bernot et O.Meste :
  Laboratoire I3S
  Sophia-Antipolis ( France )

Résumé :

   L'objectif de cette journée est double :

1. initier des rencontres entre les biologistes (en un sens très large) de Nice - Sophia Antipolis et sa région et les informaticiens (en un sens non moins large) de l'I3S en vue de collaborations nouvelles,
2. permettre aux chercheurs de l'I3S de partager leurs travaux et leurs expériences de collaborations pluridisciplinaires dans des domaines allant des génomes à l'environnement en passant par l'organisme et les applications médicales.

   

04/07/2008
14h-17h30
Luc Pronzato / Olivier Lecarme
Sophia Antipolis ( France )
seminaire I3S / Jérôme Galtier
journée thématique : Optimisation Combinatoire et Continue
Résumé    [ URL ]
amphithéatre Morgenstein à l'INRIA

Luc Pronzato / Olivier Lecarme:
  laboratoire I3S
  Sophia Antipolis ( France )

Résumé :

   Le programme est le suivant:

14h00-14h45
Pierre Comon
Problèmes de décomposition de tenseurs
14h50-15h35
Jérôme Galtier
Programmation vectorielle
15h35-15h50
Pause café
15h50-16h35
Michel Rueher
Capabilities of Constraint Programming in Rigorous Global Optimization
16h40-17h25
Sébastien Verel
Quelques questions en optimisation stochatique

   

01/07/2008
9h45
Eric Madelaine
Sophia Antipolis ( France )
seminaire COMRED / SAFA group
Journée SAFA ( Sophia-Antipolis Formal Analysis Group )
Résumé    [ Annexes ]      [ URL ]
INRIA Sophia

Eric Madelaine:
  INRIA
  Sophia Antipolis ( France )

Résumé :

    Agenda:
9h45: welcome and coffee
10h00: Mireille Blay-Fornarino (Rainbow, I3S): Evaluation based composition of activity model
10h40: Marcela Rivera (Oasis, INRIA) : Stopping Safely Hierarchical Distributed Components: Application to GCM
11h20: Sophie Coudert (Labsoc, Telecom-ParisTech) : Prouver en B une propriété de sécurité d'un système basé sur un micronoyau

* Marcela Rivera (Oasis, INRIA) : Stopping Safely Hierarchical Distributed Components: Application to GCM We propose an algorithm for safely stopping a subsystem of a component assembly. More precisely, it safely stops a component and all its subcomponents in a distributed and hierarchical component model. Our components are distributed, autonomous, and communicate asynchronously. Thus, one of the great challenges addressed by this paper is to synchronise those components during a process which involves their deactivation. This algorithm has been prototyped and evaluated experimentally in a distributed component example. We also describe the main properties of our algorithm (both correctness and termination) and its requirements on the component system to be stopped.

* Mireille Blay-Fornarino (Rainbow, I3S): Evaluation based composition of activity model Separation of concerns, step-wise development and application adaptations require development and execution tools to support application composition. Depending on the domain, the composition mechanisms are different as well as the "expected properties" such as composition associativity, conflict detection, idempotence... We propose to consider composition of activities in a general way but adaptable to different technological domains. We model each application as a graph of activities and we are interested in the composition of these graphs by means of "merging" functions which are defined and evaluated differently according to the targeted domains. To illustrate this approach we take examples from two domains : service orchestration composition and composition of interactions between heterogeneous components. But other domains have been studied and they conform to this approach of activity composition. First, we point out through examples the requirements for implementing composition independently from domain specificities. Then we define a metamodel to design the activity flow as a graph. This metamodel has to be refined according to the targeted domain. This structure is the base for our composition algorithm which is defined in a general way by means of dependent domain functions. Finally some properties expected from activity compositions are characterized and we identify the properties that must be checked at domain level. This work comes from our experience and studies on composition of software applications. The metamodelisation and semi-formal approach allow us to have a new point of view on technological issues independently of targeted platforms. Comparisons, property verification and even developments are then easier.

* Sophie Coudert (Labsoc, Telecom-ParisTech) : Prouver en B une propriété de sécurité d'un systàme basé sur un micronoyau. Cet exposé est un compte rendu d'expérience à l'issue d'un projet au cours duquel on a expérimenté la méthode B et son outillage avec pour objectif de garantir une propriété de sécurité à propos d'un système basé sur un micronoyau. Ce cas d'application et son contexte (OS et implémentation pré-existant du micronoyau) étaient nouveaux pour B. Le principal résultat est la méthodologie de preuve finalement mise en oeuvre qui fait intervenir divers aspects de B. Ce travail a également permis de mettre en évidence d'autres exploitations possibles d'une modélisation B qui seront rapidement présentées, ainsi que quelques considérations annexes quant à l'approche micronoyau.

   The Sophia-Antipolis Formal Analysis group has been created in 2007. Its purpose is to gather researchers and engineers involved in the use or definition of formal techniques in Sophia-Antipolis (France) and its region. Both public and private institutions are welcome in the group. The group works shall operate on half-day presentations and discussions on a 3-month basis. A full-day annual workshop is also scheduled. Presentations are selected by founding teams (listed below).

The first aim of this group is for attendees to exchange valuable information on formal description techniques in domains such as electrical and software engineering. Another goal is to root synergies between local academic and private researchers, first in order to increase the visibility of Sophia-Antipolis in formal methods, and second to settle new local, national or international research projects.
Keywords:
Formal methods, formel specification, formal models, verification, analysis, real-time and embedded systems, distributed components, grids, UML, ...

The SAFA workshop series were initiated by the following research teams:
* LabSoc - Telecom-ParisTech in Sophia-Antipolis * Aoste - INRIA Méditerannée * Oasis - INRIA Méditerannée

26/06/2008
10h30
Katsunobu IMAI
Hiroshima, Japon
seminaire MDSC / équipe MC3
On the influence of symmetries to two-dimensional number-conserving cellular automata rules
Résumé    [ URL ]
salle de reunion

Katsunobu IMAI :
  Univ. d'Hiroshima
  Hiroshima, Japon

Résumé :

   Abstract :
A number-conserving cellular automaton (NCCA) is a cellular automaton such that all states of cells are represented by integers and the total number of the state of each cell of its configuration is conserved throughout its computing process. It can be thought as a kind of modelization of the physical conservation law of mass or energy. In this talk, we show the influence of symmetric conditions in the case of von Neumann neighborhood NCCA and show a design method of NCCA rules employing our result. We also discuss about the case of Moore neighborhood NCCAs.

   

05/06/2008
16h
L. Pronzato
Sophia-Antipolis ( France )
seminaire SIS
Plans d'expériences et codes numériques : quelques problèmes en adaptatif
Résumé    [ URL ]
salle de conference

L. Pronzato:
  Laboratoire I3S
  Sophia-Antipolis ( France )

Résumé :

    Les problèmes posés par la construction séquentielle d'un plan d'expériences pour un modèle paramétrique sont bien connus : la perte d'indépendance induit des difficultés pour obtenir la convergence de l'estimateur des paramètres. Des difficultés d'une autre nature apparaissent quand le modèle est du type "approximateur universel" et est utilisé pour décrire le comportement d'un système déterministe : un plan d'expériences optimal conduit à répéter des observations aux mêmes sites, ce qui n'apporte pas d'information supplémentaire, alors qu'il faudrait explorer tout le domaine expérimental. L'utilisation d'une approche de type krigeage permet d'éviter ces répétitions d'observations en un même site, mais si les paramètres de la fonction de covariance définissant le noyau utilisé sont estimés, le plan expérimental affecte la précision de cette estimation. La répercution de cette précision sur la qualité de la prédiction devrait alors être prise en compte lors de la construction du plan. L'exposé donnera un aperçu de ces différents problèmes.

   

22/05/2008
11h
V. Zarzoso
Sophia-Antipolis ( France )
seminaire SIS
Égalisation robuste du canal de communication numérique
Résumé    [ URL ]
salle de conference

V. Zarzoso:
  Laboratoire I3S
  Sophia-Antipolis ( France )

Résumé :

   L'égalisation du canal de communication numérique a pour objectif de récupérer les données distordues par le milieu de transmission. N'ayant pas besoin de séquences pilote, les techniques aveugles améliorent l'utilisation de la largeur de bande disponible par rapport aux techniques supervisées, mais présentent une convergence lente, souvent piégée par des minima locaux et très dépendante de la valeur initiale de l'égaliseur. Cet exposé porte sur deux stratégies visant à pallier les inconvénients des techniques aveugles et supervisées tout en gardant leurs atouts respectifs : les critères semi-aveugles et l'optimisation à pas optimal. Après les avoir présentées brièvement, leurs performances seront illustrées par quelques exemples de simulation.

   

15/05/2008
16h30
Alwin Stegeman
Groningen - The Netherlands
seminaire SIS
The Candecomp/Parafac decomposition - how to avoid diverging components.
Résumé    [ URL ]
salle de conference

Alwin Stegeman:
  Heymans Institute of Psychological Research, Psychometrics and Statistics Group University of Groningen
  Groningen - The Netherlands

Résumé :

    Candecomp/Parafac (CP) is the most well-known decomposition of multi-way arrays or tensors. For a given array, CP yields a best rank-R approximation in terms of R rank-1 components, where the number of components R is prespecified. As such, CP can be seen as a multi-way generalization of Principal Component Analysis (PCA) or the (truncated) Singular Value Decomposition (SVD) for matrices. An attractive feature of CP is that it yields rotationally unique components under mild conditions. This is not the case for PCA. Another difference is that an iterative algorithm is needed to compute a CP solution. A disadvantage of CP is that the CP solution may not exist. That is, unlike a matrix, a multi-way array may not have a best rank-R approximation. If this is the case, then a CP algorithm will terminate with diverging components. In this talk, the mathematical background of diverging CP components will be discussed. Also, for 3-way arrays with two slices, i.e. pxqx2 arrays, a method will be presented that avoids the problems of diverging CP components and yields a possibly interpretable solution.

   

06/05/2008
14h
A. Wohrer
Sophia-Antipolis ( France )
seminaire SIS
Modèle et simulateur à grande échelle d'une rétine biologique, avec contrôle de gain. / Model and large-scale simulator of a biological retina, with contrast gain control.
Résumé    [ Annexes ]      [ URL ]
salle de conference

A. Wohrer:
  Projet Odyssée - INRIA I3S
  Sophia-Antipolis ( France )

Résumé :

    La rétine est une structure neuronale complexe, qui non seulement capte la lumière incidente au fond de l'oeil, mais procède également à des transformations importantes du signal lumineux. Dans une première partie, je résumerai les caractéristiques fonctionnelles de la rétine des vertébrés: Il s'agit d'une structure très ordonnée, qui réalise un filtrage passe-bande du stimulus visuel, selon différents canaux parallèles d'information aux propriétés spatio-temporelles distinctes. Les trains de potentiels d'action émis par la rétine ont également une structure statistique complexe, susceptible de véhiculer une information importante. De nombreux mécanismes de contrôle de gain permettent une adaptation constante à la luminosité et au contraste. Dans une seconde partie, je présenterai le modèle de rétine défini et implémenté lors de ma thèse. Il reproduit le comportement passe-bande, à l'aide de filtres linéaires spatio-temporels appropriés. Des mécanismes non-linéaires d'adaptation au contraste et de génération de potentiels d'action sont également inclus. Le mécanisme de contrôle du gain au contraste proposé permet une bonne reproduction des données expérimentales, et peut également véhiculer d'importants effets d'égalisation spatiale des contrastes en sortie de rétine. De plus, une analyse mathématique confirme que notre mécanisme a le comportement escompté en réponse à une stimulation sinusoïdale. Enfin, le simulateur /Virtual Retina/ implémente le modèle à grande échelle, permettant la simulation d'environ 100 000 cellules en un temps raisonnable (100 fois le temps réel). Je conclurai par des résultats préliminaires sur les liens possibles entre le codage rétinien et les thématiques de reconstruction et de compression en vision par ordinateur.

Abstract :

The retina is a complex neural structure. I will first review the characteristics of retinal processing: It is a very ordered structure, which proceeds to band-pass spatio-temporal enhancements of the incoming light, along different parallel output pathways with distinct spatio-temporal properties. The spike trains emitted by the retina have a complex statistical structure, such that precise spike timings may play a role in the code conveyed by the retina. Several mechanisms of gain control provide a constant adaptation of the retina to luminosity and contrast. I will then present the retina model implemented during my PhD. It can model spatio-temporal band-pass behavior with adjustable filtering scales, with the inclusion of plausible mechanisms of contrast gain control and spike generation. The gain control mechanism proposed in the model provides a good fit to experimental data, and it can induce interesting effects of local renormalization in the output retinal image. Furthermore, a mathematical analysis confirms that the gain control behaves well under simple sinusoidal stimulation. Finally, the simulator /Virtual Retina/ implements the model on a large-scale, so that it can emulate up to around 100,000 cells with a processing speed of about 1/100 real time. It is ready for use in various applications, while including a number of advanced retinal functionalities which are too often overlooked. I will conclude with preliminary insights on how retinal coding could be linked to issues of reconstruction and compression in computer vison.

   autre lien: http://www.i3s.unice.fr/~anthoine/seminairePoleSIS/wohrer_060508/wohrer_060508.ppt

24/04/2008
17h
A. Zhigljavsky
Cardiff, UK
seminaire SIS
Total least squares and related techniques in multivariate statistics, time series analysis and signal processing
Résumé    [ URL ]
salle de conference

A. Zhigljavsky :
  School of Mathematics Cardiff University
  Cardiff, UK

Résumé :

    In statistics, total least squares is often considered as an alternative to the standard least squares for the errors-in-variables model. The main idea behind the total least squares is approximation of the data from a high-dimensional space by a low-dimensional subspace. Unsurprisingly, singular value decomposition is the main techniques in the total least squares. In this talk, I will describe the main ideas of the total least squares and structural total least squares; then relate these to the singular-spectrum analysis (SSA), the technique of time series analysis I have been involved with for many years. During the talk I will analyse some real data and will try to answer the question whether the world will end in December 2012.

   

16/04/2008
11h
L. Wendling
Vandoeuvre-les-Nancy, France
seminaire SIS
De la localisation spatiale à la reconnaissance de symboles graphiques.
Résumé   
salle de conference

L. Wendling :
  LORIA
  Vandoeuvre-les-Nancy, France

Résumé :

   Dans un premier temps, nous donnerons rapidement un aperçu de méthodes que nous avons développées pour la segmentation de documents techniques (binarisation multi-échelles, approximation polygonale avec analyse multi-ordres et extraction de primitives arc et segment à partir de l’analyse d’un profil de courbures). Puis nous présenterons un travail conséquent sur le calcul des relations spatiales directionnelles à partir de la notion d’histogrammes de forces. Ce dernier permet d’évaluer l’attraction d’un objet par rapport à un autre suivant un ensemble de directions. Son interprétation permet une description robuste, rapide et précise de la localisation spatiale d’un argument par rapport à un référent. Nous montrerons aussi comment cette notion peut être étendue pour définir des descripteurs de formes. Enfin nous nous intéresserons à la combinaison (et la sélection) de descripteurs par le biais de l’intégrale de Choquet et à son application à différents problèmes de reconnaissance des formes.

   

10/04/2008
16h
M. Mboup
Paris ( France )
seminaire SIS
Translation en échelle pour les signaux et systèmes à temps discret
Résumé    [ URL ]
salle de conference

M. Mboup:
  UFR Math-Info Univ. Rene Descartes - Paris V
  Paris ( France )

Résumé :

   Pour un signal à temps discret, on définit la translation en échelle via l'action du groupe des automorphismes du disque. La stationnarité en échelle pour un signal discret et l'invariance en échelle pour un système linéaire, discret, à temps-invariant sont introduites de façon naturelle. Enfin, nous abordons la propriété d'auto-similarité dans le cadre discret. Notre démarche repose sur la théorie des fonctions automorphes.

   

03/04/2008
16h
G. Cirrincione
Amiens ( France )
seminaire SIS
Régression orthogonale par les réseaux de neurones.
Résumé   
salle de conference

G. Cirrincione:
  Université de Picardie Jules Verne
  Amiens ( France )

Résumé :

    On présente les problèmes de régression linéaire dont la solution est donnée par la méthode de Moindres Carrés Totaux (TLS=Total Least Squares). Cette méthode, connue aussi dans la littérature sous le nom de régression orthogonale, donne le seul estimateur non biaisé des paramètres du problème de régression quand toutes les variables sont entachées de bruit. On montre une interprétation théorique globale de tous les algorithmes TLS qui explique leurs caractéristiques en utilisant de nouvelles techniques d’analyse, surtout sur la convergence et la stabilité. En particulier on décrira un phénomène particulier : la divergence soudaine (presque toutes les lois d'apprentissage actuelles divergent en un temps fini et ne permettent donc pas le choix d'un critère d'arrêt fiable). On introduit les algorithmes MCA EXIN, NMCA EXIN (version robuste de MCA EXIN) et surtout TLS EXIN, qui dérive de MCA EXIN. En particulier, on en donnera une théorie géométrique et matricielle et une analyse complète de la stabilité et du domaine de convergence, où on est mis en évidence l'existence de conditions initiales universelles, c'est à dire des conditions initiales qui garantissent toujours la convergence indépendamment du problème en question. Une importante variante de TLS EXIN s’appelle CTLS EXIN. Elle a une fonction à minimiser qui tient en compte de la particulière structure des données dans l’estimation en vision par ordinateur des matrices essentielles et fondamentales pour le problème « structure from motion ». Cependant, la partie plus intéressante de la théorie est sa généralisation (GeTLS) à tous les cas possibles de régression qui font différentes hypothèses sur la présence du bruit dans les données (OLS, DLS). GeTLS généralise TLS, en utilisant dans la fonction de coût un seul paramètre, qui est fini dans tous les cas possibles de régression (contrairement à autres techniques existantes). A partir de GeTLS on a crée l’algorithme GeTLS EXIN qui a une forte base théorique et MCA EXIN+ avec les meilleures performances de stabilité et vitesse pour TLS. On terminera avec une nouvelle théorie (GeMCA) qui étudie en profondeur le problème GeTLS (en le transformant dans un problème de valeurs propres généralisées) et le généralise à MCA (GeMCA EXIN).

   

06/03/2008
16h
P. Bernhard
Sophia-Antipolis ( France )
seminaire SIS
Populations, ESS et dynamique de l'évolution.
Résumé    [ URL ]
salle de conference

P. Bernhard:
  Laboratoire I3S
  Sophia-Antipolis ( France )

Résumé :

   Le concept d'ESS (Evolutionarily Stable Strategy) a été inventé par John Maynard-Smith and G.R. Price (1973) en biologie théorique pour étudier l'équilibre de populations d'agents égoïstes, et, si le gène est bien égoïste, la théorie de l'évolution. Mais au passage, ils ont re-découvert un concept né en théorie du routage, et remis au gout du jour par les réseaux de communication : l'équilibre de Wardrop (1952). On espère avoir le temps de présenter le concept d'ESS, sa relation avec la théorie des jeux (le livre de Maynard-Smith, 1982, s'intitule "Evolution and the theory of games"), l'aspect évolution dynamique vers l'ESS (la dynamique de réplication) et une application en écologie du comportement. Si le temps le permet, on finira par une application de routage dans un réseau de télécommunication dense. (Travail en cours avec Eitan Altman et Alonso Silva.)

   

14/02/2008
16h
R. Gribonval
Rennes ( France )
seminaire SIS
Représentations parcimonieuses : de la séparation de sources au Compressed Sensing.
Résumé    [ URL ]
salle de conference

R. Gribonval:
  Projet METISS IRISA, INRIA
  Rennes ( France )

Résumé :

   Cet exposé dressera un panorama des principales avancées théoriques, algorithmiques et applicatives récentes en modélisation parcimonieuse de signaux. L'exemple de la séparation aveugle de N sources à partir de M < N capteurs illustrera dans un premier temps l'apport des modèles parcimonieux pour la résolution de problèmes inverses. Je brosserai ensuite un tableau des avancées mathématiques qui ont progressivement démontré l'identifiabilité de ces modèles et expliqué les performances des algorithmes utilisés, au départ heuristiques. Pour conclure, je décrirai les promesses et les défis portés par l'échantillonnage compressé, cette application émergente des modèles parcimonieux qui vise à remplacer l'échantillonnage classique de Shannon.

   

24/01/2008
15h30
G.Poggi
Naples, Italie
seminaire SIS
Use of the self-organizing maps for index assignment in vector quantization: application to multiple description coding.
Résumé    [ URL ]
salle de conference

G.Poggi:
  DIET (département d'ingénieurie électronique et télécommunications) Université Federico II de Naples
   Naples, Italie

Résumé :

    The design of Vector Quantization codebooks is a well-understood problem, and several algorithms are available for this task. For most algorithms, the result is an unordered set of code-vectors, and their indexes have no special significance. However, there are several applications of VQ in which a suitable codeword indexing can be helpful, such as the compression of VQ indexes, zero-redundancy error protection, and multiple description coding. In all these cases, a suitably ordered VQ codebook can be designed easily by using the Self-organizing Maps algorithm with an appropriate measure of distance between indexes, thus avoiding complex (and typically sub-optimal) index reordering procedures.

   

10/01/2008
16h
A.Richard
Sophia-Antipolis (France)
seminaire MDSC / équipe BioInfo
Réseaux de régulation de René Thomas : applications de méthodes formelles.
Résumé    [ URL ]
salle de conference I3S

A.Richard:
  laboratoire I3S,pôle MDSC
  Sophia-Antipolis (France)

Résumé :

   Dans cet exposé, on donne une définition formelle des réseaux de régulation biologique de René Thomas (au sens des méthodes formelles en informatique) et on l'exploite avec logique temporelle et model checking pour proposer une démarche méthodologique de modélisation avec « retour paillasse ».

   



les soutenances
DateOrateurTitreLieu
28/06/2013
10h30
Christian Brel
Sophia Antipolis / France
Composition d'applications multi-modèles dirigée par la composition des interfaces graphiques
Résumé   
salle de conference I3S

Christian Brel:
  Laboratoire I3S
  Sophia Antipolis / France

Résumé :

   Force est de constater que composer des applications existantes afin d’en réutiliser tout ou une partie est une tâche complexe. Pourtant avec l’apparition quotidienne d’applications, les éditeurs d’applications ont de plus en plus besoin d’effectuer de telles compositions pour répondre à la demande croissante des utilisateurs. Les travaux existants ne traitent généralement que d’un seul point de vue : celui du "Noyau Fonctionnel" dans le domaine du Génie Logiciel, celui des "Tâches" ou celui de l’"Interface Graphique" dans le domaine des Interactions Homme-Machine (IHM). Cette thèse propose une nouvelle approche basée sur un modèle d’application complet (fonctionnel, tâche et interface graphique). Elle permet à un utilisateur de naviguer entre ces différents modèles pour sélectionner des ensembles cohérents pouvant être composer par substitution. Une implémentation de cette approche a permis d’effectuer des tests utilisateurs confortant les bienfaits d’une modélisation complète. Mots clefs : composition d’applications, modèle complet, interface graphique, tâches, composants logiciels, ontologies

   

15/03/2013
14h
Gaignard Alban
Sophia Antipolis (France)
"Partage et production de connaissances distribuées dans des plateformes scientifiques collaboratives
Résumé    [ Annexes ]     
salle de conference I3S

Gaignard Alban:
  laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   Cette thèse s'intéresse à la production et au partage cohérent de connaissances distribuées dans le domaine des sciences de la vie. Malgré l'augmentation constante des capacités de stockage et de calcul des infrastructures informatiques, les approches centralisées pour la gestion de grandes masses de données scientifiques multi-sources deviennent inadaptées pour plusieurs raisons: (i) elles ne garantissent pas l'autonomie des fournisseurs de données qui doivent conserver un certain contrôle sur les données hébergées pour des raisons éthiques et/ou juridiques, (ii) elles ne permettent pas d'envisager le passage à l'échelle des plateformes en sciences computationnelles qui sont la source de productions massives de données scientifiques.

Nous nous intéressons, dans le contexte des plateformes collaboratives en sciences de la vie NeuroLOG et VIP, d'une part, aux problématiques de distribution et d'hétérogénéité sous-jacentes au partage de ressources, potentiellement sensibles ; et d'autre part, à la production automatique de connaissances au cours de l'usage de ces plateformes, afin de faciliter l'exploitation de la masse de données produites. Nous nous appuyons sur une approche ontologique pour la modélisation des connaissances et proposons à partir des technologies du web sémantique (i) d'étendre ces plateformes avec des stratégies efficaces, statiques et dynamiques, d'interrogations sémantiques fédérées et (ii) d'étendre leur environnent de traitement de données pour automatiser l'annotation sémantique des résultats d'expérience ``in silico'', à partir de la capture d'informations de provenance à l'exécution et de règles d'inférence spécifiques au domaine.

Les résultats de cette thèse, évalués sur l'infrastructure distribuée et contrôlée Grid'5000, apportent des éléments de réponse à trois enjeux majeurs des plateformes collaboratives en sciences computationnelles : (i) un modèle de collaborations sécurisées et une stratégie de contrôle d'accès distribué pour permettre la mise en place d'études multi-centriques dans un environnement compétitif, (ii) des résumés sémantiques d'expérience qui font sens pour l'utilisateur pour faciliter la navigation dans la masse de données produites lors de campagnes expérimentales, et (iii) des stratégies efficaces d'interrogation et de raisonnement fédérés, via les standards du Web Sémantique, pour partager les connaissances capitalisées dans ces plateformes et les ouvrir potentiellement sur le Web de données.

Mots-clés : Flots de services et de données scientifiques, Services web sémantiques, Provenance, Web de données, Web sémantique, Fédération de bases de connaissances, Intégration de données distribuées, e-Sciences, e-Santé.


Abstract :
This thesis addresses the issues of coherent distributed knowledge production and sharing in the Life-science area. In spite of the continuously increasing computing and storage capabilities of computing infrastructures, the management of massive scientific data through centralized approaches became inappropriate, for several reasons: (i) they do not guarantee the autonomy property of data providers, constrained, for either ethical or legal concerns, to keep the control over the data they host, (ii) they do not scale and adapt to the massive scientific data produced through e-Science platforms.

In the context of the NeuroLOG and VIP Life-science collaborative platforms, we address on one hand, distribution and heterogeneity issues underlying, possibly sensitive, resource sharing ; and on the other hand, automated knowledge production through the usage of these e-Science platforms, to ease the exploitation of the massively produced scientific data. We rely on an ontological approach for knowledge modeling and propose, based on Semantic Web technologies, to (i) extend these platforms with efficient, static and dynamic, transparent federated semantic querying strategies, and (ii) to extend their data processing environment, from both provenance information captured at run-time and domain-specific inference rules, to automate the semantic annotation of ``in silico'' experiment results.

The results of this thesis have been evaluated on the Grid'5000 distributed and controlled infrastructure. They contribute to addressing three of the main challenging issues faced in the area of computational science platforms through (i) a model for secured collaborations and a distributed access control strategy allowing for the setup of multi-centric studies while still considering competitive activities, (ii) semantic experiment summaries, meaningful from the end-user perspective, aimed at easing the navigation into massive scientific data resulting from large-scale experimental campaigns, and (iii) efficient distributed querying and reasoning strategies, relying on Semantic Web standards, aimed at sharing capitalized knowledge and providing connectivity towards the Web of Linked Data.

Keywords: Scientific workflows, Semantic web services, Provenance, Semantic web, Web of Linked Data, Federated knowledge bases, Distributed data integration, e-Science, e-Health.

   Jury :
Andrea Tettamanzi, Professeur, Université Nice Sophia Antipolis (Président du jury)
Oscar Corcho, Associate Professor, Universidad Politécnica de Madrid (Rapporteur)
Ollivier Haemmerlé, Professeur, Université Toulouse le Mirail (Rapporteur)
Olivier Corby, CR INRIA, Laboratoire I3S (Examinateur)
Bernard Gibaud, CR INSERM, Laboratoire LTSI (Examinateur)
Catherine Faron Zucker, Maître de Conférence, Université Nice Sophia Antipolis (Invitée)
Johan Montagnat, DR CNRS, Laboratoire I3S (Directeur de thèse)

01/03/2013
10h
Icart Sylvie
Sophia Antipolis (France)
Soutenance HDR - Matrices polynomiales et égalisation de canal
Résumé    [ Annexes ]     
salle de conference I3S

Icart Sylvie:
  laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   En télécommunications, l'égalisation aveugle de canal est le problème consistant à retrouver à partir des seules observations, les signaux qui ont été émis en amont d'un canal de transmission. Le canal est supposé linéaire, invariant dans le temps et à réponse impulsionnelle finie. La matrice de transfert qui relie les transformées en z des observations et des sources est alors une matrice polynomiale. Le spectre des observations est également un matrice polynomiale, mais comportant des puissances positives et négatives de z: il s'agit alors d'une matrice polynomiale de Laurent.
Nos travaux portent sur les propriétés de ces matrices ainsi que sur leurs factorisations. Les résultats classiques -tels que décompositions en valeurs propres-vecteurs propres, décomposition en valeurs singulières, décomposition QR- ne s'étendent pas simplement aux matrices polynomiales car l'ensemble considéré n'est pas un espace vectoriel mais un module. Certaines propriétés des matrices polynomiales nous permettront de construire des égaliseurs.

   Le Jury :
- Vladimir KUCERA, professeur à l'Académie des Sciences de Prague, rapporteur
- Eric MOREAU, professeur à l'Institut des Sciences de l'Ingénieur Toulon-Var, rapporteur
- Martine OLIVI, chargée de recherche à INRIA Sophia Antipolis Méditerranée, rapporteur
- Pierre COMON, directeur de recherche, GIPSA-Lab Grenoble, examinateur
- Jean-François LAFAY, professeur à l'Ecole Centrale de Nantes, examinateur

07/12/2012
14h30
TOKO WOROU Mikaila
Sophia Antipolis (France)
Outils Algorithmiques pour la Détection des Communautés dans les Réseaux
Résumé    [ Annexes ]     
salle Euler violet , Inria Sophia Antipolis

TOKO WOROU Mikaila :
  Laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   L'aspect algorithmique de la détection des communautés dans les grands graphes est le sujet principal abordé dans ce mémoire. Cette problématique est appliquée dans le contexte d'un opérateur de télécommunications dont les graphes proviennent des échanges téléphoniques ou du réseau de télécommunication. Dans ce contexte, la détection des communautés permet la recommandation de contenu, l'analyse des données clients, le classement des recherches Web, la détection des spamming Web, les actions marketing et autres. Cette thèse s'articule autour de deux grandes parties.

Dans un premier temps, nous avons présenté le domaine de la détection des communautés. En effet cette problématique est étudiée sous des angles très variées par des communautés scientifiques différentes. Les principales méthodes et applications sont présentées dans cette première partie descriptive.

Dans un second temps, nous avons présenté notre contribution pour répondre à cette problématique.

Notre contribution se résume en deux principaux points.

Tout d'abord, nous avons présenté une nouvelle fonction de qualité, le facteur d'arbre, plus adaptée à la problématique de détection des communautés dans les réseaux sociaux. Ensuite, nous avons présenté un algorithme rapide et à performance garantie pour approximer le facteur d'arbre optimal et l'identification des communautés.
Ensuite, nous avons étudié la détection des communautés par l'optimisation de la modularité qui est la fonction de qualité la plus utilisée dans la littérature. Nous avons réécrit cette fonction, ce qui nous a permis d'avoir d'autres interprétations et de trouver des liens entre la modularité et d'autres fonctions de coupe du graphe. Enfin, nous avons proposé deux heuristiques pour approximer le problème d'optimisation de la modularité. Le premier est un algorithme basé sur l'analyse spectrale qui approxime la modularité en utilisant le vecteur de Fiedler de la matrice Laplacien du graphe.

Le second algorithme est une heuristique rapide basée sur la représentation de la modularité dans un espace métrique sous forme de forces s'inspirant de la physique. Cette représentation permet de définir un mécanisme d'interaction attraction/répulsion sur les sommets du graphe et d'obtenir des regroupements en communautés. Pour finir, nous construisons un outil de détection des communautés qui allie l'optimisation du facteur d'arbre et de la modularité.

Mots clés : graphes de terrain - algorithmes - réseaux sociaux - Modularité - facteur d'arbre - force du graphe - communautés - densité sous-graphe - analyse spectrale - Web.

Abstract

This thesis concerns the algorithmic aspects of the communities' detection in large graphs. The work can be used by a telecommunications operator whose graphs are associated to telephone calls and SMS or telecommunication networks. In this context, the detection of communities is used for the content recommendation, the analysis of customer data, the classification of Web pages, the detection of Web spamming, marketing activities and others. This thesis is organized around two major parts.

In the first part, we introduce the field of detection of communities. Indeed this problem has been studied with different points of view during the last years. The main methods and applications are presented in this descriptive part.

In the second part, we present our contribution to the problema. Our contribution consists of two main topics.

First, we introduce a new quality function, the fractional arboricity which is more adapted to the problem of detecting communities in social networks. Then, we present a fast and performance guaranteed algorithm to approximate the optimal fractional arboricity and identifies the communities in question.

Second, we study the detection of communities by optimizing the modularity, the most used quality function for communities' detection. We rewrite this function, and then, find new interpretations of the modularity and also links between the modularity and others cut functions. Finally, we propose two heuristics to approximate the optimization of the modularity. The first is an algorithm that approximates the modularity by using the Fiedler vector of the Laplacian matrix of the graph. The second algorithm is a fast heuristic based on the representation of physical interaction of nodes in a metric space. With this representation, we define an attraction/ repulsion mechanism between the vertices and then we obtain clusters in communities. Finally, we combine the optimization of the fractional arboricity and the optimization of the modularity into one communities' detection tool.

Keywords : large complex - networks - algorithms - social networks - scalability - fractional arboricity - graph strength - communities - densest subgraphs - spectral analysis - Web.

   Jury:
M. Jean-Claude BERMOND (Directeur de Recherche Émérite CNRS , Directeur)
M. Éric FLEURY (Professeur LIP ENS Lyon, Examinateur)
M. Jérôme GALTIER (Ingénieur/Chercheur Orange Labs , Co-Directeur)
M. Cyril GAVOILLE ( Professeur LABRI Université Bordeaux, Rapporteur)
M. Renaud LAMBIOTTE (Professeur Department of Mathematics/Naxys University of Namur, Examinateur)
M. Laurent VIENNOT (Directeur de Recherche INRIA LIAFA Paris , Rapporteur)

06/12/2012
14h
Provillard Julien
Sophia Antipolis (France)
Automate cellulaires non-uniformes
Résumé    [ Annexes ]     
salle de conference I3S

Provillard Julien:
  Laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   Les automates cellulaires (CA) sont des systèmes dynamiques discrets très utilisés dans des nombreux domaines scientifiques. Leurs principales caractéristiques sont d'agir de manière locale, synchrone et uniforme sur l'ensemble des cellules d'une grille régulière. Ces systèmes produisent une grande variété de dynamiques et ont été largement étudiés dans la littérature.

De nombreuses variantes ont été proposées. Dans ce travail de thèse nous nous intéresserons ici aux automates cellulaires non-uniformes (nu-CA). Il s'agit, essentiellement, d'automates cellulaires dans lesquels la contrainte d'uniformité a été relâchée.

Dans un premier temps, nous considèrerons une famille de nu-CA qui permet de représenter des perturbations dans la structure d'un CA. Il s'agit d'étudier l'influence d'une panne ou d'une erreur ponctuelle dans l'implémentation d'un CA et notamment son influence sur la dynamique. Nous verrons que de nombreuses propriétés ne sont pas stables (à l'exception notable de l'équicontinuité) mais que l'on peut alors établir des liens entre un CA et ses modèles de perturbation.

Dans une seconde partie, nous cherchons à déterminer les propriétés que peut avoir un nu-CA en fonction des comportements locaux que l'on peut observer. On se donne un ensemble de règles locales qui peuvent intervenir dans un nu-CA et nous nous intéressons à la façon d'agencer ces règles pour produire certaines propriétés dans l'automate induit. Nous associons alors, à chacune de ces propriétés, un langage de distributions que nous caractérisons à l'aide de la théorie des langages.

Abstract :

Cellular automata (CA) are discrete dynamical systems widely used in many scientific domains. Their main characteristic is to act locally, synchronously and uniformly on a regular set of elementary components called cells. These systems have a huge variety of dynamical behaviors and have been extensively studied in literature.

Several variants have been proposed. In this work we are interested in non-uniform cellular automata (nu-CA). They are, essentially, CA in which the uniformity constraint has been relaxed.

In the first part, we study a family of nu-CA which allows to easily represent perturbations of the structure of a CA. The idea is to study the impact on the dynamics of a failure or of an error in the physical implementation of a CA by electronic components. Indeed, we will prove that several dynamical properties are not structurally stable (except for the equicontinuity property). However, we will show how to link properties of a CA and its "perturbed" versions.

In the second part, we try to infer the global properties of a nu-CA from the local behaviors we can observe. Given a set of local rules which can appear in a given nu-CA, we study the way of mixing them to obtain given global behaviors. Moreover, we associate global properties with peculiar formal languages and we completely characterize these formal languages. In this way we obtain a natural notion of complexity for properties on nu-CA. A property is as complex as the class of languages from which it is characterized.

   Le jury sera composé de :

- Rapporteurs
Olivier CARTON, Professeur, Université Paris 7
Nicolas OLLINGER, Professeur, Université d'Orléans
Nicolas SCHABANEL, Directeur de recherche CNRS, Université Paris 7

- Examinateurs
Nazim FATES, Chargé de recherche INRIA, Université Nancy 2
Julien CERVELLE, Professeur, Université Paris 12

- Directeur de thèse
Enrico FORMENTI, Professeur, Unversité Nice Sophia Antipolis

19/11/2012
14h30
Leonardo SAMPAIO ROCHA
Aspects algorithmiques d'heuristiques de coloration de graphes
Résumé   
INRIA Sophia Antipolis, Salle Euler Violet

Leonardo SAMPAIO ROCHA :
  
  

Résumé :

   Une coloration propre d'un graphe est une fonction qui attribue une couleur à chaque sommet du graphe avec la restriction que 2 sommets voisins ont des couleurs distinctes. Les colorations propres permettent de modéliser des problèmes d'ordonnancement, d'allocation de fréquences ou de registres. Le problème de trouver une coloration propre d'un graphe qui minimise le nombre de couleurs est un problème NP-difficile très connu. Dans cette thèse, nous étudions le nombre de Grundy et le nombre b-chromatique des graphes, deux paramètres qui permettent d'évaluer quelques heuristiques pour le problème de la coloration propre. Nous commençons par dresser un état de l'art des résultats sur ces deux paramètres. Puis, nous montrons que déterminer le nombre de Grundy est NP-difficile sur les graphes bipartis ou cordaux mais polynomial sur le graphes sans P5 bipartis. Ensuite, nous montrons que déterminer le nombre b-chromatique est NP-difficile pour un graphe cordal et distance-héréditaire, et nous donnons des algorithmes polynomiaux pour certaines sous-classes de graphes blocs, complémentaires des graphes bipartis et P4-sparses. Nous considérons également la complexité à paramètre fixé de déterminer le nombre de Grundy (resp. nombre b-chromatique) et en particulier, nous montrons que décider si le nombre de Grundy (ou le nombre b-chromatique) d'un graphe G est au moins |V(G)| - k admet un algorithme FPT lorsque k est le paramètre. Enfin, nous considérons la complexité de nombreux problèmes liés à la comparaison du nombre de Grundy et nombre b-chromatique avec divers autres paramètres d'un graphe.

   

15/10/2012
14h
Masmoudi Khaled
Sophia Antipolis (France)
Schémas de codage d'images inspirés de la rétine
Résumé    [ Annexes ]      [ URL ]
salle Euler, Inria Sophia Antipolis

Masmoudi Khaled:
  Laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   

   Jury :
Béatrice Pesquet-Popescu (rapporteur)
Simon Thorpe (rapporteur)
Jean-Marc Chassery (examinateur)
Laurent Perrinet (examinateur)
Marc Antonini(directeur de thèse)
Pierre Kornprobst (directeur de thèse)

13/09/2012
15h
Araujo Julio
Sophia-Antipolis / France
Soutenance de thèse : Coloration et Convexité dans les graphes
Résumé    [ Annexes ]      [ URL ]
salle Euler Violet - INRIA Sophia Antipolis

Araujo Julio:
  Laboratoire I3S / INRIA
  Sophia-Antipolis / France

Résumé :

   Dans cette thèse, nous étudions plusieurs problèmes de théorie des graphes concernant la coloration et la convexité des graphes. La plupart des résultats figurant ici sont liés à la complexité de calcul de ces problèmes pour certaines classes de graphes.

Dans la première, et principale, partie de cette thèse, nous traitons de coloration des graphes qui est l'un des domaines les plus étudiés de théorie des graphes. Nous considérons d'abord trois problèmes de coloration appelés coloration gloutone, coloration pondérée et coloration pondérée impropre. Ensuite, nous traitons un problème de décision, appelé bon étiquetage de arêtes, dont la définition a été motivée par le problème d'affectation de longueurs d'onde dans les réseaux optiques.

La deuxième partie de cette thèse est consacrée à un paramètre d'optimisation des graphes appelé le nombre enveloppe (géodésique). La définition de ce paramètre est motivée par une extension aux graphes des notions d'ensembles et d'enveloppes convexes dans l'espace Euclidien.

Enfin, nous présentons dans l'annexe d'autres travaux développées au cours de cette thèse, l'un sur les hypergraphes orientés Eulériens et Hamiltoniens et l'autre concernant les systèmes de stockage distribués.

   Rapporteurs :
Ricardo Corrêa - UFC (Fortaleza, Brazil)
Frédéric Maffray - CNRS (Grenoble, France)
Christophe Paul - CNRS (Montpellier, France)

Éxaminateurs :
Jean-Claude Bermond - CNRS (Sophia Antipolis, France)
Frédéric Giroire - CNRS (Sophia Antipolis, France)
Cláudia Linhares Sales - UFC (Fortaleza, Brazil)

19/07/2012
13h30
Henrio Ludovic
Sophia-Antipolis / France
soutenance HDR : Modèles Formels pour la Programmation et la Composition de Systèmes Distribués Corrects / Formal Models for Programming and Composing Correct Distributed Systems
Résumé    [ Annexes ]     
Euler Violet (INRIA Sophia Antipolis)

Henrio Ludovic:
  Laboratoire I3S / INRIA
  Sophia-Antipolis / France

Résumé :

   Mes travaux de recherche portent sur les modèles de programmation distribuée, principalement par objets et composants. Dans ce domaine, j'ai travaillé à fournir des outils facilitant la programmation d'applications distribuées à large échelle et vérifiant la correction de leur comportement. Pour faciliter la programmation d'applications distribuées je me suis intéressé à la mise au point de langages avec un fort niveau d'abstraction: objets actifs, squelettes algorithmiques, composants. Afin de vérifier la correction du comportement d'une application j'ai collaboré à la mise au point d'outils de spécification et de vérification comportementales d'applications distribuées. Mes travaux ont pour but de fournir un modèle formel des langages de programmations, des bibliothèques, et des environnements d'exécution fournies au programmeur afin de garantir un comportement sûr des applications distribuées.

Ma thèse m'a permis de mettre au point le calcul ASP modélisant le comportement des objets actifs et des futurs. Depuis, nous avons créé une version fonctionnelle de ce calcul que nous avons modélisé en Isabelle/HOL. Aussi j'ai fortement contribué à la définition d'un modèle à composants distribués -- le GCM (Grid Component model)--, à sa formalisation et à son utilisation pour programmer des composants adaptables ou autonomes. Enfin, j'ai contribué à la spécification et la vérification comportementale des programmes utilisant des objets actifs et des composants afin de garantir la sûreté de leur exécution. Actuellement, nous travaillons à la fois à une extension multi-threadée du modèle à objets actifs mieux adaptée aux machines multi-coeurs, et à l'utilisation de méthodes formelles pour mettre au point et prouver la correction d'un algorithme de diffusion pour réseau pair-à-pair de type CAN (Content Adressable Network). Ce manuscrit fournit une vue d'ensemble de tous ces travaux.

Abstract : My research focuses on distributed programming models, more precisely using ob jects and components. In this area, I provided tools easing the programming of large-scale distributed applications and verifying their correct behaviour. To facilitate the programming of distributed applications, I contributed to the design and the development of languages with a high level of abstraction: active ob jects, algorithmic skeletons, components. To verify correction of the behaviour of an application, I have contributed to the creation of tools for specifying and verifying behavioural distributed applications. My work aims to provide a strong model of programming languages, libraries, and runtime environments provided to the developer, and to guarantee the safe behaviour of distributed applications.

During my thesis, I developed the ASP calculus for modelling the behaviour of active ob jects and futures. Since, we created a functional version of this calculus and formalised it in Isabelle/HOL. I also strongly contributed to the definition of a distributed component model - the GCM (Grid Component Model) -, to its formalisation, and to its use for programming adaptive or autonomous components. Finally, I contributed to the specification and behavioural verification of programs based on active ob jects and components, in order to ensure their safe execution. Currently we are working both on a multi-threaded extension of the active ob ject model, better suited for multi-core machine, and on the use of formal methods to design and prove the correction of an algorithm for broadcast on CAN-like peer-to-peer networks (Content Addressable Network). This manuscript provides an overview of all these works.

   
Président du Jury
Pr. Michel Riveill Université de Nice-Sophia-Antipolis - I3S, France

Rapporteurs
Pr. Gordon Blair Lancaster University, United Kingdom
Dr. Pascal Poizat Université d’Evry Val d’Essonne, France
Pr. Davide Sangiorgi University of Bologna, Italy

Examinateurs
Dr. Fabienne Boyer Université Joseph Fourier - LIG, France
Dr. Alan Schmitt INRIA Rennes, France

Invité
Dr. Eric Madelaine INRIA Sophia-Antipolis, France

19/07/2012
14h30
Bukina Elena
Sophia-Antipolis / France
Algorithmes de gradient asymptotiquement optimaux: analyse et implémentation / Asymptotically optimal gradient algorithms: analysis and implementation
Résumé    [ Annexes ]     
salle de conference I3S

Bukina Elena:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Nous nous intéressons dans ce manuscrit au problème relatif à la minimisation de fonctions quadratiques dont la matrice hessienne est creuse, symétrique et définie positive (ou, de manière équivalente, au problème de résolution de systèmes linéaires de grande taille). Les méthodes classiques itératives fréquemment employées pour résoudre ce problème procèdent en choisissant successivement des pas dont la longueur et la direction dépendent du spectre de la matrice et sont donc adaptés au problème particulier traité. Ce choix adaptatif du pas peut cependant limiter l'efficacité de l'implémentation parallèle d'un algorithme: la présence de nombreux produits scalaires à calculer limite grandement les performances en imposant des étapes de synchronisation ainsi qu'une communication globale coûteuse dans le cas particulier des machines parallèles à mémoire distribuée disposant d'un grand nombre de processeurs.

L'approche proposée dans cette thèse se fonde sur l'utilisation d'une famille de méthodes du gradient pour laquelle l'inverse de la longueur des pas est choisi d'avance. Pour ce type de méthodes, l'utilisation d'une suite de longueurs de pas ayant une distribution arc sinus sur l'intervalle défini par les limites du spectre de la matrice hessienne permet de converger rapidement. De fait, il n'y a aucun besoin d'étudier précisément le détail du spectre dans la mesure où les longueurs de pas ne sont reliées au problème que par les valeurs propres extrêmes de la matrice hessienne. Nous proposons d'estimer celles-ci pendant le déroulement de l'algorithme en utilisant les moments d'une mesure de probabilité associée au spectre matriciel et produite par l'algorithme lui-même. En conséquence de la simplicité du calcul de la longueur des pas, le calcul de produits scalaires à chaque itération de l'algorithme n'est pas nécessaire (ils ne sont utilisés que sur un petit nombre d'itérations prédéfinies dans le but de déterminer les limites spectrales de la matrice) rendant ainsi notre approche particulièrement intéressante dans un contexte de calcul parallèle.

Nous proposons plusieurs méthodes de gradient couplées à différentes suites de longueurs de pas précalculées ainsi qu'à plusieurs estimateurs de valeurs propres. En pratique, les performances de la méthode la plus efficace (en termes de propriété de convergence et de coût calcul) sont testées sur un ensemble de problèmes théoriques et pratiques. La même approche est aussi considérée pour l'optimisation quadratique convexe sous contraintes d'égalité.

Abstract:

In this work we consider the minimization of quadratic functions with sparse and symmetric positive-definite Hessian matrices (or, equivalently, the solution of large linear systems of equations). Classical iterative methods for solving these problems proceed by choosing the step sizes (and search directions) relatively to the spectrum of the matrix, which are thus adapted to the particular problem considered. This type of adaptive choice results in computations that may limit the efficiency of parallel implementations of a given method: the presence of several (separate) inner products to be computed at each iteration creates blocking steps due to the required global communication on some distributed-memory parallel machines with large number of processors.

The approach developed in this thesis is focused on the use of a family of gradient methods where the inverse step sizes are selected beforehand. For this type of methods, the use of sequences of step sizes with the arcsine distribution on the interval defined by the bounds of the matrix spectrum allows to achieve fast rates of convergence. Therefore, there is no need to extensively study the spectrum since the step sizes are connected to the problem through only the extremal eigenvalues of the Hessian matrix. We propose to estimate the extreme eigenvalues during the run of algorithm, using the moments of a probability measure associated with the matrix spectrum and generated by the algorithm itself. Due to the simplicity of the step size generation, the computation of inner products at each iteration is not required (they are needed at just a small number of pre-defined iterations to determine the spectral boundaries), making the approach particularly interesting in a parallel computing context.

Several effective gradient methods are proposed coupled with pre-computed sequences of step sizes and eigenvalue estimators. The practical performance of the most appealing of them (in terms of convergence properties and required computational effort) is tested on a set of theoretical and real-life test problems. The same approach is also considered for convex quadratic optimization subject to equality constraints.

   Jury :
Coralia CARTIS, University of Edinburgh, UK
Pierre COMON, CNRS-I3S, Sophia Antipolis, France
Stephane GAUBERT, INRIA, Ecole Polytechnique, France
Jean-Baptiste HIRIART-URRUTY, Institut de mathématiques de Toulouse, France
Luc PRONZATO, CNRS-I3S, Sophia Antipolis, France
Anatoly ZHIGLJAVSKY, Cardiff University, UK

29/06/2012
10h
Ghailen Laouini
Sophia-Antipolis / France
soutenance de thèse - Analyse et modélisation du rythme cardio-respiratoire / Analysis and modeling of the the cardio-respiratory rythm
Résumé    [ Annexes ]     
salle de conference I3S

Ghailen Laouini:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Dans ces travaux, nous nous intéressons à la modélisation de la variabilité du rythme cardiaque (HRV) à l'exercice. L'objectif de cette thèse est donc d'étudier la HRV l'exercice en prenant en compte la respiration.
Le modèle IPFM a été utilisé pour expliquer le mécanisme utilisé par le système nerveux autonome pour contrôler le rythme cardiaque. A l'aide des pics générés par ce modèle, nous étudions la relation entre la période cardiaque, qui est la différence entre deux pics RR successifs, et le signal de modulation.
Nous proposons le modèle TVIPFM avec trois approches différentes (A, B, C), comme alternative au modèle IPFM pour estimer la modulation du système nerveux autonome, adaptée à l'exercice. Le modèle TVIPFM, permet alors de corriger la variabilité cardiaque. Cette variabilité sera filtrée dans la bande de la fréquence respiratoire et dans le domaine temps-fréquence, en utilisant différentes méthodes de représentations temps-fréquence. Ceci s'explique par le caractère non stationnaire du signal observé. Nous présentons différentes représentations temps-fréquence linéaires et quadratiques permettant ce filtrage et justifiant leur utilisation. L'EMD est abordée également pour sa propriété de décomposition en signaux monocomposantes. Des simulations nous ayant permis de sélectionner la meilleure correction IPFM et la meilleure représentation temps-fréquence pour le filtrage, une application réelle étendue est proposée. Dans celle-ci, on montre qu'à l'aide de cette chaine de traitement la corrélation avec l'age de la transplantation et la variabilité du rythme cardiaque existe bien.
Mots-Clefs: Électrocardiogramme (ECG), variabilité cardiaque (HRV), système nerveux autonome (ANS), Arythmie sinusale respiratoire (RSA), modèle IPFM, modèle TVIPFM, EMD, représentation temps-fréquence.

Abstract :

In this thesis, we focus on the modeling of heart rate variability (HRV) during exercise. The objective of this thesis is to study HRV during exercise, while taking respiration into account. The IPFM model helps to explain the mechanism used by the autonomic nervous system to control the heartbeat. With peaks generated by this model, we study the relationship between the heart period, which is the difference between two successive RR peaks, and the modulation signal.
We suggest the TVIPFM model with three different approaches (A, B, C), as an alternative to the IPFM model to estimate the modulation of the autonomic nervous system, adapted to the exercise. The TVIPFM model then allows for correction of the heart rate variability. This variability will be filtered around the frequency band of respiration in the time-frequency domain, using different methods of time-frequencyrepresentations.
This is explained by the fact that the signal being observed is not stationary. We present different time-frequency representations for the linear and quadratic filtering and justify their use.
The EMD is also addressed because of its decomposition property in ''monocomponent'' signals. Simulations allowing us to select the best IPFM correction and the best time-frequency representation for filtering, a real application range is proposed. In it, we show that using this process, correlation between age of transplantation and heart rate variability indeed exists.

Keywords : Electrocardiogram (ECG), Heart Rate Variability (HRV), Autonomic Nervous System (ANS), Respiratory Sinus Arrythmia (RSA), IPFM model, TVIPFM model, EMD, time-frequency representation.

   Leif Sornmo, Université de Lund, Suède (Rapporteur)
Guy Carrault, Université de Rennes I (Rapporteur)
Serge Colson, Université de Nice-Sophia Antipolis (Examinateur)
Sofiane Boudaoud, Université Technologique de Compiègne (Examinateur)
Olivier Meste, Université de Nice-Sophia Antipolis (Directeur de thèse)

18/04/2012
14h
Thiesse Jean-Marc
Sophia-Antipolis / France
Codage vidéo flexible par association d’un décodeur intelligent et d’un encodeur basé optimisation débit-distorsion
Résumé    [ Annexes ]     
salle de conference I3S

Thiesse Jean-Marc:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Cette thèse est dédiée à l’amélioration des performances de compression vidéo. Deux types d’approches, conventionnelle et en rupture, sont explorées afin de proposer des méthodes efficaces de codage Intra et Inter pour les futurs standards de compression. Deux outils sont étudiés pour la première approche. Tout d’abord, des indices de signalisations sont habilement traités par une technique issue du tatouage permettant de les masquer dans les résiduels de luminance et de chrominance de façon optimale selon le compromis débit-distorsion. La forte redondance dans le mouvement est ensuite exploitée pour améliorer le codage des vecteurs de mouvement. Après observation des précédents vecteurs utilisés, un fin pronostic permet de déterminer les vecteurs résiduels à privilégier lors d’une troisième étape de modification de la distribution des résiduels. 90% des vecteurs codés sont ainsi pronostiqués, ce qui permet une nette réduction de leur coût.
L’approche en rupture vient de la constatation que H.264/AVC et son successeur HEVC sont basés sur un schéma prédictif multipliant les choix de codage, les améliorations passent alors par un meilleur codage de la texture à l’aide d’une compétition accrue. De tels schémas étant bornés par la signalisation engendrée, il est alors nécessaire de transférer des décisions au niveau du décodeur. Une approche basée sur la détermination conjointe au codeur et au décodeur de paramètres de codage à l’aide de partitions causales et ainsi proposée et appliquée aux modes de prédiction Intra et à la théorie émergente de l’échantillonnage compressé. Des performances encourageantes sont reportées et confirment l’intérêt d’une telle solution innovante.


Abstract :

This Ph.D. thesis deals with the improvement of video compression efficiency. Both conventional and breakthrough approaches are investigated in order to propose efficient methods for Intra and Inter coding dedicated to next generations video coding standards.
Two tools are studied for the conventional approach. First, syntax elements are cleverly transmitted using a data hiding based method which allows embedding indices into the luminance and chrominance residuals in an optimal way, rate-distortion wise. Secondly, the large motion redundancies are exploited to improve the motion vectors coding. After a statistical analysis of the previously used vectors, an accurate forecast is performed to favor some vector residuals during a last step which modifies the original residual distribution. 90% of the coded vectors are efficiently forecasted by this method which helps to significantly reduce their coding cost.
The breakthrough approach comes from the observation of the H.264/AVC standard and its successor HEVC which are based on a predictive scheme with multiple coding choices, consequently future improvements shall improve texture by extensively using the competition between many coding modes. However, such schemes are bounded by the cost generated by the signaling flags and therefore it is required to transfer some decisions to the decoder side. A framework based on the determination of encoding parameters at both encoder and decoder side is consequently proposed and applied to Intra prediction modes on the one hand, and to the emerging theory of compressed sensing on the other hand. Promising results are reported and confirm the potential of such an innovative solution.

   Jury :
James FOWLER, Mississipi State University, USA, Rapporteur
Pascal FROSSARD, EPFL, Suisse, Rapporteur
Philippe SALEMBIER, University of Catalonia, Espagne, Rapporteur
Marc ANTONINI, CNRS-Université de Nice-Sophia Antipolis, Directeur de thèse
Joël JUNG, Orange Labs, France, Encadrant de thèse
Frédéric DUFAUX, CNRS-Télécom Paris Tech, France, Examinateur
Pier Luigi DRAGOTTI, Imperial College London, UK, Examinateur
Jérôme VIERON, ATEME, France, Examinateur

11/04/2012
13h
Rojas Balderrama Javier
Sophia Antipolis / France
Services Lifecycle Management Using Distributed Computing Infrastructures in Neuroinformatic
Résumé    [ Annexes ]     
salle de conference I3S

Rojas Balderrama Javier :
  Laboratoire I3S
  Sophia Antipolis / France

Résumé :

   L'intérêt va croissant parmi les communautés scientifiques pour le partage de données et d'applications qui facilitent les recherches et l'établissement de collaborations fructueuses. Les domaines interdisciplinaires tels que les neurosciences nécessitent particulièrement de disposer d'une puissance de calcul suffisante pour l'expérimentation à grande échelle. Malgré les progrès réalisés dans la mise en œuvre de telles infrastructures distribuées, de nombreux défis sur l'interopérabilité et le passage à l'échelle ne sont pas complètement résolus. L'évolution permanente des technologies, la complexité intrinsèque des environnements de production et leur faible fiabilité à l'exécution sont autant de facteurs pénalisants.

Ce travail porte sur la modélisation et l'implantation d'un environnement orienté services qui permet l'exécution d'applications scientifiques sur des infrastructures de calcul distribué, exploitant leur capacité de calcul haut débit. Le modèle comprend une spécification de description d'interfaces en ligne de commande; un pont entre les architectures orientées services et le calcul globalisé; ainsi que l'utilisation efficace de ressources locales et distantes pour le passage à l'échelle. Une implantation de référence est réalisée pour démontrer la faisabilité de cette approche. Sa pertinence et illustrée dans le contexte de deux projets de recherche dirigés par des campagnes expérimentales de grande ampleur réalisées sur des ressources distribuées. L'environnement développé se substitue aux systèmes existants dont les préoccupations se concentrent souvent sur la seule exécution. Il permet la gestion de codes patrimoniaux en tant que services, prenant en compte leur cycle de vie entier. De plus, l'approche orientée services aide à la conception de flux de calcul scientifique qui sont utilisés en tant que moyen flexible pour décrire des applications composées de services multiples.

L'approche proposée est évaluée à la fois qualitativement et quantitativement en utilisant des applications réelles en analyse de neuro-images. Les expériences qualitatives sont basées sur l'optimisation de la spécificité et la sensibilité des outils de segmentation du cerveau utilisés pour traiter des Image par Raisonnance Magnétique de patients atteints de sclérose en plaques. Les expériences quantitative traitent de l'accélération et de la latence mesurées pendant l'exécution d'études longitudinales portant sur la mesure d'atrophie cérébrale chez des patients affectés de la maladie d'Alzheimer.


Abstract :

There is an increasing interest among scientific communities for sharing data and applications in order to support research and foster collaborations. Interdiciplinary domains like neurosciences are particularly eager of solutions providing computing power to achieve large--scale experimentation. Despite all progresses made in this regard, several challenges related to interoperability, and scalability of Distributed Computing Infrastructures are not completely resolved though. They face permanent evolution of technologies, complexity associated to the adoption of production environments, and low reliability of these infrastructures at runtime.

This work proposes the modelling and implementation of a service--oriented framework for the execution of scientific applications on Distributed Computing Infrastructures taking advantage of High Throughput Computing facilities. The model includes a specification for description of command-line applications; a bridge to merge service-oriented architectures with Global computing; and the efficient use of local resources and scaling. A reference implementation is proposed to demonstrate the feasibility of the approach. It shows its relevance in the context of two application-driven research projects executing large experiment campaign on distributed resources. The framework is an alternative to existing solutions that are often limited to execution consideration only, as it enables the management of legacy codes as services and takes into account their complete lifecycle. Furthermore, the service-oriented approach helps designing scientific workflows which are used as a flexible and way of describing application composed with multiple services.

The approach proposed is evaluated both qualitatively and quantitatively using concrete applications in the area of neuroimaging analysis. The qualitative experiments are based on the optimization of specificity and sensibility of the brain segmentation tools used in the analysis of Magnetic Resonance Images of patient affected by Multiple Sclerosis. On the other hand, quantitative experiments deal with speedup and latency measured during the execution of longitudinal brain atrophy detection in patients impaired by Alzheimer's disease.

   Le jury sera composé de :

* Bernard Gibaud Inserm, Rennes (Rapporteur)
* Johan Montagnat CNRS, Sophia Antipolis (Directeur)
* Michel Riveill Université Nice Sophia Antipolis (Président)
* Christian Pérez Inria, Lyon (Rapporteur)

25/01/2012
10h30
Le Tallec Jean-François
Sophia-Antipolis / France
Extraction de modèles pour la conception de systèmes sur puce / Model extraction for Systems On Chip Design
Résumé    [ Annexes ]     
salle Euler Violet à l'INRIA Sophia-Antipolis

Le Tallec Jean-François:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   La conception des systèmes sur puce s’appuie souvent sur SystemC/C++ qui permet des descriptions architecturales et comportementales à différents niveaux d’abstraction. D’autres approches se tournent vers l’automatisation de l’assemblage de plates-formes dites virtuelles (format IP-Xact). L’utilisation des techniques de l’ingénierie des modèles est une voie plus récente avec des profils UML tels que MARTE. Dans cette thèse, nous étudions les possibilités de modélisation de ces différentes approches et les passe- relles disponibles entre elles. Motivés par la disponibilité de modèles SystemC et par les facilités offertes par MARTE, nous traitons de l’export des modèles SystemC. Au-delà de la simple conversion entre formats, nous décrivons la mise en oeuvre d’une passerelle entre l’implémentation SystemC d’un design et sa version modèle dans le format IP-Xact. La repr´esentation IP-Xact peut ensuite ˆetre de nouveau transformée en modèles MARTE par des outils déjà existants. Nous présentons les travaux connexes avant d’exposer notre vision et sa réalisation au travers de l’outil SCiPX (SystemC to IP-Xact). Dans un second temps, nous présentons plus en détails les possibilités permises par le profil UML-MARTE, son modèle de temps et le langage de spécification de contraintes temporelles CCSL. Nous abordons les pro- blèmes liés à la modélisation de protocoles à différents niveaux d’abstraction et plus spécialement ceux posés par le raffinement entre les niveaux TLM et RTL. Cette étude met en évidence des insuffisances de CCSL concernant la spécification des priorités. Nous proposons un enrichissement de CCSL pour lui permettre de manipuler ce concept de priorité.

Abstract :

The design of System on Chip mostly relies on SystemC/C++. This language allows architectural and behavioural descriptions at different abstraction levels. Others approaches consider automated assem- bly of components into actual or virtual platforms (IP-Xact format). Using Model Driven Engineering techniques is a new trend, which may benefit from UML profiles (especially MARTE). In this thesis, we study the modelling power of these approaches and the possible bridges between them. SystemC provides a great deal of examples while MARTE offers facilities in system modelling at different levels. So, we try to export SystemC designs to MARTE models. Beyond the mere conversion between formats, we propose an abstraction mechanism from SystemC code to models in IP-Xact formats. The IP-Xact description is then transformed into MARTE models with existing tools. We review related works and propose our solution leading to a dedicated tool called SCiPX (standing for SystemC to IP-Xact). In the second part of the thesis we apply the UML profile MARTE, its time model, and the associated language for specification of temporal constraints (CCSL) to specify interactions among components. A special attention is paid to protocol refinement. This study reveals a lack of CCSL for capturing the concept of priority. An improvement in the CCSL constraint solver is proposed to overcome this limitation.

   Jury :

Charles André Université de Nice Sophia-Antipolis
Florence Maraninchi INP Grenoble / ENSIMAG
Christophe Moy Supélec Rennes
Jean-Luc Dekeyser Université de Lille 1
Robert de Simone INRIA Sophia Antipolis Méditerrannée

19/12/2011
10h
VU Viet-Hoang
Sophia-Antipolis / France
Contribution To Abductive Reasoning With Concepts In Description Logics - An Application To Ontology-based Semantic Matchmaking For Tourism Information Systems
Résumé    [ Annexes ]     
salle de conference I3S

VU Viet-Hoang:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Aujourd'hui, le tourisme devient un secteur économique important. Afin de supporter le développement du marché électronique du tourisme, nous adoptons une méthode de Matchmaking Sémantique basés sur l'ontologie récemment proposées dans la littérature pour traiter le problème de l'hétérogénéité du domaine. L'idée est d'utiliser les Logiques de Descriptions (LDs) pour représenter la sémantique des demandes et des offres disponibles en référence à une ontologie et d'employer des services d'inférence automatique pour classer et proposer les meilleures solutions. De cette manière, la méthode facilite les processus de découverte et de négociation sur le marché. En outre, elle peut aussi être utilisée pour aider à la création des correspondances sémantiques, un processus important qui assure l'interopérabilité entre des systèmes d'information touristique hétérogènes. Pour réaliser le matchmaking, une nouvelle méthode d'inférence, Concept Abduction, a été développée pour la LD ALN. Parce que la représentation des ontologies du tourisme nécessite en général plus de l'expressivité, le premier objectif de cette thèse est d'étendre cette méthode d'inférence pour la LD plus expressive SHIQ. D'ailleurs, il est reconnu que le tourisme est tellement hétérogène qu'une seule ontologie ne peut pas couvrir entièrement le domaine. Pour ce but, multiple ontologies distribués et modulaires doivent être utilisées. Cela conduit au deuxième objectif de la thèse: développer Concept Abduction pour SHIQP, une extension de SHIQ pour les ontologies modulaires distribuées. Enfin, nous proposons une architecture pour réaliser un Sémantique Matchmaker pour les systèmes d'information touristique distribués.


Abstract :

Today, travel and tourism is a sector that plays a more and more important role in the modern economy. To support the development of an electronic marketplace for tourism, we adopt an ontology-based Semantic Matchmaking method proposed so far in the literature to deal with the heterogeneity of the domain. The idea is to use Description Logics (DLs) to represent the semantics of demands and supplies available on the marketplace with reference to an ontology and then employ automated reasoning services to classify and then propose the best potential matches. Using Semantic Matchmaking thereby facilitates the discovery and negotiation process in the marketplace. Besides, the method can also be used to assist in the ontology mapping, an important process for providing the semantic interoperability between heterogeneous tourism systems. To realize the matchmaking process, a new non-standard inference, Concept Abduction, is developed for a quite inexpressive DL ALN. Because the representation of ontologies in the tourism domain requires generally more expressivity, we have to extend this inference method to a more expressive DL SHIQ and that is the first main objective of this thesis. Furthermore, it was acknowledged that travel and tourism is so highly heterogeneous that no one single global ontology can cover the whole domain. Instead, distributed and modular ontologies have to be used. That leads to the second objective of this thesis: developing Concept Abduction for the Package-based DL SHIQP, an extension of SHIQ for distributed and modular ontologies. Finally, we propose an architecture to realize a Semantic Matchmaker for distributed tourism information systems.

   Le jury sera composé de :
- Mme. Parisa GHODOUS (Professeur des universités, Université de Lyon 1, Rapporteur)
- M. Richard CHBEIR (Maitre de Conférences HDR 2010, Université de Bourgogne, Rapporteur)
- M. Olivier HAEMMERLE (Professeur des universités, Université Toulouse le Mirail)
- Mme. Catherine FARON-ZUCKER (Maitre de Conférences, Université de Nice Sophia Antipolis)
- M. Serge MIRANDA (Professeur des universités, Université de Nice Sophia Antipolis)
- M. Nhan LE-THANH (Professeur des universités, Université de Nice Sophia Antipolis, Directeur de thèse)

16/12/2011
14h
Tran Vinh Duc
Sophia-Antipolis / France
Des codes pour engendrer les langages de mots infinis
Résumé    [ Annexes ]     
salle de conference I3S

Tran Vinh Duc:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

    Le sujet de cette thèse est l'étude des langages de mots infinis, en particulier les puissances infinies de langages de mots finis (puissance w). Plus précisément, nous nous intéressons à la question ouverte suivante: étant donné un langage L, existe-t-il un w-code C tel que C^w = L^w ? Cette question est l'analogue de celle pour la concaténation finie: un sous-monoïde d'un monoïde libre est-il engendré par un code ou non ?

Dans un premier temps, nous étudions l'ensemble des relateurs d'un langage L, c'est-à-dire les couples de factorisations différentes d'un même mot de L^* + L^w; nous établissons une condition nécessaire pour que L^w ait un code ou un w-code générateur. Ensuite, nous définissons une nouvelle classe de langages: les langages à un relateur. Leurs ensemble de relateurs est le plus simple possible sans qu'ils soient des codes. Pour cette classe intéressante de langages, on caractérise les langages L tels qu'il existe un w-code ou un code C tels que L^w = C^w. On montre que C ne peut pas être un langage fini. Enfin, une caractérisation des codes concernant les mots infinis nous amène à définir les langages réduits; nous considérons les propriétés de ces langages en tant que générateurs de langages de mots infinis.

   jury composé de :

- Olivier Carton (Université Paris Diderot), rapporteur
- Gabriele Fici (Université de Nice Sophia-Antipolis), examinateur
- Enrico Formenti (Université de Nice - Sophia Antipolis), examinateur
- Sandrine Julia (Université de Nice - Sophia Antipolis), co-directrice
- Igor Litovsky (Université Nice Sophia Antipolis), directeur
- Gwénaël Richomme (Université Paul-Valéry Montpellier 3), rapporteur.

16/12/2011
13h30
Rivera Marcela
Sophia-Antipolis / France
Reconfiguration et cycle de vie des composants distribués asynchronisme, cohérence et vérification / Reconfiguration and Life-cycle Distributed Components: Asynchornony, Coherence and Verification
Résumé    [ Annexes ]     
INRIA Sophia-Antipolis, Salle EULER Violet

Rivera Marcela:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   En programmation orientée à composants, mais particulièrement dans des environnements distribués, les composants ont besoin d'être adaptatifs. Une majeure partie de cette adaptation repose sur la reconfiguration dynamique. Dans cette thèse, nous introduisons une nouvelle approche pour la reconfiguration des modèles de composants distribu\'es, avec l'objectif de faciliter le processus de reconfiguration et d'assurer la consistence et la cohérence du système.

Avant d'exécuter une reconfiguration, il est nécessaire que les composants soient dans un état cohérent et stable, afin d'éviter des incohérences dans le processus de reconfiguration. Pour ceci, nous concevons un algorithme pour l'arrêt d'un composant d'une manière sécurisé et atteignant un état stable. Cela a été réalisé en mettant en oeuvre un mécanisme de marquage et d'interception qui permet d'ajouter des informations aux requ\^etes et de manipuler leurs flux, afin de décider lesquelles doivent être servies avant d'arrêter le composant.

Nous avons conçu un ensemble de primitives de reconfiguration de haut niveau qui permettent de réaliser des opérations de reconfiguration plus complexes. Nous fournissons un contrôleur supplémentaire à notre modèle de composant qui implémente ces primitives.

Pour le déclenchement des tâches de reconfiguration, nous avons étendu le langage FScript pour lui permettre d'exécuter des reconfiguration distribuées, en déléguant certaines actions à des composants. Pour ceci, nous avons défini un contrôleur additionnel à l'intérieur de la membrane des composants.

Nous avons testé notre approche sur deux applications basées sur GCM/ProActive: CoCoME et TurnTable.

Abstract :

For component programming, but even more specifically in distributed and Grid environments, components need to be highly adaptative. A great part of adaptativeness relies on dynamic reconfiguration of component systems. We introduce a new approach for reconfiguring distributed components with the main objective to facilitate the reconfiguration process and ensure the consistency and coherence of the system.

First, before executing a reconfiguration it is necessary that the components is a coherent and quiescent state. This is done to avoid inconsistency in the reconfiguration process. To achieve this, we design an algorithm for stopping a component in a safe manner and reach this quiescent state. This was realized by implementing a tagging and interception mechanism that adds informations to the requests and manipulates their flow in order to decide which of them must be served before stopping the component.

Next, we designed a set of high-level reconfiguration primitives to achieve more complex reconfiguration operations. These primitives include: add, remove, duplicate, replace, bind, and unbind. We provide an additional controller to our component model which implements these primitives.

Additionally, for triggering the reconfiguration tasks, we extended the FScript language to give it the capability of executing distributed reconfiguration actions, by delegating some actions to specific components. To achieve this objective, we defined an additional controllers inside the membrane of the components.

We tested our implementation over two GCM/ProActive based applications: the CoCoME example and the TurnTable example.

   Jury:
Françoise Baude, CNRS, France, Président
Florian Kammueller, Middlesex University, London, UK, Rapporteur
Christian Perez, INRIA, Lyon, France, Rapporteur
Ludovic Henrio, Université de Nice-Sophia Antipolis, France, Co-directeur

15/12/2011
14h
Peretti Pezzi Guilherme
Sophia-Antipolis / France
Simulations hydrauliques d'haute performance dans la Grille avec Java et ProActive / HIGH PERFORMANCE HYDRAULIC SIMULATIONS ON THE GRID USING JAVA AND PROACTIVE
Résumé    [ Annexes ]     
salle de conference I3S

Peretti Pezzi Guilherme:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Simulations hydrauliques d'haute performance dans la Grille avec Java et ProActive

L'optimisation de la distribution de l'eau est un enjeu crucial qui a déjà été ciblé par de nombreux outils de modélisation. Des modèles utiles, implémentés il y a des décennies, ont besoin d'évoluer vers des formalismes et des environnements informatiques plus récents. Cette thèse présente la refonte d'un ancien logiciel de simulation hydraulique (IRMA) écrit en FORTRAN, qui a été utilisé depuis plus de 30 ans par la Société du Canal de Provence, afin de concevoir et maintenir les réseaux de distribution d'eau. IRMA a été développé visant principalement pour le traitement des réseaux d'irrigation - en utilisant le modèle probabiliste d'estimation de la demande de Clément - et il permet aujourd'hui de gérer plus de 6.000 km de réseaux d'eau sous pression. L'augmentation de la complexité et de la taille des réseaux met en évidence le besoin de moderniser IRMA et de le réécrire dans un langage plus actuel (Java).

Cette thèse présente le modèle de simulation implémenté dans IRMA, y compris les équations de perte de charge, les méthodes de linéarisation, les algorithmes d'analyse de la topologie, la modélisation des équipements et la construction du système linéaire. Quelques nouveaux types de simulation sont présentés: la demande en pointe avec une estimation probabiliste de la consommation (débit de Clément), le dimensionnement de pompe (caractéristiques indicées), l'optimisation des diamètres des tuyaux, et la variation de consommation en fonction de la pression. La nouvelle solution adoptée pour résoudre le système linéaire est décrite et une comparaison avec les solveurs existants en Java est présentée.

La validation des résultats est réalisée d'abord avec une comparaison entre les résultats obtenus avec l'ancienne version FORTRAN et la nouvelle solution, pour tous les réseaux maintenus par la Société du Canal de Provence. Une deuxième validation est effectuée en comparant des résultats obtenus à partir d'un outil de simulation standard et bien connu (EPANET). Concernant les performances de la nouvelle solution, des mesures séquentielles de temps sont présentées afin de les comparer avec l'ancienne version FORTRAN. Enfin, deux cas d'utilisation sont présentés afin de démontrer la capacité d'exécuter des simulations distribuées dans une infrastructure de grille, utilisant la solution ProActive. La nouvelle solution a déjà été déployée dans un environnement de production et démontre clairement son efficacité avec une réduction significative du temps de calcul, une amélioration de la qualité des résultats et une intégration facilitée dans le système d'information de la Société du Canal de Provence, notamment la base de données spatiales.


Abstract :

Optimization of water distribution is a crucial issue which has been targeted by many modeling tools. Useful models, implemented several decades ago, need to be updated and implemented in more powerful computing environments. This thesis presents the redesign of a legacy hydraulic simulation software (IRMA) written in FORTRAN that has been used for over 30 years by the Société du Canal de Provence in order to design and to maintain water distribution networks. IRMA was developed aiming mainly the treatment of irrigation networks – by using the Clément demand model and is now used to manage more than 6.000 km of piped networks. The growing complexity and size of networks requested to update IRMA and to rewrite the code by using modern tools and language (Java).

This thesis presents IRMA's simulation model, including its head loss equations, linearization methods, topology analysis algorithms, equipments modeling and the linear system construction. Some new specific simulation features are presented: scenarios with probabilistic demands (Débit de Clément), pump profiling, pipe sizing, and pressure driven analysis. The new adopted solution for solving the linear system is described and a comparison with the available Java solvers is presented.

The validation of results is achieved with a comparison between the previous FORTRAN results of all networks maintained by the Société du Canal de Provence and the values obtained using the new solution. A second validation is performed by comparing the results obtained from a standard and well-known simulation tool (EPANET). Regarding the performance of the new solution, a sequential benchmark comparing with the former FORTRAN version is presented. Finally, two use cases are presented in order to demonstrate the capability of executing distributed simulations in a Grid infrastructure, using the ProActive solution. The new solution has been already deployed in a production environment and demonstrates clearly its efficiency with a significant reduction of the computation time, an improved quality of results and a transparent integration with the company's modern software infrastructure (spatial databases).

   Jury :

Jocelyne ERHEL - INRIA Rennes (rapporteur)
Pierre-Olivier MALATERRE - CEMAGREF Montpellier (rapporteur)
Olivier PILLER - CEMAGREF Bordeaux (co-rapporteur)
Yann VIALA - Société du Canal de Provence (examinateur)
Philippe GOURBESVILLE - Université de Nice (president)
Denis CAROMEL - Université de Nice (directeur)

15/12/2011
10h30
Legrand Virginie
Sophia-Antipolis / France
Une approche à composant pour l’orchestration de services à large échelle / A component based approach for large-scale service orchestration
Résumé    [ Annexes ]      [ URL ]
INRIA Sophia-Antipolis, Salle EULER Violet

Legrand Virginie:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Cette thèse s’intéresse à l’orchestration de services répartie, résultat (1) d’une approche explicite de découpage d’une orchestration en sous-orchestrations localisées sur des sites physiques distants à des fins de protection de données par exemple, ou (2) d’une approche constructive issue du regroupement d’orchestrations existantes potentiellement hétérogènes, afin de constituer une orchestration globale mais répartie. Les orchestrations de services reflètent des processus métiers, souvent de longue durée, et qui doivent donc pouvoir être adaptables dynamiquement à l’exécution. Cette thèse propose un support d’exécution pour des orchestrations réparties, hétérogènes, dynamiquement reconfigurables, et permettant une administration globale. Une orchestration de services peut être abordée selon ses deux dimensions : temporelle qui reflète l’enchainement des services dans le temps, spatiale qui reflète les services que l’orchestration a besoin d’invoquer afin de s’exécuter. Nous proposons ainsi un nouveau modèle à composants pour les applications orientées services, inspiré en partie de SCA et de SCA/BPEL, mais permettant de représenter ces deux dimensions. Notre approche se fonde sur un modèle de composants logiciels répartis et dynamiquement reconfigurables, et hérite donc des qualités de répartition et de reconfiguration dynamique. Nous décrivons une mise en oeuvre au-dessus de l’implémentation du modèle "Grid Component Model" sur la plateforme de programmation répartie à objets actifs "ProActive". Nous validons notre approche expérimentalement via une application à services d’installation et d’administration d’un parc de passerelles basées sur OSGi.

Abstract :

This thesis focuses on the distributed orchestration of services, resulting (1) from an explicit decomposition of an orchestration into sub-orchestrations, located on physical remote sites to ensure protection of data for example, or (2) from a constructive approach whereby existing and possibly heterogeneous orchestrations are coupled in order to build a global and still distributed orchestration. Service orchestrations reflect business processes, sometimes lasting long, which thus have to be reconfigurable at runtime. This thesis introduces an execution support for distributed, heterogenous, dynamically reconfigurable orchestrations, while enabling a global management. A service orchestration can be considered along its two associated dimensions : temporal reflecting the chain of service invocations during time, spatial which makes it explicit which services are needed to be invoked in order for the orchestration to take place. We thus promote a new model, based upon a software component approach, for service oriented applications, inspired partly from SCA and SCA/BPEL, but allowing to represent and manipulate these two dimensions at once. Our approach grounds upon a model for software components which are distributed and dynamically adaptable, thus inheriting from these qualities of distribution and dynamic reconfiguration. We describe an implementation of our model using the "Grid Component Model" reference implementation on top of the distributed active objects library named "ProActive". We validate experimentally our approach through a service based application for the installation and management of a park of OSGi gateways.

   Jury :

Johann MONTAGNAT CNRS, France Président
Didier DONSEZ Université Joseph Fourier, Grenoble, France Rapporteur
François CHAROY Université Henri Poincaré, Nancy, France Rapporteur
Nicolas SALATGÉ Petals Links, Toulouse, France Examinateur
Françoise BAUDE Université de Nice-Sophia Antipolis, France Directrice
Philippe MERLE LIFL, Lille, France Co-directeur

12/12/2011
10h
KAMMOUN Aymen
Sophia-Antipolis / France
Contributions dans le domaine de l'analyse multirésolution de maillages surfaciques semi-réguliers. Application à la compression géométrique
Résumé    [ Annexes ]      [ URL ]
salle de conference I3S

KAMMOUN Aymen:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Les travaux développés dans cette thèse portent sur l'amélioration des performances des codeurs géométriques pour les maillages triangulaires. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage triangulaire. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L'objectif de nos travaux est de proposer de nouvelles approches pour le remaillage semi-régulier et des améliorations des transformées en ondelettes existantes. Le but du remaillage semi-régulier est de rendre l'échantillonnage plus régulier et de modéliser l'objet avec une structure multirésolution. Ceci permettra par la suite d'utiliser facilement et efficacement des transformées en ondelettes. Ces transformées en ondelettes offrent une plus grande finesse au niveau de l'analyse du signal et permettent de mieux s'adapter aux propriétés locales des maillages surfaciques. Nous avons alors proposé une nouvelle approche basée Voronoï pour le remaillage semi-régulier des objets statiques. Nous avons aussi proposé une nouvelle approche basée sur des techniques de remaillage statique pour le remaillage des animations 3D. Pour améliorer les transformées en ondelettes existantes, nous avons proposé de modifier les filtres utilisés afin de maximiser la parcimonie des coefficients d'ondelettes tout en respectant certaines propriétés (bi-orthogonalité, moment d'ordre 1 nul). Nous avons aussi proposé une analyse spatio-temporelle pour les animations 3D, ainsi qu'une allocation débit optimale adaptée à cette analyse.

Abstract:

The context of this thesis is the improvement of the performance of geometry coders for triangular meshes. Some works consider that geometry is the most important component of triangular meshes. Geometry coders include remeshing technique and wavelet transform providing efficient multiresolution analysis. The goal of our works is to propose new approaches for semi-regular remeshing and to improve existing wavelet transforms. The goal of the semi-regular remeshing is to make the geometry sampling more regular and to model the object with a multiresolution structure. This will allow an easy and efficient use of wavelet transforms. These transforms provide a finer level of analysis of the signal and allow a better adaptability to the local properties of triangular meshes. In our works, we first proposed an original semi-regular remeshing scheme based on Voronoi for static objects. We also proposed an approach for remeshing 3D animations. Furthermore, to improve the existing wavelet transforms, we proposed to modify the classical filters in order to maximize the sparsity of the coefficients, while respecting some specific properties such as bi-orthogonality or vanishing first order moment. We also proposed a spatio-temporal analysis for 3D animations, and an optimal bit-allocation adapted to the proposed analysis.

   Jury de la thèse :
Rapporteurs : M. Titus Zaharia - Professeur - TELECOM SudParis
Mme. Amel Benazza - Professeur - SUP'COM Tunisie
Directeur : M. Marc Antonini - Directeur de recherche - I3S
Co-encadrant : M. Frédéric Payan - Maître de conférence - I3S
Examinateurs : M. Mohamed Daoudi - Professeur - Telecom Lille1
M. Basile Sauvage - Maître de conférence - Université de Strasbourg

07/12/2011
10h15
Ferry Nicolas
Sophia-Antipolis (France)
Adaptations dynamiques au contexte en informatique ambiante : propriétés logiques et temporelles
Résumé    [ Annexes ]     
salle de conference I3S

Ferry Nicolas:
  Laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   En informatique ambiante, les applications sont construites en faisant interagir entre eux des objets informatisés et communicants appelés dispositifs. Parce que ces dispositifs peuvent être mobiles ou subir des pannes, cette infrastructure évolue dynamiquement et de manière imprévisible. Aussi, pour s'insérer de manière transparente dans leur environnement et fournir les fonctionnalités attendues par les utilisateurs, bien souvent plus pérennes que l'environnement sur lequel elles reposent, les applications doivent s'adapter dynamiquement à ces évolutions. Ces phénomènes variables poursuivant leur propre dynamique, le défi proposé aux mécanismes d'adaptation est d'être capable de les prendre en compte, avec une dynamique adaptée à chacun d'entre eux.

Dans cette optique, nous proposons un modèle architectural ainsi qu'un mécanisme d'adaptation. Le modèle architectural repose sur quatre niveaux organisés hiérarchiquement en fonction de leur complexité et de la dynamique qu'ils peuvent offrir. Nous lui associons un mécanisme d'adaptation qui, à partir du principe de séparation des préoccupations, permet d'exprimer la variabilité du système. En raison de l'imprévisibilité de l'environnement, les ensembles d'adaptations qui seront déployées par les niveaux supérieurs de l'architecture ne peuvent pas nécessairement être anticipés à la conception. Aussi, grâce à un ensemble de propriétés logiques et temporelles, ces adaptations peuvent être composées de manière non-anticipée dans des temps de réponse adaptés. Le mécanisme d'adaptation proposé, appelé cascade d'aspects, est expérimenté en se basant sur les Aspects d'Assemblages et la plateforme d'exécution WComp.


Abstract

In ubiquitous computing, applications are built as a collaboration of computerized and communicating objects called devices. Because these devices can be mobile or subject to failures, this infrastructure evolves dynamically and unpredictably. Thus, to fit seamlessly into their environment and to provide the functionalities expected by users, which are often more sustainable than the environment, applications must dynamically adapt to these changes. Each of these variable phenomena pursues its own dynamic. The challenge offered to adaptation mechanisms is to be able to consider them, with suitable dynamics.

For this purpose, we propose an architectural model and an adaptation mechanism. The architectural model is based on four levels organized hierarchically according to their complexity and to the dynamics they can offer. We combine to this architectural model an adaptation mechanism. Based on the separation of concerns principle, our mechanism allows us to consider the variability of the system. Due to the unpredictability of the environment, the sets of adaptations that will be deployed by the upper levels of the architecture may not have been anticipated at design time. Also, thanks to some logical and temporal properties, these adaptations can be composed in non-anticipated way and with appropriate response time. The proposed mechanism, called cascaded aspects, is implemented using Aspects of Assembly and the WComp execution platform.

   Composition du jury

Yves DENNEULIN - Professeur, ENSIMAG (rapporteur)
Philippe ROOSE - Docteur H.D.R., IUT de Bayonne (rapporteur)
Pascal ESTRAILLER - Professeur, Université de La Rochelle (président)
Jean-Michel BRUEL - Professeur, Université de Toulouse (examinateur)
Michel RIVEILL - Professeur, Université de Nice (directeur)
Stéphane LAVIROTTE - Docteur, Université de Nice (co-directeur)
Jean-Yves TIGLI - Docteur, Université de Nice (invité)
Eric PASCUAL - Ingénieur, CSTB (invité)

07/12/2011
14h
Meftah Anis
Sophia-Antipolis / France
[ La soutenance se déroulera à huis clos ]Compression et codage scalable d'objets 3D pour leur visualisation et manipulation sur des systèmes hétérogènes
Résumé    [ Annexes ]      [ URL ]
salle de conference I3S

Meftah Anis:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Avec les évolutions technologiques, l'industrie de l'imagerie 3D a des besoins de qualité de rendu de plus en plus grandissants, ce qui implique une augmentation des volumes de données à stocker ou à transmettre. Dans ce contexte, cette thèse porte sur le traitement des objets 3D dit "out-of-core" c'est à dire qui ne peuvent pas être chargés totalement en mémoire à cause de leurs grandes tailles. L'enjeu est de proposer de nouvelles techniques pour la manipulation, visualisation et la compression de ce type de données. Nous proposons des méthodes génériques au fil de l'eau permettant un traitement local au fur et à mesure de la lecture ou de l'acquisition de ces objets 3D.
Dans une première partie, cette thèse se concentre sur le traitement multirésolution des maillages surfaciques 3D et plus précisément sur les trois aspects suivants : la compression, la mesure de qualité et la visualisation. Les techniques proposées sont très puissantes et permettent la manipulation des objets "out-of-core" composés de plusieurs milliards de polygones sur des ordinateurs standards avec un minimum de ressources.
Dans une deuxième partie, nous nous focalisons sur le traitement des objets 3D voxéliques. Nous présentons un schéma de compression au fil de l'eau multirésolution traitant des objets de plusieurs téraoctets de données. Ensuite, nous exploitons les spécicités géométriques des objets 3D, comme par exemple les failles et les horizons dans le domaine sismique, pour améliorer les performances du schéma proposé.

Abstract:
With the latest technological progress, the 3D imaging industry needs to increase more and more the rendering quality, which implies an augmentation in the volume of data stored or transmitted. In this context, this thesis focuses on the processing of 3D out-of-core objects which cannot be entirely loaded into memory because of their huge sizes. The challenge is to introduce new techniques for processing, visualization and compression of such data. We then propose generic scan-based methods, enabling the local processing while reading or scanning the 3D objects.
In the first part, this thesis focuses on the processing of multi-resolution 3D surface meshes and specifically on three main areas : compression, quality measurement and visualization. The proposed techniques are very powerful and allow the manipulation of out-of-core meshes composed of billions of polygons on standard computers with a minimum of resources.
In the second part, we focus on the processing of 3D volume objects. We present a scan-based compression scheme dealing with terabytes of data. Furthermore, we exploit the geometry specificities of 3D objects, such as faults and horizons in seismic field, to improve the performances of the presented scheme.

   Jury de la thèse :
Rapporteurs : Benoît Macq - Université catholique de Louvain
Jean-Marie Moureaux - Université Henri Poincaré
Directeur : Marc Antonini - Université de Nice-Sophia Antipolis
co-directeur : Chokri Ben Amar - Université de Sfax
Examinateurs : Attila Baskurt - Université de Lyon
Mohamed Najim - Université de Bordeaux I
Invité : Jean-Marc Krattli - KAPPA Engineering SA

06/12/2011
16h
Collet Philippe
Sophia-Antipolis / France
Soutenance HDR : Taming Complexity of Large Software Systems: Contracting, Self-Adaptation and Feature Modeling
Résumé    [ Annexes ]      [ URL ]
salle de conference I3S

Collet Philippe:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Our work stands in the field of software engineering for large scale software intensive systems. We aim at providing techniques and tools to help software architects master the ever-increasing complexity of these systems. Using mainly model-driven engineering approaches, our contribution is organised around three axes.
The first axis concerns the developement of reliable and flexible hierarchical component-based systems with dynamic reconfiguration capabililities. Through the use of novel forms of software contracts, the proposed systems and frameworks support several specification formalisms and maintain up-to-date contracts at runtime.
A second part of our work consists in providing self-adaptive capabilities to these contracting systems, through negotiation mechanisms over contracts and self-adaptive monitoring sub-systems.
A third axis is related to software product lines in which feature models are widely used to model variability. Our contribution consists in providing a set of sound and efficiently implemented composition operators for feature models, as well as a dedicated language for their large scale management.

   Jury composé de :

- Betty H.C. CHENG
Professor, Michigan State University, USA : rapporteur
- Ivica CRNKOVIC
Professor, Mälardalen University, Sweden : rapporteur
- Patrick HEYMANS
Professeur, Université de Namur FUNDP, Belgique : rapporteur
- Jean-Claude BERMOND
Directeur de Recherche, CNRS I3S Sophia Antipolis : examinateur
- Laurence DUCHIEN
Professeur, Université de Lille 1 : examinateur
- Philippe LAHIRE
Professeur, Université Nice - Sophia Antipolis : examinateur
- Jacques MALENFANT
Professeur, Université Pierre et Marie Curie, Paris : examinateur

29/09/2011
14h
Madelaine Eric
Sophia-Antipolis / France
Soutenance HDR : Specification, Model-Generation, and Verification of Distributed Applications
Résumé   
INRIA Sophia-Antipolis, salle Euler-Violet

Madelaine Eric:
  INRIA
  Sophia-Antipolis / France

Résumé :

   Depuis 2001 j’ai développé au sein de l'équipe Oasis des travaux de recherche sur la sémantique des applications à base d'objets distribués, appliquant dans le contexte d'un vrai langage, et d'applications de taille réelle, mes recherches précédentes dans le domaine des algèbres de processus. Les différents aspects de ce travail touchent naturellement à la sémantique comportementale, et à la définition de procédures de génération de modèles prenant en compte les différentes facettes de la programmation d’applications distribuées, mais aussi, en amont, à l'analyse statique de code et aux techniques d'abstraction de modèles, et en aval aux outils de vérification de propriétés comportementales.

Je montre dans ce mémoire la complexité de ces recherches et la grande variété des techniques requises. Nous avons mis en place une méthode cohérente basée sur un modèle sémantique très flexible, le modèle pNets (parameterized Networks of automata), qui nous offre un bon compromis entre décidabilité, complexité, et utilisabilité. Cette approche nous a permis de définir une sémantique comportementale pour différents aspects des applications à base d’objets ou de composants distribués, mais aussi une notion d’abstraction vers des modèles abstraits finis, permettant d’utiliser des outils de vérification de type « model-checking ».

L'ensemble de ces aspects a donné lieu à la réalisation de prototypes, dans la plateforme VerCors, et à des cas d’étude de grande taille.


Abstract :

Since 2001, in the Oasis team, I have developed research on the semantics of applications based on distributed objects, applying in the context of a real language, and applications of realistic size, my previous researches in the field of process algebras. The various aspects of this work naturally include behavioral semantics and the definition of procedures for model generation, taking into account the different concepts of distributed applications, but also upstream, static code analysis and model abstraction techniques, and finally model checking tools.

In this thesis I show the complexity of this research and the wide variety of techniques involved. We have established a consistent semantic model based on a very flexible model called pNets (parameterized Networks of automata), which offers a good compromise between decidability, complexity, and usability. This approach allowed us to define semantics for behavioral aspects of object-based or component-based distributed applications, but also a notion of finite abstraction of the behavioral models, opening the use of model-checking tools. All these elements led to the realization of prototypes, in the Vercors platform, and case studies of large size.

   

23/09/2011
9h30
Acher Mathieu
Sophia Antipolis (France)
Managing Multiple Feature Models: Foundations, Language and Applications
Résumé    [ Annexes ]     
salle de conference I3S

Acher Mathieu:
  Laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   L'ingénierie des lignes de produits logiciels (LdPs) est un paradigme pour la modélisation et le développement de familles de systèmes logiciels plutôt que de systèmes logiciels individuels. Son objectif porte sur les moyens de produire et maintenir efficacement des produits logiciels similaires en exploitant ce qu'ils ont en commun et en gérant ce qui varie entre eux. Par analogie, la pratique dans l'industrie automobile est de construire une ligne de production dans laquelle des variations personnalisées mais tout de même similaires de modèles de voitures sont produits.
Les feature models (FMs) sont une représentation fondamentale pour spécifier et raisonner sur la commonalité et la variabilité des LdPs en termes de features (caractéristiques). Les FMs deviennent de plus en plus complexes, manipulés par plusieurs développeurs ou organisations, utilisés pour décrire des features à divers niveaux d'abstraction et qui sont mises en relation de différentes façons. Maintenir un seul gros FM n'est ni réaliste ni souhaitable. Au contraire une tendance forte est de considérer de multiples FMs. Dans cette thèse, nous développons les fondations théoriques et un support pratique pour gérer de multiples FMs.
Nous concevons et développons un ensemble d'opérateurs de composition et de décomposition (aggregate, merge, slice) pour supporter la séparation des préoccupations. Les opérateurs sont formellement définis et implémentés avec un algorithme qui garantie des propriétés sémantiques.
Nous montrons comment les opérateurs de composition et de décomposition peuvent être combinés ensemble ou avec d'autres opérateurs d'édition ou de raisonnement pour réaliser des tâches complexes.
Nous proposons un language textuel, FAMILIAR (pour FeAture Model scrIpt Language for manIpulation and Automatic Reasoning), qui fournit une solution opérationnelle à la gestion de multiples FMs à large échelle. Un utilisateur des FMs peut combiner les différents opérateurs et manipuler un ensemble restreint de concepts (FMs, features, configurations, etc.) en utilisant une notation concise et des facilités linguistiques. FAMILIAR cache les détails d'implémentations (e.g., solveurs) et est supporté par un environnement de développement complet.
Nous décrivons plusieurs applications de ces opérateurs et utilisations de FAMILIAR dans différents domaines (imagerie médicale, vidéo protection) et pour différents objectifs (conception de workflows scientifiques, modélisation de la variabilité des exigences à l'exécution, rétro ingénierie), démontrant l'applicabilité à la fois des opérateurs et du langage de support. Sans les nouvelles capacités fournies par les opérateurs et FAMILIAR, certaines opérations d'analyse et de raisonnement n'auraient pas été possibles dans les différents cas d'études.
Pour conclure, nous discutons les différentes perspectives de recherche à moyen terme (opérateurs, langage, éléments de validation) et à long terme (e.g., relations entre les FMs et les autres modèles).

Abstract :

Software Product Line (SPL) engineering is a paradigm shift towards modeling and developing software system families rather than individual systems.
It focuses on the means of efficiently producing and maintaining multiple similar software products, exploiting what they have in common and managing what varies among them. This is analogous to what is practiced in the automotive industry, where the focus is on creating a single production line, out of which many customized but similar variations of a car model are produced.
Feature models (FMs) are a fundamental formalism for specifying and reasoning about commonality and variability of SPLs.
FMs are becoming increasingly complex, handled by several stakeholders or organizations, used to describe features at various levels of abstraction and related in a variety of ways. In different contexts and application domains, maintaining a single large FM is neither feasible nor desirable. Instead, multiple FMs are now used.
In this thesis, we develop theoretical foundations and practical support for managing multiple FMs. We design and develop a set of composition and decomposition operators (aggregate, merge, slice) for supporting separation of concerns. The operators are formally defined, implemented with a fully automated algorithm and guarantee properties in terms of sets of configurations. We show how the composition and decomposition operators can be combined together or with other reasoning and editing operators to realize complex tasks.
We propose a textual language, FAMILIAR (for FeAture Model scrIpt Language for manIpulation and Automatic Reasoning), which provides a practical solution for managing FMs on a large scale. An SPL practitioner can combine the different operators and manipulate a restricted set of concepts (FMs, features, configurations, etc.) using a concise notation and language facilities. FAMILIAR hides implementation details (e.g., solvers) and comes with a development environment.
We report various applications of the operators and usages of FAMILIAR in different domains (medical imaging, video surveillance) and for different purposes (scientific workflow design, variability modeling from requirements to runtime, reverse engineering), showing the applicability of both the operators and the supporting language. Without the new capabilities brought by the operators and FAMILIAR, some analysis and reasoning operations would not be made possible in the different case studies.
To conclude, we discuss different research perspectives in the medium term (regarding the operators, the language and validation elements) and in the long term (e.g., relationships between FMs and other models).

   Jury :
* Krzysztof Czarnecki, Professeur, University of Waterloo (Canada),rapporteur
* Jean-Marc Jézéquel, Professeur, Université de Rennes 1 (France),rapporteur
* Robert De Simone, Directeur de Recherche, INRIA Sophia Antipolis(France), examinateur
* Patrick Heymans, Professeur, University of Namur (Belgium), examinateur
* Robert B. France, Professeur, Colorado State University (USA), examinateur
* Philippe Lahire, Professeur, Université Nice Sophia Antipolis,co-directeur
* Philippe Collet, Maître de Conférences, Université Nice Sophia Antipolis, co-directeur

09/09/2011
10h30
Angelino Cesasrio Vincenzo
Sophia Antipolis / France
Information Theory Oriented Image Restoration
Résumé    [ Annexes ]     
salle de conference I3S

Angelino Cesasrio Vincenzo:
  Laboratoire I3S
  Sophia Antipolis / France

Résumé :

   Cette thèse aborde la formulation par la théorie de l?information des problèmes de traitement d?image. Cette formulation exprime la solution au travers de la minimisation d?une énergie. Ces énergies appartiennent à la classe non paramétrique au sens où elles ne font aucune hypothèse paramétrique sur la distribution des données. Les ´energies sont exprimées directement en fonction des données considérées comme des variables aléatoires. Toutefois, l?estimation non paramétrique classique repose sur des noyaux de taille fixe moins fiables lorsqu?il s?agit de données de grande dimension. En particulier, des méthodes récentes dans le traitement de l?image dépendent des données de type ?patch? correspondant à des vecteurs de description de modèles locaux des images naturelles, par exemple, les voisinages de pixels. Le cadre des k-plus proches voisins résout ces difficultés en s?adaptant localement à la distribution des données dans ces espaces de grande dimension. Sur la base de ces prémisses, nous développons de nouveaux algorithmes qui s?attaquent principalement à deux problèmes du traitement de l?image : la déconvolution et le débruitage. Le problème de la restauration est d´evelopp´e dans les hypoth`eses d?un bruit blanc gaussien additive puis successivement adaptés à domaines tels que la photographie numérique et le débruitage d?image radar (SAR). Le schéma du débruitage est également modifié pour définir un algorithme d?inpainting.


Résumé en Anglais :

This thesis addresses informational formulation of image processing problems. This formulation expresses the solution through a minimization of an information-based energy. These energies belong to the nonparametric class in that they do not make any parametric assumption on the underlying data distribution. Energies are expressed directly as a function of the data considered as random variables. However, classical nonparametric estimation relies on fixed-size kernels which becomes less reliable when dealing with high dimensional data. Actually, recent trends in image processing rely on patch-based approaches which deal with vectors describing local patterns of natural images, e. g., local pixel neighborhoods. The k-Nearest Neighbors framework solves these difficulties by locally adapting the data distribution in such high dimensional spaces. Based on these premises, we develop new algorithms tackling mainly two problems of image processing: deconvolution and denoising. The problem of denoising is developed in the additive white Gaussian noise (AWGN) hypothesis and successively adapted to no AWGN realm such as digital photography and SAR despeckling. The denoising scheme is also modified to propose an inpainting algorithm.

   Jury de la thèse :

Prof. Philippe Salembier (Rapporteur)
Prof. Luigi Paura (Rapporteur)
Prof. Giovanni Poggi (Examinateur)
Prof. Michel Barlaud (Directeur de thèse)
Dr. Eric Debreuve (Co-Directeur de thèse)

07/02/2011
14h00
Filali Imen
Sophia Antipolis (France)
Improving Resource Discovery in P2P Systems
Résumé    [ Annexes ]     
salle Euler Violet à l'INRIA Sophia Antipolis

Filali Imen:
  Laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   Le modèle de communication pair-à-pair a beaucoup attiré l’attention dans les dernières années car il est considéré comme un paradigme puissant pour déployer et exécuter des applications distribuées à grande échelle. Dans ce contexte, le problème de découverte de ressources, c’est-à-dire la recherche d’une ressource donnée répondant aux besoins de l’application constitue un aspect critique dans les systèmes pair-à-pair. Cette thèse se concentre sur la recherche de ressources dans les systèmes pair-à-pair non structurés ainsi que structurés. Dans la première partie de cette thèse, nous proposons un algorithme de découverte de ressources dans un environnent non structuré qui ajuste l’horizon de la requête dynamiquement dans le but de retrouver les ressources demandées d’une manière efficace. La deuxième partie porte sur la conception et l’implémentation d’une architecture pair-à-pair hiérarchique ayant pour but le stockage et la recherche de ressources sémantiques à grande échelle. Cette infrastructure combine le modèle pair-à-pair au niveau de l’architecture elle même et le modèle RDF au niveau de la représentation des données.

Abstract

The Peer-to-Peer (P2P) communication model has drawn much attention in the last few years and has been emerged as a powerful paradigm to build large scale distributed applications. Resource discovery constitutes a critical aspect of P2P systems; it involves the matching of the user’s application requirements to available resources. The thesis focuses on the resource discovery in P2P systems encompassing unstructured and structured P2P overlays. In the first part of this work, we have concentrated on resource discovery in unstructured P2P systems. We have proposed and evaluated a novel algorithm for resource location in unstructured P2P networks that dynamically adjust the query horizon in order to efficiently locate the required resources. The second part of the thesis deals with the design and the implementation of a hierarchical P2P semantic space infrastructure aiming at the distributed storage and retrieval of the semantic data at large scale. This infrastructure combines the strengths of both P2P paradigm at the architectural level and the Resource Description Framework (RDF) data model at the knowledge representation level. While the P2P communication model addresses the system complexity by allowing flexible and decentralized resource storage and processing, the semantic web technologies, on the other hand, address the problem of information complexity by providing advanced support for data presentation and querying.

   Jury

Guillaume Urvoy-Keller, I3S (président du Jury)
Abdelkader Hameurlain, IRIT- Université de Paul Sabatier (rapporteur)
Pierre Kuonen, University of Applied Sciences of Western Switzerland, Fribourg (rapporteur)
Françoise Baude, Université de Nice-Sophia Antipolis (directrice de thèse)
Fabrice Huet, Université de Nice-Sophia Antipolis (Co-directeur de thèse)

27/01/2011
13h30
MAHESHWARI Ketan
Sophia-Antipolis (France)
Data-intensive Scientific Workflows: Representations of Parallelism and Enactment on Distributed Systems
Résumé    [ Annexes ]     
salle de conference I3S

MAHESHWARI Ketan:
  Laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Le portage d'applications manipulant de grandes masses de données sur des infrastructures de calcul distribué à grande échelle est un probl\`{e}me difficile. Combler l'écart entre l'application et sa description sous forme de workflow soul\`{e}ve des défis à différents niveaux. Le défi au niveau de l'utilisateur final est le besoin d'exprimer la logique de l'application et des dépendances de flots de données dans un domaine non-technique. Au niveau de l'infrastructure, il s'agit d'un défi pour le portage de l'application sur infrastructures à grande échelle en optimisant l'exploitation des ressources distribuées.

Les workflows permettent le déploiement d'applications distribuées gr\^{a}ce à la représentation formelle de composants les constituant, de leurs interactions et des flots de données véhiculés. Cependant, la description de workflows et leurs gestionnaires d'exécution nécessitent des améliorations pour relever les défis mentionnés. Faciliter la description du parallélisme sous une forme concise, la combinaison des données et des structures de données de haut niveau de mani\`{e}re cohérente est nécessaire. Cette th\`{e}se vise à satisfaire ces exigences.
Partant du cas d'utilisation de traitement d'images médicales, plusieurs stratégies sont développées afin d'exprimer le parallélisme et l'exécution asynchrone de workflows complexes en fournissant une expression concise et un gestionnaire d'exécution interfacé avec des infrastructures à grande échelle.

Les contributions principales de cette th\`{e}se sont: a) Un langage riche de workflows disposant de deux représentations. L'exécution des applications de traitement d'images médicales décrites avec ce langage sur la grille de calcul européenne (EGI) donne des résultats expérimentaux fructueux. b) Une extension d'un environnement d'exécution existant de flots applicatifs (Taverna) pour permettre l'exécution de l'application sur les infrastructures à grande échelle.


Résumé en Anglais:

Porting data-intensive applications on large scale distributed computing infrastructures is not trivial.

Bridging the gap between application and its workflow expression poses challenges at different levels. The challenge at the end-user level is a need to express the application's logic and data flow requirements from a non-technical domain. At the infrastructure level, it is a challenge to port the application such that a maximum exploitation of the underlying resources can takes place.

Workflows enable distributed application deployment by recognizing the application component's inter-connections and the flow among them.

However, workflow expressions and engines need enhancements to meet the challenges outlined. Facilitation of a concise expression of parallelism, data combinations and higher level data structures in a coherent fashion is required. This work targets to fulfill these requirements. It is driven by the use-cases in the field of medical image processing domain. Various strategies are developed to efficiently express asynchronous and maximum parallel execution of complex flows by providing concise expression and enactments interfaced with large scale distributed computing infrastructures.

The main contributions of this research are: a) A rich workflow language with two-way expression and fruitful results from the experiments carried out on enactment of medical image processing applications workflows on the European Grid Computing Infrastructure; and b) Extension of an existing workflow environment (Taverna) to interface with the Grid Computing Infrastructures.

   Jury de la thèse:

M. Frédéric DESPREZ --rapporteur
Mme. Françoise BAUDE --examinateur
M. Hugues BENOIT-CATTIN --rapporteur
M. Tristan GLATARD --examinateur
M. Johan MONTAGNAT --directeur

21/01/2011
10h
RIBAULT Judicael
Sophia-Antipolis (France)
Reuse and Scalability in Modeling and Simulation Software Engineering
Résumé    [ Annexes ]     
INRIA Sophia-Antipolis, salle Euler Violet

RIBAULT Judicael:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   L'étude d'un système à l'aide de simulations informatiques à événements discrets implique plusieurs activités: spécification du modèle conceptuel, description de l'architecture logicielle du modèle, développement du logiciels, scénarisation de la simulation, instrumentation, planification d'expérimentation, configuration des ressources de calcul, exécution, post-traitement et analyse, validation et de vérification (V&V). De nombreux éléments logiciels sont requis pour remplir toutes ces activités. Toutefois, il est fréquent de créer un nouveau simulateur à partir de rien quand on commence une étude à l'aide de simulation. Dans ce cas il est nécessaire de développer de multiples outils prenant en charge les activités de la simulation.
Cette thèse aborde le défi de la création de nouveaux simulateurs tout en réutilisant des modèles et des outils provenant d'autres simulateurs. En effet, la réutilisation de logiciel augmente la fiabilité, est moins sujette aux erreurs, permet une meilleure utilisation des expertises complémentaires, améliore la conformité aux normes, et accélère le développement. La réutilisation de logiciels peut être appliquée à toutes les activités de la simulation. Plusieurs problèmes doivent être résolus pour tirer pleinement profit de la réutilisation. Dans cette thèse, nous abordons trois questions principales: Tout d'abord, nous étudions les solutions pratiques de réutilisation permettant de combiner un ensemble choisi d'éléments logiciels utiles pour la modélisation et la simulation, en incluant aussi bien les modèles, les moteurs de simulation, les algorithmes et les outils; Deuxièmement, nous nous concentrons sur les questions liées à l'instrumentation; Troisièmement, nous étudions le problème de l'intégration d'élément logiciels provenant d'autres simulateurs dans un nouveau simulateur. Pour atteindre ces objectifs, nous étudions des techniques de pointe en génie logiciel comme le génie logiciel à base de composants (CBSE), la modélisation par couches et la programmation orientée aspect.

Abstract:

Studying a system using discrete-event computer simulations implies several activities: conceptual model specification, software model architecture description, software development, simulation scenario, instrumentation, experimentation planning, computationnal, resources configuration, execution, post-processing and analysis, validation and verification (V&V). Many software are required to complete all these activities. However, it is common to create a simulator from scratch when we start a simulation study. It is therefore necessary to redevelop a whole suite of tools to ensure support for all simulation activities.
This thesis addresses the challenge of developing new simulators while reusing existing models and simulator parts. Indeed, reusing software increases dependability, is less error prone, makes better use of complementary expertises, improves standards compliance, and accelerates development. Reusing software can be applied to all simulation activities. Several problems have to be solved to derive full benefit of reuse. In this thesis, we adress three major issues: Firstly, we investigate practical means of reusing and combining valuable pieces of modeling and simulation software at large, including models, simulation engines and algorithms, and supporting tools for the modeling and simulation methodology; Secondly, we focus on issues related to instrumentation; Thirdly, we focus on problems of integration of existing simulation tools. To achieve these objectives, we investigate advanced software engineering techniques such as component-based software engineering (CBSE), layered patterns and aspect-oriented programming.

   Le Jury :

Mr Michel Riveill, Professeur des universités - Université Nice Sophia Antipolis - Président
Mme Adelinde Uhrmacher, Professor - University of Rostock, Germany - Rapporteur
Mr Gabriel Wainer, Associate Professor - Carleton University, Canada - Rapporteur
Mr Lionel Seinturier, Professeur des universités - Université Lille 1 - Rapporteur
Mr David Hill, Professeur des universités - Université Blaise Pascal - Examinateur
Mr Denis Conan, Maître de conférences - Institut Télécom, Télécom SudParis - Examinateur
Mr Jean-Claude Bermond, Directeur de Recherche CNRS - I3S, UMR6070, UNS CNRS - Directeur de thèse
Mr Olivier Dalle, Maître de conférences - Université Nice Sophia Antipolis - Co-Directeur de thèse

21/01/2011
15h
MAUREIRA Juan-Carlos
Sophia-Antipolis (France)
Internet on Rails
Résumé    [ Annexes ]     
INRIA Sophia-Antipolis, salle Euler Violet

MAUREIRA Juan-Carlos :
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Cette thèse propose une nouvelle méthode pour fournir une connexion réseau à des véhicules au cours de trajets prédéterminés (trains, métros, autobus urbains, etc...). La communication entre le véhicule et l'infrastructure réseau est basée uniquement sur la technologie WiFi. Les contributions de ce travail sont d'une part la conception d'une méthode pour réaliser le handover horizontal (entre bornes WiFi), et d'autre part la modélisation et l'analyse de topologies pour le réseau d'infrastructure (réseau backbone plus réseau d’accès WiFi) déployé sur la trajectoire du véhicule. Dans une première partie, nous proposons une méthode, appelée Spiderman Handover, pour réaliser le handover horizontal d'un réseau en mouvement (embarqué dans le véhicule) et une procédure de mise à jour des informations de routage (couche 2 OSI) lors du handover. Nous évaluons notre proposition par simulation et validons nos résultats par des mesures expérimentales. Dans une deuxième partie, nous étudions théoriquement les paramètres de plusieurs familles de topologies du type Chordal pour le réseau backbone construit sur un réseau d'accès linéaire. À partir de la comparaison de ces paramètres, nous proposons une topologie backbone issue de la combinaison de deux topologies Chordal. Cette topologie fournit un bon compromis entre coût du déploiement, nombre de sauts nécessaires pour atteindre la passerelle du réseau et résilience raisonnable. Enfin, nous évaluons l'intégration de la topologie proposée pour le réseau d'infrastructure avec le système handover par des simulations. Les résultats présentés suggèrent que l'algorithme de handover proposé fonctionne correctement sur le réseau d'infrastructure proposé. Cela permet la garantie d'une connexion continue aux passagers à bord des trains, métros ou autobus urbains.


Abstract

This thesis proposes a new method for providing network connectivity to vehicles over a predefined trajectory (trains, metros, urban buses, etc...). The communication between the vehicle and the infrastructure network is based only on WiFi technology. The contributions of this work are two-fold: 1) the horizontal handover (between WiFi access points) and 2) the design and analysis of a infrastructure network (backbone network plus WiFi access network) deployed along the trajectory of the vehicle.

In the first contribution, we propose a handover scheme, called Spiderman Handover, which performs the horizontal handover for an in-motion network (on-board the vehicle) considering a procedure to update the routing information of a bridged infrastructure network (OSI layer 2) when performing the handover. We evaluate our proposal by means of simulation and we validate our results by experimental measurements.

In the second contribution, we study theoretically the parameters of several chordal like topologies in order to build a backbone network for a linear access network. By comparing these parameters, we propose a backbone network composed by a combination of two chordal topologies. This backbone network provides a good balance between their deployment cost, number of hops to the gateway of the network and a reasonable resilience.

Finally, We evaluate the integration of this infrastructure network and the handover scheme by means of simulations. Results showed the proposed handover scheme works properly on the proposed infrastructure network, allowing the provision of a continuous network connectivity to passengers on-board trains, metros or urban buses.

   Le jury:

- Marion BERBINEAU, Directrice de Recherche - IFFSTTAR-LEOST (rapporteur)
- Bertrand DUCOURTHIAL, Professeur - Université de Technologie de Compiègne ( (rapporteur)
- Felipe PERRONE, Associate Professor - Bucknell University (rapporteur, absent pour la soutenance)
- Jean-Claude BERMOND, Directeur de Recherche - CNRS, MASCOTTE (directeur de thèse)
- Olivier DALLE, Maître de Conférences - U. Nice Sophia, Mascotte (directeur de thèse)
- Gabriel WAINER, Associate Professor - Carleton University.
- Jorge AMAYA, Associate Researcher - Universidad de Chile (CMM). (directeur de thèse)
- Frédéric GIROIRE, Chargé de Recherche - CNRS, Mascotte

18/01/2011
10h
PIRO Paolo
Sophia-Antipolis (France)
Learning Prototype-based Classification Rules in a Boosting Framework: Application to Real-World and Medical Image Categorization
Résumé    [ Annexes ]     
salle de conference

PIRO Paolo:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   


Abstract :

In this PhD thesis we address automatic indexing and classification of images.
First of all, we describe our original SMP image descriptor, which represents the texture information at different resolution levels sparsely.
Then, we address the problem of how to efficiently perform the k-nearest neighbor search with respect to the broad class of Bregman divergences (symmetrized or not).
The core part of the thesis is devoted to improve instance-based classification methods like the k-NN rule in a boosting framework. We first describe our UNN one-versus-all learning method, which brings the boosting principle into prototype-based classification, by defining prototypes as weak classifiers to be induced via the minimization of a risk functional.
Then, we describe our inherently multiclass MLNN algorithm, that relies on generic density estimation kernels for better classification precision. The main practical advantage of our method is to considerably reduce the size of the prototype set to be used at classification time, by rejecting "noisy" prototypes, thus enabling better precision at a reduced computational cost.
We validated our novel approach on some well-known real-world image datasets, which contain from 8 to 15 challenging categories. Experiments show that the proposed method improves over the state-of-the-art prototype-based classification significantly, while comparing favourably with the best performing methods in terms of computational complexity. We also applied our method to the challenging problem of medical image classification, particularly focusing on the body part recognition in radiographic images.

   Jury :

M. Luigi Cordella, Professeur à l'Université "Federico II" de Naples (Rapporteur)
M. Patrick Pérez, Directeur de recherche INRIA (Rapporteur)
M.me Cordelia Schmid, Directeur de recherche INRIA (Examinateur)
M. Francesco Tortorella, Professeur à l'Université de Cassino (Examinateur)
M. Giulio Iannello, Professeur à l'Université Campus Bio-Medico de Rome (Directeur en co-tutelle)
M. Michel Barlaud, Professeur à l'Université de Nice-Sophia Antipolis (Directeur de thèse)

20/12/2010
9h30
MEJDOUB Mahmoud
Sophia-Antipolis (France)
Indexation sémantique des images basées sur les réseaux réguliers de points
Résumé    [ Annexes ]     
salle de conference

MEJDOUB Mahmoud :
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Face au rythme de croissance des volumes des contenus numériques, le développement des méthodes pour l'indexation et la recherche de ces contenus devient une nécessité. Dans cette thèse, nous nous intéressons aux approches de quantification vectorielle produisant des représentations et des structurations automatiques du contenu visuel des images. Pour commencer, nous nous penchons sur le problème de la description visuelle du contenu afin de fournir une représentation efficace des images. Pour cela, nous utilisons une représentation par sacs de mots visuels basée sur un algorithme de quantification vectorielle flou. Cette représentation permet de décrire localement les images et d'obtenir une représentation plus fine des descripteurs de bas niveau. Les zones locales sélectionnées dans l'image sont aussi bien les zones de variation représentées par les points d'intérêts que les zones homogènes. Le grand nombre de descripteurs locaux qu'on peut obtenir, requiert des outils efficaces pour qu'ils soient exploitables convenablement. Pour cela, nous proposons une nouvelle structure d'indexation: "l'arbre de lattices emboîtés", basée sur la quantification vectorielle par réseau régulier de points. Celui-ci est utilisé aussi bien pour l'accélération de la recherche des k plus proches voisins que pour l'amélioration de la qualité de la classification sémantique des images.


Abstract :

With the growth of digital content volumes, the development of methods for indexing and searching this content becomes a necessity. In this thesis, we are focused on lattice vector quantization approach since its ability to provide an effective automatic structuring of image visual feature vectors. The features extraction step is based on local descriptors obtained by the bag of words technique. Local areas selected in the image correspond to both salient points and homogeneous patches. The large number of local descriptors that can be obtained requires effective tools to organize them. In this sense, we propose a new indexing structure: the "embedded lattices tree" based on lattice vector quantization. The proposed approach is used both to accelerate the k nearest neighbours search and to improve the quality of semantic image classification.

   Le jury est composé de :

*Mr Michel BARLAUD, Professeur, Polytech'Nice, Université de Nice-Sophia Antipolis (président)
*Mme Nozha BOUJEMAA, Professeur, INRIA PARIS ROCQUENCOURT (rapporteur)
*Mme Amel BENAZZA-BENYAHIA, Professeur, SUP'COM Tunis (rapporteur)
*Mr Adel Mohamed ALIMI, Professeur, Ecole Nationale des ingénieurs de Sfax (examinateur)
*Mr Marc ANTONINI, Directeur de Recherche, CNRS, UNSA, (directeur de thèse)
*Mr Chokri BEN AMAR, Professeur, Ecole Nationale des ingénieurs de Sfax (directeur de thèse)

20/12/2010
14h30
BOULFANI-CUISINAUD Yasmine
Sophia-Antipolis (France)
Compression au fil de l'eau de séquences de maillages 3D par analyse multirésolution
Résumé    [ Annexes ]     
salle de conference

BOULFANI-CUISINAUD Yasmine:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   De nos jours, les maillages 3D dynamiques sont de plus en plus exploités dans de nombreux domaines, comme la médecine, les jeux vidéo, le cinéma, etc. Ces contenus 3D requièrent un espace mémoire important, la compression reste donc une technique indispensable pour traiter ces données 3D. Nous proposons dans cette thèse deux approches de compression géométrique de maillages 3D dynamiques au fil de l’eau par analyse multirésolution. Comme première approche de compression, le codeur TWC (Temporal Wavelet Coding) est proposé, incluant une transformée en ondelettes temporelle mise en oeuvre au moyen d’un schéma lifting, où plusieurs schémas lifting ont été testés. Les sous-bandes de la transformées en ondelettes sont codées avec une technique basée sur une allocation binaire, proposée dans les travaux de l’équipe, permettant d’obtenir les pas de quantification optimaux, selon un critère débit/distorsion.
En deuxième approche de compression, le codeur appelé MCTWC (Motion Compensated Temporal Wavelet Coding) est proposé, s’appuyant sur la transformée en ondelettes incluant une compensation du mouvement, un codage arithmétiques des matrices de mouvement et des partitions des maillages animés, et un codage des sous-bandes par le codeur basé sur l’allocation binaire.
Une technique de segmentation automatique au sens du mouvement est proposée, consistant à regrouper dans des parties (clusters) les sommets qui suivent le même mouvement affine, sous la contrainte de la minimisation de l’erreur de compensation de mouvement. Une estimation/compensation du mouvement est appliqué ensuite sur chaque cluster de la partition afin d’obtenir une séquence compensée en mouvement par parties, sur laquelle est appliqué une transformée en ondelettes basée sur le schéma lifting. Expérimentalement, le codeur MCTWC incluant la compensation de mouvement a prouvé son efficacité par rapport au codeur TWC qui n’inclue pas cette fonctionnalité. Mais aussi par rapport à certaines techniques de l’état de l’art, tout en offrant l’avantage de ne pas dépendre des caractéristiques géométriques de la séquence, une analyse multirésolution à faible complexité de calcul, la scalabilité temporelle et le codage au fil de l’eau.


Résumé en Anglais :

Today, 3D dynamic meshes are increasingly exploited in many fields such as medicine, video games, movies, etc. These 3D contents require huge memory resources, making compression an essential tool.
We propose in this thesis two approaches for geometric compression of 3D dynamic meshes computing on the fly multiresolution analysis.
As a first compression approach, the encoder TWC (Temporal Wavelet Coding) is proposed, including a temporal wavelet transform implemented by several lifting schemes. The subbands of the wavelet transforms are encoded thanks to a bit allocation giving the optimal quantization steps, by optimizing the rate-distortion trade-off.
A second compression approach is proposed, called MCTWC (Motion Compensated Temporal Wavelet Coding). It is based on the motion compensated wavelet transform.
An automatic motion-based segmentation technique is proposed using a region growing approach: the vertices that follow the same affine motion belong to a same cluster. A motion estimation /compensation is then applied to each cluster of the partition to obtain a cluster-based motion compensated sequence. Then, a wavelet-based lifting scheme is applied.
Experimentally, the encoder MCTWC including motion compensation improves significantly the compression performances compared to the encoder TWC which does not include this feature. Also, compared to some state of the art encoders, the proposed coders do not depend on the geometric characteristics of the mesh sequences, permit a low computational complexity multiresolution analysis, and offer features like temporal scalability and streaming.

   Jury de thèse :

Chokri Ben Amar Professeur à l’ENIS, Tunisie (Rapporteur)
Rémy Prost Professeur des Universités à l’INSA de Lyon (Rapporteur)
Marc Antonini Directeur de Recherche CNRS (Directeur de thèse)
Amel Benazza Professeur à SUP’COM, Tunisie (Examinateur)
Florent Dupont Professeur des Universités à l’LIRIS de Lyon (Examinateur)
Marius Preda Maitre de conférence à l'INT de Paris (Examinateur)

20/12/2010
14h
BERCACHI Maroun
Sophia-Antipolis (France)
Algorithme Évolutionnaire à États pour l'Optimisation Difficile
Résumé    [ Annexes ]     
à Nice, UNS, Parc Valrose, salle de séminaires, rez de chaussée porte 104 du bât. Recherche Chimie

BERCACHI Maroun :
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Les Algorithmes Évolutionnaires (AEs) sont des méthodes de recherche inspirées par la théorie darwinienne de l'évolution, travaillant sur une population de solutions potentielles, par itération de phases de sélections et de variations aléatoires. La sélection d'une représentation, la définition des paramètres ou l'attribution de leurs propres valeurs ont une influence cruciale sur les performances de l'algorithme. Un choix qui ne s'accorde pas à la fonction de fitness peut rendre le problème plus difficile à résoudre. Trouver une configuration appropriée pour un AE est donc depuis longtemps un grand défi. Bien que les AEs soient reconnus comme des méthodes compétitives sur des problèmes de grande taille, ils sont sujets à un certain nombre de critiques tel celui du réglage/contrôle des paramètres. Par réglage, nous entendons l'approche qui consiste à trouver des valeurs satisfaisantes pour les paramètres avant l'exécution de l'algorithme. Dans cette thèse, nous fournissons des arguments qu'un jeu de paramètres constants durant l'exécution semble être inadéquat. Notre contribution au vaste domaine de l'optimisation concerne le réglage automatique des paramètres selon le problème traité. Dans la première partie, nous exposons la problématique du réglage/contrôle des paramètres ainsi que les principales heuristiques existantes. Dans la deuxième, nous proposons deux méthodes pour le contrôle dynamique des paramètres associés à la représentation des solutions. Dans la troisième, nous proposons l'algorithme évolutionnaire à états (SEA), une variante parallèle des AEs; cette nouvelle approche gère simultanément plusieurs AEs afin de contrôler dynamiquement les paramètres au cours du processus d'optimisation. Dans la dernière partie, nous présentons une instanciation du SEA qui intègre différents taux de mutation afin d'adapter le meilleur taux à la recherche. Cette nouvelle instance est testée sur le problème du sac à dos multidimensionnel. Des résultats comparables ont été obtenus, ce qui prouve que le SEA est capable de contrôler dynamiquement le compromis exploration/exploitation.


Résumé en Anglais :

Evolutionary Algorithms (EAs) are search methods inspired by the darwinian theory of evolution, working iteratively on a population of potential solutions that are randomly selected and modified. The selection of a representation, the definition of parameters or the attribution of their proper values have a crucial influence on the algorithm performances. A choice that does not match to the fitness function can make the problem more difficult to resolve. Finding suitable parameter settings is therefore a big challenge. Although EAs are recognized as competitive methods on large problems, they are subjects to certain critics such as parameters adjustment/control. By parameter settings, we mean the approach which consists in finding reasonable parameter values before the algorithm execution. In this thesis, we provide arguments that a set of constant parameters during the run seems to be inadequate. Our contribution to the broad area of optimization concerns the automatic adjustment of parameters according to the test problem. In the first part, we expose the problematic of parameters adjustment/control as well as the principal exisitng heuristics. In the second, we introduce two methods for dynamic control of parameters associated with the representation of solutions. In the third, we propose the States based Evolutionary Algorithm (SEA), a parallel variant of AEs; this new approach manages simultaneously several EAs in order to control dynamically the parameters during optimization process. In the last part, we present an instantiation of the SEA which integrates different mutation rates in order to adapt the best rate to the search. This new instance was tested on the multidimensional knapsack problem. Comparable results were obtained, which proves that the SEA is capable of dynamically controlling the compromise exploration/exploitation.

   Jury de la thèse :

Pierre Bernhard (Président)
Manuel Clergue (Examinateur)
Philippe Collard (Directeur de thèse)
Yves Duthen (Rapporteur)
El-Ghazali Talbi (Rapporteur)
Sébastien Verel (Examinateur)

17/12/2010
14h30
NEPOMUCENO Napoleão
Sophia-Antipolis (France)
Network optimization for wireless microwave backhaul
Résumé    [ Annexes ]     
INRIA Sophia-Antipolis, salle Euler Violet

NEPOMUCENO Napoleão:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Avec les progrès des technologies d'accès, le goulot d'étranglement des réseaux cellulaires se déplace progressivement de l'interface radio vers le backhaul. La possibilité de déployer rapidement des liens radio micro-ondes efficaces est essentielle pour apporter des solutions crédibles au problème de l'engorgement des réseaux backhaul. Toutefois, les solutions de backhaul disponibles avec cette technologie ont reçu peu d'attention de la communauté scientifique. En effet, contrairement aux réseaux filaires, la capacité d'un lien radio micro-ondes est sujette à variation, soit due à des facteurs extérieurs (météo), soit par l'action de l'opérateur. Cette différence soulève une variété de nouvelles questions qui doivent être abordées de façon appropriée. Dans cette thèse, nous étudions les problèmes d'optimisation de réseaux liés à la conception et la configuration des liaisons terrestres sans fil à micro-ondes. Nous nous intéressons en particulier à la classe des problèmes de multiflot de coût minimum avec des fonctions de coût en escalier sur les liens du réseau. Ces problèmes sont parmi les problèmes d'optimisation combinatoire les plus importants et les plus difficiles dans l'optimisation des réseaux, et il n'est généralement possible de les résoudre que de façon approchée. Nous introduisons des modèles mathématiques pour certains de ces problèmes et présentons des approches de solution basées essentiellement sur la programmation entière mixte, la programmation sous contraintes probabilistes, des techniques de relaxation, des méthodes de coupe, ainsi que des méta-heuristiques hybrides.


Abstract :

With the advances in access technologies, the capacity bottleneck of cellular networks is gradually moving from the radio interface towards the backhaul. The ability for microwave to be rapidly and cost-effectively deployed is being a crucial point for successfully tackling the backhaul bottleneck problem. However, backhaul solutions available with this technology have received little attention from the scientific community. In fact, unlike wired networks, the capacity of a microwave radio link is prone to variations, either due to external factors (e.g., weather) or by the action of the network operator. This fundamental difference raises a variety of new issues to be addressed appropriately. In this thesis, we investigate network optimization problems related to the design and configuration of wireless microwave backhaul. We are concerned with a general class of problems expressed in terms of minimum cost multicommodity flows with discontinuous step increasing cost functions on the links of the network. These problems are among the most important and challenging problems in network optimization. Generally, they are computationally very difficult and, in practice, can only be solved approximately. We introduce mathematical models for some of these problems and present solution approaches essentially based on general mixed integer programming, chance-constrained programming, relaxation techniques, cutting plane methods, as well as hybrid metaheuristics.

   Le jury est composé de :

*Jean-Claude BERMOND, Directeur de Recherche, CNRS, (directeur de thèse)
*Simon BRYDEN, Engineer, SME 3Roam (examinateur)
*Manoel CAMPÊLO, Professeur, Universidade Federal do Ceará (co-directeur de thèse)
*Ricardo CORRÊA, Professeur, Universidade Federal do Ceará (rapporteur)
*David COUDERT, Researcher, INRIA (co-directeur de thèse)
*Arie KOSTER, Professeur, RWTH Aachen University (examinateur)
*Fabrice VALOIS, Professeur, INSA Lyon (rapporteur)

16/12/2010
10h30
NICOLAS Lionel
Sophia-Antipolis (France)
Efficient production of linguistic resources: the Victoria Project
Résumé    [ Annexes ]     
salle de conference

NICOLAS Lionel:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   L'efficacité de la grande majorité des outils utilisés pour le Traitement Automatisé des Langues Naturelles (TALN) dépend directement ou indirectement de la qualité des ressources linguistiques informatisées sur lesquels ils reposent.

Pour des langues internationalement employées telles que le français ou l'espagnol, bien des ressources de référence sont encore dans un état précaire de développement. Pour d'autres langues ayant une communauté moins importante, ces ressources sont souvent inexistantes. Cette situation est la conséquence directe des ambiguïtés et des irrégularités des langues naturelles. Ces dernières rendent leur formalisation complexe, leur description manuelle fastidieuse et leur acquisition automatisée difficile.

De nos jours, pour les aspects linguistiques ayant des formalismes de description consensuels, la principale limitation à la création de ressources linguistiques est le coût humain prohibitif induit par leur création et amélioration manuelle. Comme le formalise la loi de Zipf, améliorer la qualité et la couverture d'une ressource linguistique devient toujours plus laborieux lorsque l'on compare les efforts investis aux améliorations obtenues. La difficulté est donc moins de savoir comment décrire l'aspect linguistique d'une langue que d'en réaliser une description dont la couverture et la qualité répondent aux besoins d'applications performantes.

Construire de telles ressources requiert donc des années d'efforts constants débouchant trop souvent sur des résultats d'une qualité relative et d'une visibilité limitée. L'acquisition et la correction rapides et efficaces de ressources linguistiques sont donc des problèmes peu résolus et d'une importance capitale pour les développements dans le domaine du TALN.

Dans ce contexte, mes recherches ont pour but premier de faciliter la production de ressources linguistiques symboliques ayant trait à l'analyse syntaxique. Elles s'inscrivent dans un projet, appelé Victoria, dont l'objectif est de développer un ensemble de techniques, d'outils et de stratégies pour l'acquisition et la correction de règles morphologiques, de lexiques morpho-syntaxiques et de grammaires lexicalisées. L'application pratique de ces développements nous a permis de créer et/ou d'améliorer des ressources linguistiques pour le français, l'espagnol et le galicien.

Plus particulièrement, mes efforts se sont concentrés sur :
-> des stratégies pratiques pour minimiser les efforts nécessaires à la création et l'amélioration de ressources linguistiques,
-> l'acquisition automatique des règles morphologiques d'une langue à morphologie concaténative,
-> la correction semi-automatique de lexiques morpho-syntaxiques à large couverture.

Abstract

The efficiency and linguistic relevance of most tools dedicated to Natural Language Processing (NLP) depend directly or indirectly on the quality and coverage of the numeric linguistic resources they rely on. Even for major languages such as Spanish and French, many well known and widely used linguistic resources are still in a precarious state of development. For languages with a smaller speech community, they barely exist.

Such situation is a direct consequence of the ambiguity and irregularities of natural languages which make their formalization complex, their manual description labor-intensive and their automatized acquisition difficult. Nowadays, for linguistic aspects that have consensual frameworks to describe them, one can consider the efforts required to develop linguistic resources as the main limitation. As formalized by Zipf's law, increasing the quality of a linguistic resource becomes more and more difficult with time since the efforts are always more demanding when compared with the resulting improvements. In other words, the difficulty for some linguistic levels lies less in how to describe them than in actually achieving a description that has both the coverage and precision required by complex NLP tasks.

Owing to these issues, building linguistic resources can take years of constant effort which might fail to achieve visible or useful results. Therefore, quick and efficient acquisition and correction of linguistic resources is an unsolved problem of considerable interest for the NLP community.

In this context, my PhD has focused on enhancing the production capacities of symbolic linguistic resources for parsing. It is part of a project, named Victoria, that aims at developing techniques, tools and guidelines to produce or improve morphological rules, morpho-syntactic wide-coverage lexicons and lexicalized grammars. The practical use of these developments has enabled us to create and/or improve linguistic resources for French, Spanish and Galician.

More speciffically, my efforts has focused on:
-> practical guidelines for saving as much efforts as possible when creating or improving linguistic resources,
-> the automatic acquisition of the morphological rules of languages with a concatenative morphology,
-> the semi-automatic correction of morpho-syntactic wide-coverage lexicons.

   Le jury sera composé de :
* Pr. Jacques Farré - Univ. Nice-Sophia + CNRS (directeur)
* Dr. Carlos Gómez - Univ. A Coruña (rapporteur)
* Pr. Jean Charles Régin - Univ. Nice-Sophia + CNRS (examinateur)
* Dr. Benoît Sagot - Univ. Paris7 + INRIA (examinateur)
* Pr. Alexis Nasr - Univ. Aix-Marseille (rapporteur)
* Pr. Gertjan Van Noord - Univ. Groningen (rapporteur)

15/12/2010
14h30
NEMO Clémentine
Sophia-Antipolis (France)
Construction et validation de modèles guidée par l'application idempotente de transformations
Résumé    [ Annexes ]     
Polytech'Nice-Sophia Antipolis - salle 302 du site des Templiers

NEMO Clémentine :
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Les Systèmes d'Information d'Entreprise (SIE) visent à mettre à disposition des développeurs, un ensemble d'éléments hétérogènes (politiques, composants sur étagère, patrons de conception, ...) communs à tous les projets de l'entreprise. Le développement des logiciels se fait ainsi par l'alternance d'intégrations des briques logicielles et de modifications manuelles des codes.
Lorsque les briques logicielles correspondent à l’introduction de politiques, telle que le contrôle d'accès, les assemblages de composants résultants respectent les contraintes imposées par la politique. Or, l’intégration d’autres politiques et les modifications de l’utilisateur peuvent violer ces contraintes et introduire des incohérences dans le modèle. Assurer et éventuellement rétablir la cohérence des assemblages construits par introductions de politiques est la problématique abordée par ce travail de thèse.
Dans cette thèse nous appréhendons une politique comme une transformation de modèle à modèle où son application, par des propriétés d'idempotence, modifie uniquement les éléments de modélisation nécessaires. Ainsi l'application garantit que le modèle résultant respecte les contraintes associées à la politique. La ré-application des transformations idempotentes est alors notre seul outil pour réparer les incohérences introduites dans un modèle. Si la ré-application de la transformation ne modifie pas le modèle, le modèle valide les contraintes associées à la politiques.
Nous proposons alors une spécification des transformations afin de définir par construction des transformations idempotentes que nous nommons ITC. Cette formalisation consiste (i) à spécifier la sémantique des actions élémentaires composant l'expression d'une ITC et (ii) à spécifier le processus d'application d'une ITC. Les applications d'ITCs deviennent alors la base pour construire, valider et réparer un modèle. Nous définissons alors un algorithme de rejeu d'un ensemble d'applications d'ITCs afin de construire un modèle validant un ensemble de contraintes liées à un ensemble de politiques.
L'écriture de l'expression des ITCs à partir d'actions élémentaires, l'application des ITCs et l'algorithme de rejeu sont mise en oeuvre dans un moteur d'applications implémenté en Prolog. Nous illustrons cette contribution à travers une étude de cas où nous mettons en avant la nécessité de permettre les introductions séquentielles et ensemblistes des politiques.

   Le jury sera composé de :

* Mireille Blay-Fornarino - Professeur des Universités ( co-directrice)
* Eric Cariou - Maître de Conférence (examinateur)
* Bernard Coulette - Professeur des Universités (rapporteur)
* Marie-Pierre Gervais - Professeur des Universités (rapportrice)
* Philippe Lahire - Professeur des Universités (examinateur)
* Michel Riveill - Professeur des universités (co-directeur)

13/12/2010
13h30
Truong Huu Tram
Sophia-Antipolis (France)
Optimisation des performances et du coût de flots applicatifs s'exécutant sur des infrastructures de cloud
Résumé    [ Annexes ]     
Polytech'Nice - Sophia Antipolis, en salle 310 site des Templiers.

Truong Huu Tram :
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Les infrastructures virtuelles de cloud sont de plus en plus exploitées pour relever les défis de calcul intensif en sciences comme dans l’industrie. Elles fournissent des ressources de calcul, de communication et de stockage à la demande pour satisfaire les besoins des applications à grande échelle. Pour s'adapter à la diversité de ces infrastructures, de nouveaux outils et modèles sont nécessaires. L’estimation de la quantité de ressources consommées par chaque application est un problème particulièrement difficile, tant pour les utilisateurs qui visent à minimiser leurs coûts que pour les fournisseurs d'infrastructure qui visent à contrôler l’allocation des ressources. Même si une quantité quasi illimitée de ressources peut être allouée, un compromis doit être trouvé entre (i) le coût de l’infrastructure allouée, (ii) la performance attendue et (iii) la performance optimale atteignable qui dépend du niveau de parallélisme inhérent à l’application. Partant du cas d’utilisation de l’analyse d’images médicales, un domaine scientifique représentatif d’un grand nombre d’applications à grande échelle, cette thèse propose un modèle de coût à grain fin qui s’appuie sur l’expertise extraite de l’application formalisée comme un flot. Quatre stratégies d'allocation des ressources basées sur ce modèle de coût sont introduites. En tenant compte à la fois des ressources de calcul et de communication, ces stratégies permettent aux utilisateurs de déterminer la quantité de ressources de calcul et de bande passante à réserver afin de composer leur environnement d'exécution. De plus, l'optimisation du transfert de données et la faible fiabilité des systèmes à grande échelle, qui sont des problèmes bien connus ayant un impact sur la performance de l’application et donc sur le coût d'utilisation des infrastructures, sont également prises en considération.

Les expériences exposées dans cette thèse ont été effectuées sur la plateforme Aladdin/Grid'5000, en utilisant l’intergiciel HIPerNet. Ce gestionnaire de plateforme virtuelle permet la virtualisation de ressources de calcul et de communication. Une application réelle d’analyse d’images médicales a été utilisée pour toutes les validations expérimentales. Les résultats expérimentaux montrent la validité de l'approche en termes de contrôle du coût de l'infrastructure et de la performance des applications. Nos contributions facilitent à la fois l'exploitation des infrastructures de cloud, offrant une meilleure qualité de services aux utilisateurs, et la planification de la mise à disposition des ressources virtualisées.


Title and abstract:

Title :
Workflow-based applications performance and execution cost optimization on cloud infrastructures

Abstract:
Cloud computing is increasingly exploited to tackle the computing challenges raised both in science and industry. Clouds provide computing, network and storage resources on demand to satisfy the needs of large-scale distributed applications. To adapt to the diversity of cloud infrastructures and usage, new tools and models are needed. Estimating the amount of resources consumed by each application in particular is a difficult problem, both for end users who aim at minimizing their cost and infrastructure providers who aim at controlling their resources allocation. Although a quasi-unlimited amount of resources may be allocated, a trade-off has to be found between (i) the allocated infrastructure cost, (ii) the expected performance and (iii) the optimal performance achievable that depends on the level of parallelization of the application. Focusing on medical image analysis, a scientific domain representative of the large class of data intensive distributed applications, this thesis proposes a fine-grained cost function model relying on the expertise captured from the application. Based on this cost function model, four resources allocation strategies are proposed. Taking into account both computing and network resources, these strategies help users to determine the amount of resources to reserve and compose their execution environment. In addition, the data transfer overhead and the low reliability level, which are well-known problems of large-scale distributed systems impacting application performance and infrastructure usage cost, are also considered.

The experiments reported in this thesis were carried out on the Aladdin/Grid’5000 infrastructure, using the HIPerNet virtualization middleware. This virtual platform manager enables the joint virtualization of computing and network resources. A real medical image analysis application was considered for all experimental validations. The experimental results assess the validity of the approach in terms of infrastructure cost and application performance control. Our contributions both facilitate the exploitation of cloud infrastructures, delivering a higher quality of services to end users, and help the planning of cloud resources delivery.

   Le jury sera composé de :

* Tristan Glatard - Chargé de recherche CNRS (examinateur)
* Emmanuel Jeannot - Chargé de recherche INRIA (rapporteur)
* Johan Montagnat - Directeur de recherche CNRS (Directeur de thèse)
* Michel Riveill - Professeur des Universités (Examinateur)
* Pascale Vicat-Blanc Primet - Directrice de recherche INRIA (Rapportrice)

10/12/2010
14h15
Mathias Elton
Sophia-Antipolis (France)
Hierarchical Multi-domain Computing Based Upon a Component-Oriented Approach
Résumé    [ Annexes ]      [ URL ]
salle Euler Violet à l'INRIA Sophia Antipolis

Mathias Elton:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Dans cette thèse, nous présentons un intergiciel modulaire pour le calcul distribué dans les plates-formes multi-domaine Grid/Cloud, qui permet le traitement de ces questions d'une façon extérieure aux applications. L'idée principale derrière cet intergiciel c'est d'offrir une infrastructure modulaire qui peut être composé hiérarchiquement selon la topologie des ressources et dynamiquement en fonction des ressources disponibles. Cet intergiciel fonctionne comme une colle entre les processus des applications en cours d'exécution dans des différents domaines administratifs, à travers les mécanismes tels que la communication point à point et collective en prenant en compte de la topologie des réseaux. Cet intergiciel est basé sur GCM (Grid Component Model) et l'intergiciel ProActive, que nous avons amélioré avec des fonctionnalités, telles que: des sémantiques de communication gathercast (Mx1) et multicast (Mx1) génériques, des interfaces gather-multicast (MxN) avec le support à la création des raccourcis pour la communication MxN directe entre les composants, le déploiement automatisé et le tunneling et redirectionnement des communications. Tout au long de cette thèse, nous motivons notre travail en mettant en perspective deux plateformes multi-domaine hautement communiquantes, qui nous présentons comme des cas d'utilisation de notre intergiciel: (1) une plateforme HPC, qui permet le couplage des applications basées sur la méthode de décomposition de domaine et une approche de programmation SPMD similaire à MPI, dans des environnements hétérogènes (Runtime DiscoGrid) et (2) une fédération des Enterprise Service Buses (ESB) à l'échelle de l'Internet (fDSB SOA4All), qui permet à des ESBs indépendants d'être (hiérarchiquement) fédérées selon les relations de partenariat entre les fournisseurs/consommateurs de services. Les résultats expérimentaux obtenus dans le cadre des deux cas d'utilisation (le Runtime DiscoGrid et le fDSB) montrent que l'approche proposée est prometteuse, non seulement en termes d'approche de programmation, mais aussi en termes de performance.

Abstract :

In this thesis, we introduce a modular middleware for multi-domain Grid and Cloud computing that allows the treatment of issues related to deployment, resources access and communication in heterogeneous networks externally to applications. The main idea behind this middleware is to offer a modular infrastructure that can be composed hierarchically, according to resources topology, and dynamically, according to the availablility resources. This middleware works as a glue between application processes running in different domains, featuring mechanisms like topology-aware point-to-point and collective communication. Our middleware grounds from the GCM (the Grid Component Model) and the ProActive Grid middleware, that we improved with features, such as: generic gathercast (Mx1) and multicast (Mx1) communication semantics, gather-multicast (MxN) component interfaces, MxN shortcuts, automated deployment and communication tunneling and forwarding. All along this thesis, we motivate our work by putting in perspective two highly communicating multi-domain frameworks, which we present as use-cases of our middleware: (1) an HPC runtime, which allows the coupling of domain-decomposition applications in heterogeneous environments through an MPI-like SPMD programming (the DiscoGrid Runtime) and (2) an Internet wide federation of Distributed Enterprise Service Buses (the SOA4All fDSB), which allows independent distributed service buses (DSBs) to be (hierarchically) federated according to partnership relations among service providers. Experimental results obtained in the context of both use-cases show that the proposed approach is promising, not only in terms of programming approach but also in terms of performance.

   Le jury

Stéphane LANTERI, INRIA Sophia-Antipolis Mediterranée (Président du Jury)
Frederic DESPREZ, Ecole Normale Supérieure Lyon (Rapporteur)
Thilo KIELMANN, Vrije Universiteit Amsterdam (Rapporteur)
Jean-Pierre LORRÉ, Petals Link (Examinateur)
Françoise BAUDE, Université de Nice - Sophia Antipolis (Directrice de Thèse)

10/12/2010
10h30
Amedro Brian
Sophia-Antipolis (France)
Optimizing an Active Object Framework: From Multi-Cores to Multi-Clouds
Résumé    [ Annexes ]      [ URL ]
Salle Kahn 1 (sous l'amphi) à l'INRIA Sophia Antipolis

Amedro Brian:
  laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Les processeurs modernes tendent à devenir massivement multi-coeurs, tandis que les clusters s’ouvrent vers l’Internet pour devenir des "Clouds". Ainsi, d’ici à quelques années, nous par- lerons peut-être de Cloud Haute Performance. Cette ouverture rend les plateformes de calcul plus accessibles et induit un intérêt croissant pour les langages de programmation adaptés à ces architectures hybrides où l’on rencontre aussi bien des espaces mémoire partagé que distribués. Cette thèse de doctorat s’inscrit dans ce contexte et présente ainsi la conception, l’implémentation et l’évaluation de différentes solutions ayant pour but commun d’optimiser l’exécution d’applications numériques haute performance sur ces environnements.
Nous proposons un ensembles d’extensions pour le modèle à objets actifs asynchrones com- municants ASP (Asynchronous Sequential Process), avec des constructions améliorant le développement et l’exécution d’applications. En particulier, ce travail explore le domaine des communications asynchrones entre activités, en étudiant les différentes propriétés de con- fluence et de déterminisme qui peuvent être assurées. Ainsi nous proposons plusieurs construc- tions de langage et approches plus générales au niveau de l’intergiciel (middleware), s’appuyant sur le comportement de l’application pour en optimiser les communications.
Une autre contribution de ce manuscrit consiste en une étude avancée des performances de Java ainsi que de l’intergiciel ProActive, l’implémentation du modèle ASP. Tout en se concentrant sur les applications dites "hautes performance", notre analyse montre comment utiliser les plateformes Java et ProActive pour rendre un programme plus efficace, en s’appuyant sur différentes architectures, comme le suggère le sous-titre de cette thèse: "Des processeurs multi- coeurs aux architectures multi-clouds.

Abstract

Modern processors become massively multi-cores, and clusters become clouds. Within a few years, we may even speak about HPC as High Performance Clouds. This openness makes com- puting platforms more accessible and induces a increasing interest in programming languages adapted to these hybrid shared/distributed memory architectures. This PhD Thesis presents the design, implementation and evaluation of several solutions to optimize the execution of HPC numerical applications in such situation.
We propose some extensions to the asynchronous communicating Active Objects model ASP (Asynchronous Sequential Process), with constructs that improve the execution of applica- tions. In particular, this work explores the era of asynchronous communications between activities, by studying the different properties that can be ensured. Thus, we proposes various language constructs or rather general middleware approaches based on the behavior of the program to optimize communications. Another contribution of this thesis consists in an advanced analysis of the performance of a middleware-based ASP model for high performance applications. This work is based on ProActive, a Java implementation of the model, which has been evaluated in a heterogeneous context characterized by the subtitle of this thesis "from multi-cores to multi-clouds.

   Le jury

Stéphane Descombes, Université de Nice - Sophia Antipolis (Président du Jury)
François Bodin, Directeur de l'IRISA (Rapporteur)
Thierry Priol, Directeur scientifique adjoint, INRIA Rennes (Rapporteur)
Jean-Paul Smets, Nexedi (Examinateur)
Denis Caromel, Université de Nice - Sophia Antipolis (Directeur de thèse)

03/12/2010
15h
Coadou Anthony
Sophia-Antipolis (France)
Réseaux de processus flot de données avec routage pour la modélisation de systèmes embarqués
Résumé    [ Annexes ]     
amphi. Morgenstern, bât. Kahn, INRIA

Coadou Anthony:
  I3S
  Sophia-Antipolis (France)

Résumé :

   Cette thèse définit un nouveau modèle de calcul et de communication, dénommé graphe à routage k-périodique (KRG). Ce modèle, de la famille des réseaux de processus flots de données, admet des aiguillages réguliers des données, explicités par des séquences binaires k-périodiques.

Nous étudions les propriétés mathématiques intrinsèques au modèle. Le routage explicite et l'absence de conflit nous permettent d'exprimer algébriquement les dépendances de données, de même que des transformations topologiques préservant le comportement du graphe. Nous montrons ensuite comment ordonnancer le KRG, en associant aux nœuds des horloges k-périodiques.

Nous positionnons ensuite notre modèle au sein d'un flot de conception dédié aux applications de traitement intensif de données. Nous montrons en particulier la capacité des KRG à représenter explicitement le parallélisme d'instruction extrait du modèle polyédrique. Nous pouvons alors appliquer un ensemble d'optimisations de bas niveau, sortant du cadre affine du modèle polyédrique. Nous présentons enfin une méthodologie pour l'implantation des KRG, basée sur la conception insensible aux latences.

   Jury :

Pierre BOULET - Professeur, Université de Lille I (rapporteur)
Albert COHEN - Directeur de recherche, INRIA Saclay (examinateur)
Robert DE SIMONE - Directeur de recherche, INRIA Sophia (directeur)
Nicolas HALBWACHS - Directeur de recherche, Verimag (examinateur)
Marc POUZET - Professeur, École Normale Supérieure (rapporteur)

16/11/2010
15h
Monteiro Julian
Sophia-Antipolis (France)
Modeling and Analysis of Reliable Peer-to-Peer Storage Systems
Résumé    [ Annexes ]      [ URL ]
salle Euler Violet à l'INRIA Sophia Antipolis

Monteiro Julian:
  INRIA, I3S(CNRS-Univ. Nice Sophia)
  Sophia-Antipolis (France)

Résumé :

   Les systèmes pair-à-pair à grande échelle ont été proposés comme un moyen fiable d’assurer un stockage de données à faible coût. Cette thèse vise à fournir des outils permettant d’analyser et de prédire la performance de ces systèmes de stockage de données à grande échelle. Nous avons utilisé ces outils pour analyser l’impact de différents choix de conception du système sur différentes mesures de performance. Par exemple, la consommation de bande passante, l’espace de stockage et la probabilité de perdre des données doivent être aussi faibles que possible. Tout d’abord, nous décrivons un modèle simple par chaîne de Markov et nous établissons des formules mathématiques closes. Ces formules nous permettent de comprendre les interactions entre les paramètres du système. Nous confirmons en comparant à des simulations que ces modèles donnent des approximations correctes du comportement moyen du système. En effet, un mécanisme de réparation paresseux est étudié et nous décrivons comment régler les paramètres du système pour obtenir une utilisation efficace de la bande passante. Nous proposons ensuite un nouveau modèle stochastique basé sur une approximation fluide pour saisir les écarts par rapport au comportement moyen. De plus, nous étudions plusieurs autres aspects d’un système de stockage distribué : nous utilisons un modèle de files d’attente pour calculer le temps de réparation pour un système avec bande passante limitée ; nous étudions un système de codage hybride : en mixant les codes d’effacement avec la simple réplication des données ; enfin, nous étudions l’impact des différentes façons de distribuer des fragments de données entre les pairs.


Abstract Large scale peer-to-peer systems are foreseen as a way to provide highly reliable data storage at low cost. This thesis aims at providing tools to analyze and predict the performance of general peer-to-peer storage systems. We use these tools to analyze the impact of different choices of system design on different performance metrics. For instance, the bandwidth consumption, the storage space overhead, and the probability of data loss should be as small as possible. Different techniques are studied and applied. First, we describe a simple Markov chain model that harnesses the dynamics of a storage system under the effects of peer failures and of data repair. Then we provide closed-form formulas that give good approximations of the model. These formulas allow us to understand the interactions between the system parameters. Indeed, a lazy repair mechanism is studied and we describe how to tune the system parameters to obtain an efficient utilization of bandwidth. We confirm by comparing to simulations that this model gives correct approximations of the system average behavior, but it does not capture its variations over time. We then propose a new stochastic model based on a fluid approximation that indeed captures the deviations around the mean behavior. These variations are most of the time neglected by previous works, despite being very important to correctly allocate the system resources. We additionally study several other aspects of a distributed storage system: we propose queuing models to calculate the repair time distribution under limited bandwidth scenarios; we discuss the trade-offs of a Hybrid coding (mixing erasure codes and replication); and finally we study the impact of different ways to distribute data fragments among peers, i.e., placement strategies.

   Le jury :
- Virgílio ALMEIDA, Professeur - U. Federal de Minas Gerais, Brésil (rapporteur)
- Olivier DALLE, Maître de Conférences - U. Nice Sophia, Mascotte (directeur de thèse)
- Frédéric GIROIRE, Chargé de Recherche - CNRS, Mascotte
- Alfredo GOLDMAN, Professeur - U. de São Paulo, Brésil
- Alain JEAN-MARIE, Directeur de Recherche INRIA, Maestro/LIRMM
- Fabien MATHIEU, Ingénieur - Orange Labs (rapporteur)
- Stéphane PÉRENNES, Directeur de Recherche - CNRS, Mascotte (directeur de thèse)
- Pierre SENS, Professeur - U. Pierre et Marie Curie, LIP6 (rapporteur, absent pour la soutenance)

27/10/2010
15h30
Mosser Sébastien
Sophia-Antipolis / France
Behavioral Compositions in Service-Oriented Architecture
Résumé    [ Annexes ]     
amphi Est, site des Templiers de Polytech'Nice - Sophia Antipolis.

Mosser Sébastien:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Les Architectures Orientées Services permettent la définition d’applications complexes par assemblage de service existants, par exemple sous la forme d’«orchestrations» implémentant des processus métiers. La complexité de ces assemblages impose l’utilisation de techniques telle que la Séparation des Préoccupations pour en maitriser la difficulté. Dans cette thèse, nous présentons ADORE, un métamodèle d’activité permettant l’évolution des orchestrations. Il permet d’exprimer dans le même formalisme des “orchestrations” et des “fragments d’orchestrations”. Nous proposons alors différents algorithmes de compositions permettant l’intégration automatique de ces fragments dans des processus existants. Ces algorithmes définissent des propriétés de compositions (e.g., préservation des relations d’ordre), et assurent leur respect dans les processus composés. Ils assurent que les résultats de composition obtenus ne dépendent pas de l’ordre d’application. ADORE permet la définition de règles de détection d’interférences, sous la forme de prédicats. Le logiciel développé propose ainsi un support, en identifiant les interférences apparaissant lors des compositions. Nous illustrons cette contribution au travers de 2 études de cas: (i) JSEDUITE, une application de diffusion d’information utilisée en production et (ii) CCCMS, une application de gestion de crise implémentée dans le cadre d’une réponse à une étude de cas commune. Pour conclure, nous mettons en perspectives de récentes collaborations visant l’intégration d’ADORE au sein d’un processus de développement logiciel complet, allant des l’ingénierie des besoins à la visualisation efficace des processus composés.

Abstract :

The Service Oriented Architecture (SOA) paradigm supports the assembly of atomic services to create applications that implement complex business processes. Since the design of a complete process can be very complex, composition mechanisms inspired by the Separation of Concerns paradigm (e.g., features, aspects) are needed to support the definition of large systems by composing smaller artifacts into a complex one. In this thesis, we propose ADORE, “an Activity meta– moDel supOrting oRchestration Evolution” to address this issue in the SOA context. The ADORE meta-model allows process designers to express in the same formalism business processes and fragment of processes. Such fragments define additional activities that aim to be integrated into others process. They can be composed into several processes and at different location through the use of algorithms which tame the complexity of large process design. Using these algorithms ensure properties in the final processes such as guard and activity order preservation. The underlying logical foundations of ADORE allow to define interference detection rules as logical predicate, such as consistency properties on ADORE models. Consequently, the ADORE framework supports process designers while designing large process, managing the detection of interference among fragments and ensuring that the composed processes are consistent and do not depend on the order of the composition. This work is illustrated in this document according to two case study: (i) JSEDUITE, an information broadcasting system daily used in several academic institutions and (ii) the CCCMS, a common case study to compare Aspect Oriented Modeling approaches. Ac- cording to several collaboration with others research teams in various domain (i.e., requirement engineering, visualization and real–time systems), we expose as perspectives the integration of ADORE into a complete software development tool chain.

   Jury :

- Don Batory, Université du Texas à Austin, (rapporteur)
- Xavier Blanc, Université Bordeaux 1, LABRI, (rapporteur)
- Mireille Blay-Fornarino, Université Nice - Sophia Antipolis, I3S, (co-directrice)
- Pierre-Alain Muller, Université de Haute Alsace, IRISA (examinateur)
- Lionel Seinturier, Université de Lille 1, LIFL (examinateur),
- Michel Riveill, Université Nice - Sophia Antipolis, I3S, (co-directeur).

17/09/2010
14h
Bonizzi Pietro
Sophia-Antipolis / France
Atrial Activity Extraction and Analysis in Atrial Fibrillation Episodes
Résumé    [ Annexes ]     
salle de conference

Bonizzi Pietro:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   La fibrillation auriculaire (FA) est l'arythmie la plus fréquente dans le domaine clinique. Les mécanismes de génération de la FA sont encore plutôt inconnus. Differents stratégies pour traiter la FA sont sélectionnées par rapport à la durée des épisodes de FA, dont l'efficacité depend du degré d’organisation de l'activité auriculaire (AA), qui dépend à son tour du niveau de chronicité de la FA. Par conséquent, des outils de traitement du signal appropriés s'avèrent nécessaires pour éclaircir les origines electrophysiologique de la FA et son influence sur le systeme cardiaque. En particulier, l'intérêt du traitement du signal repose sur l'extration de plus d'informations possibles des enregistrements non invasifs. Dans ce sense, la connaissance du degré d'organisation de l’AA peut être important pour aider la décision clinique. Dans ces traveaux de thèse, nous exploitons la diversité spatiale offerte par des enregistrements ECG à plusieures dérivations et pour améliorer la qualité de l'extraction du signal de AA des enregistrements ECG, nécessaire pour des analyses détaillées de la FA, et pour quantifier d'une maniére non invasive le degré de l'organisation spatio-temporel des activations auriculaires pendant FA. Les résultats de notre étude confirment l'intérêt d’exploiter l'information spatiale dans l'ECG pour génerér differentes sous-espaces qui décrivent de façon appropriée les composants ventriculaire et auriculaire de l'ECG, qui se révèlent utiles et pour définir des contraintes supplémentaires pour l'extraction de l'AA et pour analyser directement l'organisation de la FA, soutenant la justesse des approches qui exploitent la diversité spatiale dans l'analyse de la FA.

Abstract :

Atrial fibrillation (AF) is the most common cardiac arrhythmia encountered in clinical practice.The mechanisms of initiation and maintenance of AF are still quite unknown. Different strategies for AF treatment are selected with respect to the duration of AF episodes, and their efficacy may also be influenced by the degree of organization in the atrial activity (AA), in turn depending on the chronification of AF. Thus, proper signal processing tools are required in order to shed some light on the lectrophysiological origins of AF and on its impairing influence on the cardiac system. Particularly, the signal processing interest relies in extracting as much information as possible from noninvasive recordings. In this sense, a certain knowledge of the degree of organization in the AA may be potentially relevant in clinical decision making.
In this doctoral thesis, we exploit the spatial diversity offered by multi-lead ECG recordings both to enhance the quality of an AA signal extracted from ECG recordings, necessary for further detailed analysis of AF, and to noninvasively quantify the degree of spatio-temporal organization of the atrial activations during AF. The results of our study confirm the interest of using the spatial information in the ECG in order to generate different subspaces suitably describing the ventricular and atrial components of the ECG, which reveal to be useful both to define additional constraints for the AA signal extraction and to directly analyze the AF organization in surface recordings, supporting the appropriateness of signal processing approaches exploiting spatial diversity in AF analysis.

   Le Jury sera composé de :

M. Christopher James - Professeur à l'Université de Warwick (Royaume-Uni) - Rapporteur
M. Peter MacFarlane - Professeur à l'Université de Glasgow (Royaume-Uni) - Rapporteur
M. Luca Mainardi - Professeur associé à l'Université de Milano (Italie) - Rapporteur
Mme. Laure Blanc-Féraud - Directrice de recherche au CNRS - Examinateur
M. Nadir Saoudi - Professeur, Chef du Service de cardiologie au Centre Hospitalier Princesse Grace (Monaco) - Examinateur
M. Olivier Meste - Professeur à l'Université de Nice-Sophia Antipolis - Directeur de thèse
M. Vicente Zarzoso - Professeur à l'Université de Nice-Sophia Antipolis - Directeur de thèse

21/07/2010
10h00
Vincent Hourdin
I3S - GLC - Rainbow team (EPU)
Thèse : "Contexte et sécurité dans les intergiciels d'informatique ambiante"
Résumé   
salle de conference

Vincent Hourdin:
  I3S - GLC - Rainbow team (EPU)
  

Résumé :

   En informatique ambiante, le contexte joue un rôle capital. Les applications informatiques étendent leurs interactions avec l'environnement: de nouvelles entrées et sorties sont utilisées, telles que des capteurs et d'autres dispositifs mobiles d'interaction avec l'environnement réel et physique. Les intergiciels, créés pour masquer la complexité des couches inférieures en informatique distribuée, se voient alors chargés de nouvelles préoccupations, comme la prise en compte du contexte, l'adaptation des applications ou la sécurité.

Une représentation en couches intergicielles de ces préoccupations ne permet pas d'exprimer toutes leurs interdépendances. En informatique ambiante, la distribution est nécessaire pour obtenir les informations contextuelles, mais il est aussi nécessaire de prendre en compte le contexte dans la distribution, par exemple pour limiter les interactions aux entités d'un contexte défini. De plus, les interactions asynchrones utilisées dans les nouveaux environnements informatiques nécessitent une attention particulière lors de la prise en compte du contexte. De même, la sécurité intervient à la fois dans les couches intergicielles de distribution et de prise en compte du contexte.

Dans cette thèse nous présentons un modèle de prise en compte du contexte dans la sécurité et la distribution. Le contrôle d'accès doit évoluer pour intégrer une autorisation dynamique et réactive, basée sur des informations liées à l'environnement et plus simplement sur l'authentification des entités. Les informations contextuelles évoluent suivant une dynamique indépendante des applications. Il est aussi nécessaire de détecter les changements de contexte pour réévaluer l'autorisation.

Nous expérimentons cette prise en compte du contexte dans le contrôle des interactions avec la plate-forme expérimentale WComp, issue du modèle SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly). SLCA permet de concevoir des intergiciels et des applications dynamiques dont le découpage fonctionnel n'est pas traduit en couches, mais par un entrelacement de fonctionnalités. Les aspects d'assemblage sont un mécanisme d'adaptation compositionnelle d'assemblages de composants. Nous les utilisons pour exprimer nos préoccupations non-fonctionnelles et pour les composer avec les applications existantes de façon déterministe et réactive. Nous introduisons pour cela des règles de contrôle d'interactions contextualisées. L'intergiciel permet ainsi d'adapter en fonction du contexte nos préoccupations non-fonctionnelles et le comportement de l'application.



Abstract

In ubiquitous computing, context is key. Computer applications are extending their interactions with the environment: new inputs and outputs are used, such as sensors and other mobile devices interacting with the physical environment. Middlewares, created in distributed computing to hide the complexity of lower layers, are then loaded with new concerns, such as taking into account the context, adaptation of applications or security.

A middleware layer representation of these concerns cannot express all their interdependencies. In pervasive computing, distribution is required to obtain contextual information, but it is also necessary to take into account the context in distribution, for example to restrict interactions between entities in a defined context. In addition, asynchronous interactions used in those new environments require special attention when taking into account the context. Similarly, security is involved both in the middleware layers of distribution and context-sensitivity.

In this thesis we present a model taking into account the context both in security and distribution. Access control must evolve to incorporate a dynamic and reactive authorization, based on information related to environment or simply on the authentication information of entities. Contextual information evolve with their own dynamic, independent of applications. It is also necessary to detect context changes to reenforce the authorization.

We are experimenting this context-awareness targetting interaction control with the experimental framework WComp, derived from the SLCA/AA (Service Lightweight Component Architecture / Aspects of Assembly) model. SLCA allows to create dynamic middlewares and applications for which functional cutting is not translated into layers but into an interleaving of functionalities. Aspects of assembly are a mechanism for compositional adaptation of assemblies of components. We use them to express our non-functional concerns and to compose them with existing applications in a deterministic and reactive manner. For this purpose, we introduce context-aware interaction control rules. The middleware thus allows to adapt, according to context, our non-functional concerns and the behavior of the application.

   

09/07/2010
14h
Naoumenko Paul
Sophia-Antipolis(France)
Ph.D. defense : DESIGNING NON-FUNCTIONAL ASPECTS WITH COMPONENTS
Résumé   
INRIA Sophia Antipolis salle Euler violet

Naoumenko Paul:
  Laboratoire I3S, INRIA
  Sophia-Antipolis(France)

Résumé :

   Concevoir des aspects non-fonctionnels à l’aide de composants Dans cette thèse nous considérons des modèles de programmation pour des applications à grande échelle, distribuées et déployées dans des contextes en constant changement, comme la grille de calcul. Pour maintenir leur fonctionnalité tout en minimisant les interventions humaines, ces applications doivent être équipées de capacités auto-adaptatives. Notre recherche a pour base le paradigme de l'"Autonomic Computing", qui conçoit les applications auto-adaptables comme des compositions d'éléments autonomes. Ce sont des entités logicielles qui sont constituées de deux parties: une partie métier (ou fonctionnelle), et une partie contrôle, composée d'entités de contrôle (ou "managers") qui supervisent la partie métier et maintiennent sa fonctionnalité en réagissant aux changements de l'environnement. Les managers peuvent implémenter des stratégies de contrôle complexes: en plus de contrôler la partie métier, ils peuvent communiquer avec des managers d'autres éléments autonomes de l'application et collaborer afin d'élaborer les stratégies adéquates. Les stratégies des managers peuvent être mises à jour dynamiquement.
Nous proposons de concevoir des applications autonomes distribuées en utilisant un modèle à composants: GCM (pour Grid Component Model). Les composants GCM sont distribués par nature et le modèle inclut dans sa spécification la séparation des aspects (les composants GCM ont une partie métier et une partie de contrôle), une structure hiérarchique et la reconfiguration dynamique. Notre contribution peut être résumée en deux points. Premièrement, nous étendons la partie de contrôle (également appelée la membrane) des composants GCM, en donnant la possibilité d'y inclure des managers qui correspondent à la vision de l'Autonomic Computing. Grâce à l'introduction de nouveaux éléments architecturaux, les managers ont la capacité de superviser la partie métier des composants GCM. Ils peuvent également entrer en contact avec des managers d'autres composants faisant partie de la même application . Un composant GCM devrait être facile à produire: nous proposons un processus de développement qui permet de concevoir et développer la partie non-fonctionnelle séparément de la partie métier, puis d'intégrer ces deux parties dans une entité logicielle unifiée. On apporte des modifications au langage de description architectural (ADL), utilisé pour décrire un assemblage GCM statique. Deuxièmement, nous avons inclus les extensions introduites précédemment dans l'implémentation de référence du GCM.



English version:

In this thesis we are considering programming models for large-scale and distributed applications that are deployed in dynamic ever-changing environments, like the Grid. To maintain their function with minimal involvement of human operators, those applications have to be instrumented with self-adaptive capabilities. We ground our research on the autonomic computing paradigm, which proposes to design applications as compositions of autonomic elements. Those are software entities exposing two parts: a business part, and a management part, with managers in charge of supervising the business part by reacting to environmental changes. Managers have the possibility to implement complex management strategies: additionnaly to the supervision of the business part, they can contact managers from other autonomic elements involved in the application, and collaborate with them in order to elaborate adequate reactions. Strategies of managers can be dynamically updated. We propose to design distributed autonomic applications using a component-oriented model: the GCM (Grid Component Model). GCM components are distributed by essence and the model features as a part of its specification separation of concerns (GCM components have a business part and a management part), hierarchical structure, and dynamic reconfiguration. Our contribution is twofold. First, we extend the management part (called the membrane) of GCM components, giving the possibility to include managers that correspond to the vision of autonomic computing. Thanks to newly introduced architectural elements, the managers are able to supervise the business part of GCM components. They can also contact managers of other components of the application and collaborate with them. A GCM component with self-adaptive capabilities should be easy to produce: we suggest a development process that allows to design and implement the management part separately from the business part, and then integrate both parts inside one unified software entity. We modify the ADL (architecture description language) used to statically describeGCMcomponent assemblies according to the new development process. Second, we include the previously presnted extensions in the reference implementation of the GCM.

   

07/07/2010
10h30
Galluccio Laurent
Laboratoire I3S
Analyse et segmentation non supervisée de données à l'aide de graphe
Résumé    [ Annexes ]     
salle de conference

Galluccio Laurent:
  Laboratoire I3S
  

Résumé :

   Cette thèse présente de nouvelles méthodes de segmentation et classification non supervisées de données appliquées dans un contexte astrophysique. Les informations a priori telles que le nombre de classes ou la distribution sous-jacente des données ne sont pas toujours connues. Beaucoup de méthodes de classification existantes en astrophysique sont basées sur des connaissances a priori ou sur des observations déjà réalisées sur les données. Les classifications obtenues dépendront donc de ces informations et seront limitées par les connaissances des experts. L'intérêt de développer des algorithmes de classification non supervisées est de s'affranchir de ces limitations afin de détecter potentiellement de nouvelles classes.

L'approche principale adoptée dans cette thèse est l'utilisation d'un graphe construit sur les données : l'arbre de recouvrement minimal (ARM). En connectant les points par des segments on construit une structure qui capture les relations existantes entre chaque paire de points. Nous proposons d'estimer le nombre et la position des classes présentes dans les données en explorant les connexions de l'ARM construit. Ces informations servent d'initialisation à des algorithmes de classification. Une nouvelle classe d'ARMs multi-enracinés est présentée. De leur construction, des mesures de distances permettant la prise en compte du voisinage local et global des points sont dérivées. Une méthode de classification non supervisée qui combine les résultats de multiples partitionnements effectués sur les ARMs multi-enracinées est également proposée.
Les méthodes proposées sont validées sur des benchmark et appliquées à des données astrophysiques.



Abstract:

This thesis presents new data segmentation and data clustering methods applied to astrophysical data. A priori information such as the number of classes or the underlying data distribution is not necessarily known. Many classification methods in astophysics community are based on a priori knowledges or on observations already realized on data. Classifications obtained will depend on these information and will be limited by the experts knowledge. The goal of developping clustering algorithms is to get rid of these limitations, to be able to potentially detect new classes.

The main approach chosen in this thesis is the use of a graph built on the data: the minimal spanning tree (MST). By connecting the points by segments we build a structure which encapsulates the being relations between each pair of points. We propose a method to estimate both the number and the position of clusters by exploring the connections of the MST built. A data partition is obtained by using this information to initialize some clustering algorithms.
A new class of multi-rooted MSTs is introduced. From their construction, new distance measures are derived allowing to take into account both the local and global data neighborhood. A clustering method which combines results of multiple partitionments realized on the multi-rooted trees is also exposed.
The methods proposed are validated on benchmarks and applied to astrophysical datasets.

   Le jury sera composé de :

M. Andre FERRARI, Professeur des universités - Nice Sophia Antipolis - Examinateur
M. Pierre BORGNAT, Chargé de recherche CNRS - ENS Lyon - Examinateur
M. Stéphane CANU, Professeur des universités - INSA Rouen - Rapporteur
M. Jocelyn CHANUSSOT, Professeur des universités - INP Grenoble - Rapporteur
M. Pierre COMON, Directeur de Recherche CNRS - Nice - Directeur de thèse
M. Olivier MICHEL, Professeur des universités, INP Grenoble - Directeur de thèse

14/06/2010
9h30
Mikael Sorensen
Sophia-Antipolis(France)
Tensor tools with Application in Signal Processing
Résumé    [ Annexes ]     
salle de conference

Mikael Sorensen:
  Laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Nombre de problèmes issus du traitement de signal peuvent être modélisés par des équations/problèmes tensoriels. La spécificité des problèmes de traitement de signal est qu’ils donnent lieu à des décompositions tensorielles structurées.
L’objectif principal de cette thèse est, d’une part, le développement de méthodes numériques appliquées aux problèmes de décompositions de tenseurs structurés et, d’autre part, leur application en traitement de signal.

Dans un premier temps, nous proposons des méthodes pour le calcul de la décomposition CANDECOMP/PARAFAC (CP) avec un facteur matriciel semi-unitaire. De plus, nous développons des méthodes pour résoudre des problèmes d’analyse en composantes indépendantes (ICA) pouvant être modélisés par une décomposition CP structurée, en les considérant comme des problèmes de décompositions CP sous contrainte de semi-unitarité.

Ensuite, pour le calcul de décompositions CP avec symétries hermitiennes partielles, nous proposons des méthodes de décompositions simultanées de Schur généralisées. D’un point de vue numérique, nous développons le calcul de décompositions CP réelles par une méthode de Jacobi.

En troisième lieu, nous nous attaquons à la décomposition de tenseurs ayant des facteurs matriciels bande ou Hankel/Toeplitz, conjointement (ou non) à des symétries hermitiennes partielles. Ces méthodes sont appliquées à la résolution de problèmes d’identification aveugle basés sur des cumulants.

Enfin, nous proposons une méthode (plus) efficace pour l’égalisation aveugle de canaux paraunitaires basée sur les itérations de Jacobi. Dans le même esprit, nous dérivons une solution algébrique à la méthode de Jacobi pour effectuer la diagonalisation conjointe de matrices réelles définies positives.


Abstract:

Several problems in signal processing can be put in a tensorial framework. In many cases, these problems lead to compute structured tensor decompositions. The main purpose of this thesis is the development of computational methods for structured tensor decomposition problems with application in signal processing.

First, we propose methods for the computation of the CANDECOMP/ PARAFAC (CP) decomposition with a semi-unitary matrix factor. Moreover, we develop methods to solve CP structured independent component analysis problems by addressing them as semi-unitary constrained CP decompositions problems.

Second, we propose simultaneous (generalized) Schur decomposition methods to compute CP decompositions possibly with partial (Hermitian) symmetries. Moreover, a Jacobi-type sweeping procedure for the computation of a real CP decomposition will be considered.

Third, we propose methods to compute tensor decompositions with banded or Hankel/Toeplitz matrix factors and possibly also with partial (Hermitian) symmetries. The methods will be applied to solve some cumulant based blind identification problems.

Fourth, we propose a more efficient Jacobi method for blind equalization of paraunitary channels. Furthermore, we also derive an algebraic solution for the Jacobi method for likelihood based joint diagonalization of real positive definite matrices.

   Le Jury sera composé de:
M. Pierre COMON - Directeur de Recherche, CNRS, Nice - Examinateur
M. Lieven DE LATHAUWER - Associate Professor, K. U. Leuven - Examinateur
M. Gerard FAVIER - Directeur de Recherche, CNRS, Nice - Président
Mme. Sylvie ICART - Maitre de Conférences, Université de Nice - Examinateur
M. Eric MOREAU - Professeur, Université du Sud Toulon-Var - Rapporteur
M. Jean-Christophe PESQUET - Professeur, Université de Marne-la-Vallée - Président
M. Nicholas D. SIDIROPOULOS - Professor, Technical University of Crete - Rapporteur

02/04/2010
14h
Hesse Matthias
sophia-antipolis(France)
L2 -orthogonal Space-Time Code Design for Continuous Phase Modulation
Résumé    [ Annexes ]     
salle de conference

Hesse Matthias:
  Laboratoire I3S
  sophia-antipolis(France)

Résumé :

   Les codes spatio-temporels orthogonaux par blocs (OSTBC) sont devenus populaires en ce qu'ils permettent de construire des systèmes de communications sans-fil à diversité maximale et à décodage simplifié par maximum de vraisemblance découplé. Cependant, ces codes reposent en général sur une orthogonalité ponctuelle, ce qui entraîne une dégradation bien connue du débit de transmission pour les systèmes à plus de deux antennes d'émission.

Nous introduisons dans cette thèse le concept d'orthogonalité L2 pour les codes spatio-temporel (STC). Cette approche permet de généraliser naturellement la propriété d'orthogonalité ponctuelle pour des systèmes à codages spatio-temporels non-linéaires. Il devient alors possible de construire de nouveaux systèmes multi-antennes (MIMO) à faible complexité de décodage et gain de diversité maximal. De plus, contrairement aux systèmes reposant sur des codes linéaires orthogonaux, ces nouveaux systèmes ne présentent plus de limitation du débit de transmission pour plus de deux antennes. Nous détaillons la construction générale de diverses familles de codes spatio-temporels L2 à débit maximal reposant sur des modulations de phase continue (CPM) et ceci pour n'importe quel nombre d'antennes d'émission. L'orthogonalité L2 des systèmes construits est obtenue par un banc de fonctions de correction de phase qui induit la diversité par décalage en fréquence tout en maintenant la continuité de la phase pour chaque antenne. L'étude de ces codes permet de démontrer que les systèmes MIMO à décodage simplifié ainsi obtenus sont à diversité maximale et débit optimal. Enfin, notons que la construction de ces codes n'introduit aucune contrainte supplémentaire sur les paramètres des modulations de phase continue utilisées.


Abstract:

Orthogonal Space-Time block codes (STBC) have been a popular way to implement wireless communications systems with full diversity and simple decoupled maximum-likelihood decoding. However, all these codes rely on pointwise orthogonality which leads to a well-known degradation of data rate for more than two antennas.

In this thesis, we introduce the concept of L2-orthogonality for non-linear Space-Time codes (STC). Our approach generalizes code design based on pointwise orthogonality. Hence, we are able to derive new codes with the same advantages as pointwise orthogonal STBC, i.e. low decoding complexity and diversity gain. At the same time, we are no longer limited by the restrictions of pointwise orthogonal codes, namely the reduction in data rate. Actually, we show how to construct full rate codes for any arbitrary number of transmit antennas. More precisely, a family of codes for continuous phase modulation (CPM) is detailed. The L2-orthogonality of these codes is ensured by a bank of phase correction functions which maintains the phase continuity but also introduces frequency offsets. We prove that these codes achieve full diversity and have full rate. Moreover, these codes do not put any restriction on the CPM parameters.

   Le Jury sera composé de:

M. Gerard FAVIER - Directeur de Recherche, CNRS, Nice - Président
M. Mérouane DEBBAH - Professeur, SUPELEC, Paris - Rapporteur
M. Luc VANDENDORPE - Professeur, UCL - ELEC, Louvain - Rapporteur
M. Raymond KNOPP - Professeur, EURECOM, Nice - Examinateur

29/03/2010
14h
Viet Dung Doan
Sophia-Antipolis(France)
Grid computing for Monte Carlo based intensive calculations in financial derivative pricing applications
Résumé    [ Annexes ]     
Salle Euler Violet - INRIA Sophia Antipolis-Mediterranée

Viet Dung Doan:
  Laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Dans cette thèse, nous proposons un environnement de programmation sur grille, nommé PicsouGrid, qui cible tout particulièrement le pricing de contrats dérivés optionnels dans le domaine de la finance. Nous nous focalisons sur le problème de la valorisation d'options de grande dimension (c.a.d. dont le sous-jacent est un grand panier d'actifs). Cet environnement inclut des mécanismes de tolérance aux fautes, de répartition de charge, de partage dynamique de taches, de déploiement, et ainsi, cible des environnements de calcul hétérogènes tels les grilles de calcul.

Nous nous intéressons également à la parallélisation d'un algorithme nommé Classification Monte Carlo (CMC), défini à l'origine par Picazo (2002), pour calculer le prix d'options de type Américain en grande dimension, et qui passe à l'échelle. Nous décrivons les résultats d'expériences obtenus avec cet algorithme parallèle implémenté dans PicsouGrid avec jusqu'à 100 opportunités d'exercice et jusqu'à 40 actifs sous-jacents (pour faire référence à l'indice CAC40). Nous comparons et analysons la précision numérique des prix des ces options calculés avec cet algorithme CMC, et ce en utilisant différents algorithmes de classification, comme AdaBoost, Gradient Boost et les "Support Vector Machines".

Finalement, nous définissons une suite de tests de performance, dans le domaine de la finance, pour l'évaluation et l'analyse d'intergiciels de grilles de calcul. La suite de tests de performance a ete utilisee avec succes durant le "2008 SuperQuant Monte Carlo challenge - the Fifth Grid Plugtest and Contest". Dans le cadre de ce challenge, nous avons également développé une API pour faciliter la mise en oeuvre d'applications ProActive nécessitant des simulations Monte Carlo.

Mots clés : Grille de calcul, evaluation des options Américaines en grande dimension, méthode de Monte Carlo, techniques de classification, suite de benchmark, middleware de grille.


Abstract:

In this thesis, we provide a grid programming framework, named PicsouGrid, which especially targets financial derivative pricing applications. We are interested in the evaluation of high dimensional option contracts (based on a basket of underlying assets) Such a framework includes fault tolerance, load balancing, dynamic task distribution and deployment mechanisms, and as such targets heterogeneous computing environments like computing grids.

We also propose a parallelisation of the Classification Monte Carlo (CMC) algorithm, originally devised by Picazo (2002), for high dimensional American option pricing, which scales in a grid environment. We describe experimental results obtained running this parallel algorithm using PicsouGrid. We are able to run this algorithm for pricing American options requiring important computation times, because of a large number of opportunity dates (e.g. up to 100 such dates), and because of large dimension (e.g. up to 40 underlying assets). We also compare and analyse the option price accuracy obtained with this CMC algorithm when using different classification algorithms such as AdaBoost, Gradient Boost and Support Vector Machines.

Additionally, we define a financial benchmark suite for performance evaluation and analysis of grid computing middlewares. Such benchmark suite is conceptually simple and easy to understand for both the grid computing and financial communities. The benchmark suite was successfully used in the 2008 SuperQuant Monte Carlo challenge - the Fifth Grid Plugtest and Contest. Within the context of this challenge, we developed the ProActive Monte Carlo API (MC API).

Key works : Grid computing, high dimensional American option pricing, Monte Carlo methods, classification techniques, benchmark suite, grid middleware.

   Jury:
Johan Montagnat (Directeur de Recherche I3S CNRS) -- Président
David Hill (Professeur Université de Clermont Ferrand) -- Rapporteur
Bernard Lapeyre (Professeur École des Pont ParisTech) -- Rapporteur
Frédéric Abergel (Professeur École Centrale de Paris) -- Examinateur
Françoise Baude (Maître de Conférences HdR, Université de Nice Sophia-Antipolis) --Directrice de thèse
Mireille Bossy (Chargée de Recherche, INRIA Sophia Antipolis Mediterranée) -- Co-Directrice de thèse

11/03/2010
11h00
Khan Aamir Mehmood
Sophia-Antipolis ( France )
Conception basée sur les Modèles pour les Systèmes sur Puce: Utilisation et Extension de Marte et IP-Xact
Résumé    [ Annexes ]     
salle Euler Violet à l' INRIA de Sophia-Antipolis

Khan Aamir Mehmood :
  Laboratoire I3S/INRIA
  Sophia-Antipolis ( France )

Résumé :

   Les Systèmes sur puce (SoC) sont de plus en plus complexes. Leur conception repose largement sur la réutilisation des blocs, appelés IP (Intellectual Property). Ces IP sont construites par des concepteurs différents travaillant avec des outils différents. Aussi existe-t-il une demande pressante concernant l'interopérabilité des IP, c'est-à-dire d'assurer la compatibilité des formats et l'unicité d'interprétation de leurs descriptions. IP-Xact constitue un standard de facto défini dans le cadre de la conception de systèmes électroniques pour fournir des représentations portables de composants (électroniques) et d'IP. IP-Xact a réussi à assurer la compatibilité syntaxique, mais il a négligé les aspects comportementaux. UML est un langage de modélisation classique pour le génie logiciel. Il fournit des éléments de modèle propres à couvrir tous les aspects structurels et comportementaux d'une conception. Nous prônons une utilisation conjointe d'UML et d'IP-Xact pour réaliser la nécessaire interopérabilité. Plus précisément, nous réutilisons le profil UML pour MARTE pour étendre UML avec des caractéristiques temps réel et embarquées. Le paquetage Modélisation Générique de Ressources de MARTE est étendu pour prendre en compte des spécificités structurelles d'IP-Xact. Le Modèle de temps de marte étend le modèle atemporel d'UML avec le concept de temps logique bien adapté à la modélisation au niveau système électronique.

La première contribution de cette thèse est la définition d'un modèle de domaine pour IP-Xact. Ce modèle de domaine est utilisé pour construire un profil UML pour IP-Xact qui réutilise autant que possible les stéréotypes de MARTE et en définit de nouveaux uniquement en cas de besoin. Une transformation de modèle a été mise en oeuvre dans ATL permettant d'utiliser des éditeurs graphiques UML comme front-end pour la spécification d'IP et la génération des spécifications IP-Xact correspondantes. Inversement, des fichiers IP-Xact peuvent être importés dans un outil UML par une autre transformation de modèles.

La deuxième contribution porte sur la modélisation de propriétés et de contraintes temporelles portant sur des IP. Les diagrammes comportementaux d'UML sont enrichis avec des horloges logiques et des contraintes d'horloge exprimées dans le langage de spécification de contraintes d'horloge (CCSL) de MARTE. La spécification CCSL peut alors servir de « modèle de référence » pour le comportement temporel attendu et la vérification des implémentations à différents niveaux d'abstraction (RTL ou TLM). Les propriétés temporelles sont vérifiées en utilisant une bibliothèque spécialisée d'observateurs.

Abstract: On-chip systems (also known as System-on-chip or SoC) are more and more complex. SoC design heavily relies on reuse of building blocks, called IPs (Intellectual Property). These IPs are built by different designers working with different tools. So, there is an urgent demand for interoperable IPs, that is, ensuring format compatibility and unique interpretation of the descriptions. IP-Xact is a de facto standard defined in the context of electronic system design to provide portable representations of (electronic) components and IPs. It succeeds in syntactic compatibility but neglects the behavioral aspects. UML is a classical modeling language for software engineering. It provides several model elements to cover all aspects of a design (structural and behavioral). We advocate a conjoint use of UML and IP-Xact to achieve the required interoperability. More specifically, we reuse the UML Profile for MARTE to extend UML elements with real-time embedded specific features. MARTE General Resource Modeling package is extended to add IP-Xact structural features. MARTE Time Model extends the untimed UML with an abstract concept of time adequate to model at the Electronic System Level.

The first contribution of this thesis is the definition of an IP-Xact domain model. This domain model is used to build a UML Profile for IP-Xact that reuses as much as possible MARTE stereotypes and defines new ones only when required. A model transformation has been implemented in ATL to use UML graphical editors as front-ends for the specification of IPs and to generate IP-Xact specifications. Conversely, IP-Xact files can be imported within a UML tool through another model transformation.

The second contribution addresses the modeling of the IPs time properties and constraints. UML behavioral diagrams are enriched with logical clocks and clock constraints using the MARTE Clock Constraint Specification Language (CCSL). The CCSL specification can serve as a "golden model" for the expected time behavior and the verification of candidate implementations at different abstraction levels (RTL or TLM). Time properties are verified through the use of a dedicated library of observers.

   Le Jury sera composé de:

M. Jean-Luc DEKEYSER, Professeur Université des Sciences et Technologies de Lille, en qualité de rapporteur.
M. François TERRIER, Directeur de Recherche - CEA LIST/DTSI/SOL/LLSP, en qualité de rapporteur.
M. Pierre BRICAUD, Directeur R&D - SYNOPSYS, en qualité de invité.
M. Charles ANDRÉ, Professeur Université de Nice Sophia Antipolis, en qualité de directeur de thèse.
M. Frédéric MALLET, Maître de conférences Université de Nice Sophia Antipolis, en qualité de directeur de thèse.

16/12/2009
10h
De Cesare Cédric
Sophia-Antipolis / France
Acquisition de mosaïques d’images complètes à l’aide d’un engin sous-marin autonome
Résumé    [ Annexes ]     
salle de conference

De Cesare Cédric:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Durant les dernières années, l’imagerie visuelle est de plus en plus utilisée dans le milieu sous-marin, aussi bien comme une aide à la navigation que comme un outil de cartographie permettant l’étude et la surveillance des fonds sous-marins. Ces opérations de surveillance consistent principalement en l’établissement de cartes des fonds sur de larges zones (plusieurs km2). Les contraintes du milieu (grandes profondeurs, faible absorption de la lumière, etc…) imposent comme systématique l’utilisation de robots autonomes (AUVs), et ce à une altitude proche du fond. La carte est alors réalisée en mettant en correspondance les images enregistrées et en les fusionnant : on parle de mosaïques d’images. Les méthodes actuelles de construction de larges mosaïques ne garantissent pas le recouvrement de celles-ci, permettant ainsi l’existence possible de trous. Pourtant, cet enjeu est primordial afin de permettre une observation complète de la zone de mission. C’est dans ce contexte que s’inscrit notre sujet : «Acquisition de mosaïques d’images complètes à l’aide d’un engin sous-marin autonome».

Nous développons une stratégie adaptative qui assure le recouvrement de la mosaïque. Nous nous basons sur des trajectoires de type lawnmower et déterminons, à la fin de chaque segment observé, la distance avec le prochain segment. Cette distance dépend de l’incertitude de positionnement du robot. Celui-ci dérivant au cours du temps, il doit régulièrement se repositionner pour ne pas se perdre. En ce sens, les caractéristiques morphologiques de la zone observée vont définir des événements possibles de recalage, au cours desquels le robot va faire une mise à zéro de son erreur. Plus la région observée est texturée, plus le nombre d’événements est élevé, et plus le véhicule est mieux à même de se repositionner. La distance inter-segment sera alors grande. Au contraire, plus la région sera lisse, plus la distance de recouvrement sera faible. Dans notre souci d’optimisation de la distance inter-segment, nous risquons d’être confrontés à des situations de mises en correspondance d’images présentant un faible recouvrement. Les méthodes classiques échouent dans de telles situations car elles forcent les associations entre les localités des images (templates). Nous avons établit une méthode, basée sur la Théorie de l’Information, qui pallie ce problème et prend en compte ces ambiguïtés.


Abstract:

During the last years, visual imagery has been more and more used in the underwater environment, as well as an help for navigation than as a tool for cartography allowing the study and survey of seafloors. These operations of survey consist principally in the establishment of maps of the seafloor on large zones (several km2). The constraints of the environment (depth, low absorption of light, etc…) impose as systematic the use of autonomous underwater vehicles (AUV), and this at an altitude close to the ground. The map (image mosaic) is then obtained by matching and fusing the recorded images. The current construction methods of large mosaics do not guarantee the overlap of these ones, leading to the possible existence of holes in the mosaics. However, this stake is high in order to allow the complete observation of the mission zone. It is in this context that we have developed our subject of research : “Acquisition of complete image mosaics with an autonomous underwater vehicle”.

We develop an adaptive strategy that ensures the mosaic overlapping. We base our study on lawnmower trajectories and determine, at the end of each observed segment, the distance with the next segment. This distance depends on the robot relative positioning incertitude. This incertitude increasing with the time, the vehicle must recalculate its position frequently in order to not lose itself. The relief characteristics of the observed zone will define possible registration events, for which the vehicle will reset his positioning error. The more the textured region is, the higher the number of events is, and thus the vehicle can better position itself. The inter-track distance is then high. On the contrary, the less the region is informative, the lower the distance is. In our aim of inter-track distance optimisation, we risk to be confronted to low overlap image matching situations. The classical methods fail in such situations because they force the association between image localities (templates). We have established a method, based on Information Theory, that palliates this problem and take into account these ambiguities.

   Jury:

Joël Le Roux (Professeur des Universités - ESSI), Examinateur
Olivier Meste (Professeur des Universités – I3S), Examinateur
Simon Lacroix (Directeur de recherche – LAAS), Rapporteur
Olivier Strauss (Maître de conférences - LIRMM), Rapporteur
Michel Perrier (Ingénieur – Ifremer), Examinateur
Maria-João Rendas (Chargée de recherche – I3S), Co-directrice de thèse
Fabien Napolitano (Ingénieur – Ixsea), Invité
Stéphane Nicolas (Ingénieur – Prolexia), Invité

15/12/2009
14h
Pankajakshan Praveen
Sophia-Antipolis / France
Blind Deconvolution for Confocal Laser Scanning Microscopy
Résumé    [ Annexes ]     
Euler Building, Room Violet, INRIA Sophia-Antipolis

Pankajakshan Praveen:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Abstract:
Three dimensional (3D) fluorescence microscopy through optical sectioning is a very powerful technique for visualizing biological specimens. The microscope objective is focused at different depths in order to image the biological sample that one wishes to study. Yet, the observation process is never perfect and there are always uncertainties in measurements occurring as blur, aberration and noise. Often, the 3D observed images are never an ideal representation of the true object, and restoration approaches assume that the underlying degradation process is known. However, in fluorescence microscopy, often the degradation varies with imaging conditions and is also sometimes specimen dependent. Blind restoration approaches, tackle this much more realistic but difficult situation of restoration from a single observation of the sample. As the degradation is characterized by the system's point-spread function (PSF), the focus of this thesis is on estimating it along with the fluorescence distribution of the specimen. These problems are ill-posed, under-determined, and so we treat restoration as a Bayesian inferencing problem.
In the first part, we recall briefly how the diffraction-limited nature of an optical microscope's objective, and the intrinsic noise can affect an observed image's resolution. We use statistical approaches for restoration as the physics underlying the production of the images could be considered statistical in nature. The state of the art algorithms related to this subject are reviewed and also the modeling of the imaging process with the optical system is examined. As the imaging involves a photon counting process, the model chosen for the observation is based on the theoretically correct Poisson distribution. An alternative minimization (AM) approach, in the Bayesian framework, restores the lost frequencies beyond the diffraction limit by using a regularization on the object and a constraint on the PSF. Furthermore, new methods are proposed to learn the free-parameters, like the regularization parameter, which conventionally is chosen manually.
When imaging into deeper sections of the specimen, the approximation of an aberration-free imaging, as assumed previously, is not realistic anymore. This is because the refractive index mismatch between the specimen and the immersion medium of the objective lens becomes significant with depth under the cover slip. An additional difference in the path is introduced in the emerging wavefront of the light due to this difference in the index, and the phase aberrations of the wavefront becomes significant. The spherical aberrated (SA) PSF in this case becomes dependent on the axially varying depth. In the second part, we show that an object's location and its original intensity distribution can be recovered by retrieving this phase from the observed intensities. However, due to the incoherent nature of the acquisition system, phase retrieval from the observed intensities will be possible only if the phase restoration is constrained. We use geometrical optics to model the refracted wavefront phase, and modify the AM algorithm to retrieve the PSF from some simulated images. Finally, we propose an extension of this method to restore specimens affected by SA. In this case, as the PSF is depth varying, the linear space invariant model is not suitable. The observation process is defined by a quasi-stationary model, and the PSF approximated so that, excluding the object, there is only one free parameter to be estimated.

Keywords: confocal laser scanning microscopy, point-spread function, blind deconvolution, spherical aberration, Bayes' theorem, maximum likelihood, expectation maximization, maximum a posteriori, alternate minimization

   The jury consists of
Laure Blanc-Féraud, CNRS, France
Philippe Ciuciu, CEA/I2BM, Neurospin center, France
Alain Dieterlen, IUT de Mulhouse, France
Gilbert Engler, INRA Sophia-Antipolis, France
Zvi KAM, Weizmann Institute, Israel
Jean-Christophe Olivo-Marin, Pasteur Institute, France
James B. Pawley, University of Wisconsin Madison, USA
Josiane Zerubia, INRIA Sophia-Antipolis, France

The defense presentation and the discussion will be in English.

10/12/2009
14h
Amate Laure
Sophia-Antipolis / France
Learning sparse spline-based shape models
Résumé    [ Annexes ]     
salle de conference

Amate Laure:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Il est souvent important de trouver une représentation compacte des propriétés morphologiques d'un ensemble d'objets. C'est le cas lors du déplacement de robots autonomes dans des environnements naturels, qui doivent utiliser les objets dispersés dans la région de travail pour naviguer. Cette thèse est une contribution à la définition de formalismes et méthodes pour l'identication de tels modèles. Les formes que nous voulons caractériser sont des courbes fermées correspondant aux contours des objets détectés dans l'environnement, et notre caractérisation de leurs propriétés sera probabiliste.
Nous formalisons la notion de forme en tant que classes d'équivalence par rapport à des groupes d'opérateurs géométriques basiques, introduisant deux approches : discrète et continue. La théorie discrète repose sur l'existence d'un ensemble de points remarquables et est sensible à leur sélection. L'approche continue, qui représente une forme par des objets de dimension infinie, correspond mieux à la notion intuitive de forme mais n'est pas parcimonieuse.
Nous combinons les avantages des deux approches en représentant les formes à l'aide de splines : fonctions continues, flexibles, définies par un ensemble de noeuds et de points de contrôle. Nous étudions d'abord l'ajustement d'un modèle spline à une courbe, comme la recherche d'un compromis entre la parcimonie de la représentation et sa fidélité aux données, approche classique dans le cadre de familles imbriquées de dimension croissante. Nous passons en revue les méthodes utilisées dans la littérature, et nous retenons une approche en deux étapes, qui satisfait nos pré-requis : détermination de la complexité du modèle (par une chaîne de Markov à sauts réversibles), suivie de l'estimation des paramètres (par un algorithme de recuit simulé). Nous discutons finalement le lien entre l'espace de formes discrètes et les représentations splines lorsque l'on prend comme points remarquables les points de contrôle.
Nous étudions ensuite le problème de modélisation d'un ensemble de courbes, comme l'identification de la distribution des paramètres de leur représentation par des splines où les points de contrôles et les noeuds sont des variables latentes du modèle. Nous estimons ces paramètres par un critère de vraisemblance marginale. Afin de pouvoir traiter séquentiellement un grand nombre de données nous adaptons une variante de l'algorithme EM proposée récemment. Le besoin de recourir à des approximations numériques (méthodes de Monte-Carlo) pour certains calculs requis par la méthode EM, nous conduit à une nouvelle variante de cet algorithme, proposée ici pour la première fois.


Abstract:

In many contexts it is important to be able to find compact representations of the collective morphological properties of a set of objects. This is the case of autonomous robotic platforms operating in natural environments that must use the perceptual properties of the objects present in their workspace to execute their mission. This thesis is a contribution to the definition of formalisms and methods for automatic identication of such models. The shapes we want to characterize are closed curves corresponding to contours of objects detected in the scene.
We begin with the formal definition of the notion of shape as classes of equivalence with respect to groups of basic geometric operators, introducing two distinct approaches that have been used in the literature: discrete and continuous. The discrete theory, admitting the existence of a finite number of recognizable landmarks, provides in an obvious manner a compact representation but is sensible to their selection. The continuous theory of shapes provides a more fundamental approach, but leads to shape spaces of infinite dimension, lacking the parsimony of the discrete representation. We thus combine in our work the advantages of both approaches representing shapes of curves with splines: piece-wise continuous polynomials defined by sets of knots and control points.
We first study the problem of fitting free-knots splines of varying complexity to a single observed curve. The trade-of between the parsimony of the representation and its fidelity to the observations is a well known characteristic of model identication using nested families of increasing dimension. After presenting an overview of methods previously proposed in the literature, we single out a two-step approach which is formally sound and matches our specic requirements. It splits the identification, simulating a reversible jump Markov chain to select the complexity of the model followed by a simulated annealing algorithm to estimate its parameters. We investigate the link between Kendall's shape space and spline representations when we take the spline control points as landmarks.
We consider now the more complex problem of modeling a set of objects with similar morphological characteristics. We equate the problem to finding the statistical distribution of the parameters of the spline representation, modeling the knots and control points as unobserved variables. The identified distribution is the maximizer of a marginal likelihood criterion, and we propose a new Expectation-Maximization algorithm to optimize it. Because we may want to treat a large number of curves observed sequentially, we adapt an iterative (on-line) version of the EM algorithm recently proposed in the literature. For the choice of statistical distributions that we consider, both the expectation and the maximization steps must resort to numerical approximations, leading to a stochastic/on-line variant of the EM algorithm that, as far as we know, is implemented here for the first time.

   Jury:
Mr. Mario Figueiredo (Prof. IST Lisbonne), rapporteur
Mr. René Garello (Prof.Telecom Bretagne), rapporteur
Mr. Ian Jermyn (CR INRIA Sophia), membre du jury
Mr. Jacques Blanc-Talon (DGA/MRIS), membre du jury
Mr. Ciprian Girucaneanu (Researcher Univ. Tampere), membre invité
Mr Tarek Hamel (Prof. UNS), directeur de thèse
Mme Maria Joao Rendas (CR Laboratoire I3S), co-encadrante de thèse

03/12/2009
11h
COLLAVIZZA Hélène
Sophia-Antipolis / France
soutenance HDR - Contribution à la vérification formelle et programmation par contraintes.
Résumé    [ Annexes ]     
Salle 308, Polytech'Nice Sophia-Antipolis, Bâtiment SI (site des Templiers)

COLLAVIZZA Hélène:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   Ce mémoire d'Habilitation à Diriger des Recherches présente mes contributions à la vérification formelle des processeurs et des programmes, ainsi qu'à la programmation par contraintes. La vérification formelle, tant de matériel que de logiciel, est cruciale pour la sécurité des systèmes critiques, est un enjeu économique important et reste un défi pour la recherche.

Les méthodes de vérification formelle retenues, aussi bien pour la vérification des processeurs que des programmes sont des méthodes entièrement automatiques qui reposent sur l'utilisation de procédures de décision.
Pour la vérification de programmes, la résolution de contraintes sur domaines finis fournit une procédure de décision sur les entiers bornés (codables en machine). L'explosion combinatoire est retardée par la combinaison de solveurs spécifiques (booléen, linéaires, domaines finis), ce qui a permis d'obtenir des résultats expérimentaux qui surpassent dans certains cas les outils de "bounded model checking" basés sur l'utilisation de solveurs SAT.

Dans un second temps, la vérification formelle des programmes est également abordée sous l'angle du développement conjoint d'une vérification complète et d'une exploration par model checking, basés sur la sémantique formelle du langage définie dans l'assistant de preuves HOL4.

Enfin, ce mémoire présente mes contributions sur les contraintes en domaines continus (i.e. où les variables sont des nombres réels). Ces contraintes ont de nombreuses applications pratiques, par exemple en mécanique ou avionique, et leurs mécanismes de résolution peuvent servir de base à la vérification de programmes en présence de nombres flottants.


Summary :

This habilitation thesis presents my contributions to the formal verification of processors and programs, and to constraint programming. Formal verification of hardware and software is crucial for the safety of critical systems, is an important economic issue and remains a challenge for research.

The formal methods we explored for the verification of processors and programs are entirely automatic and based on decision procedures.
For the formal verification of programs, the resolution of constraints on finite domains provides a decision procedure on bounded integers (i.e. machine-codable). The combinatorial explosion is delayed by the combination of specific solvers (Boolean, linear, finite domains). This has made possible to obtain experimental results outperforming in some cases state of the art bounded model checkers based on SAT solvers.

In a second step, the formal verification of programs is also approached under the angle of the joint development of a complete proof and an exploration by model checking. Both complete proof and model checking are based on the formal semantics of the language defined in the proof assistant HOL4.

Lastly, this habilitation thesis presents my contributions on numerical constraints (i.e where variables are real numbers). These constraints have many practical applications, for example in mechanics or avionics. Furthermore, their resolution mechanisms can be a basis for the formal verification of programs with floating point numbers.

   Le jury sera constitué de :

Dominique Borrione, Professeur à l'Université de Grenoble
Mike Gordon, Professeur, Cambridge University
Thierry Jéron (rapporteur), Directeur de Recherches à l'IRISA, Rennes
Michel Rueher, Professeur à l'Université de Nice Sophia-Antipolis
Michaël Rusinowitch (rapporteur), Directeur de Recherches au LORIA Nancy
Lakhdar Saïs, Professeur à l'Université de Lens

Pascal Van Hentenryck, professeur à Brown University, est également rapporteur mais il ne participera pas au jury.

09/11/2009
10h30
Vicente ZARZOSO
Sophia-Antipolis/France
Soutenance HDR - Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical
Résumé    [ Annexes ]     
salle de conference

Vicente ZARZOSO:
  Laboratoire I3S
  Sophia-Antipolis/France

Résumé :

   Cet exposé portera sur la séparation de sources dans des mélanges linéaires. En réduisant le nombre d'hypothèses, l'approche dite aveugle s'est avérée adaptable à une grande variété de domaines d'application. Cependant, les performances peuvent être améliorées en exploitant des propriétés spécifiques du problème à traiter, comme on discutera pendant l’exposé. Quelques contributions récentes de ce type seront présentées, y compris une nouvelle technique robuste pour la séparation aveugle de sources dans des scénarios génériques et un nouveau critère pour l'estimation du signal atrial dans des enregistrements de surface de fibrillation auriculaire.

Abstract:

This talk will focus on the separation of source signals in linear mixtures. By making as few assumptions as possible, the blind approach has shown its adaptability to a wide variety of application domains. However, performance can be improved by exploiting specific features of the problem under analysis, as will be discussed throughout the talk. Some recent contributions of this kind will be presented, including a new robust technique for blind source separation in generic scenarios and a novel criterion for atrial signal estimation in atrial fibrillation surface recordings.

   Jury:

- John McWhirter (Cardiff University, Royaume-Uni)
- Sergio Cerutti (Politecnico di Milano, Italie)
- Jean-Marc Vesin (EPFL, Suisse)
- Christian Jutten (GIPSA-Lab, INP Grenoble)
- Éric Moreau (Université Sud Toulon Var)
- Pierre Comon (I3S, CNRS)

22/10/2009
14h30
Bettinger Régis
Sophia-Antipolis / France
System inversion by kriging applied to high-troughput catalysts synthesis (Inversion d'un système par krigeage appliquée à la synthèse de catalyseurs à haut débit).
Résumé    [ Annexes ]     
salle de conference

Bettinger Régis:
  Laboratoire I3S
  Sophia-Antipolis / France

Résumé :

   
Ce travail concerne la modélisation du processus de synthèse (construction) de supports de catalyseurs obtenus par réaction silice-alumine. Ce phénomène est caractérisé par 5 variables d'entrée et 2 variables de sortie (la surface spécifique et le volume mésoporeux du support de catalyseur). Chaque combinaison des valeurs de sortie ayant une application potentielle, on voudrait savoir en synthétiser le plus grand nombre, c'est-à-dire connaître les variables d'entrée permettant de construire un catalyseur ayant des caractéristiques données (surface, volume) a priori quelconques. Les limites atteignables des deux sorties du système sont inconnues.

Ne disposant pas de suffisamment d'essais pour pouvoir espérer construire un modèle fiable sur l'ensemble du domaine de variation des variables d'entrée, nous choisissons une approche par plans d'expérience séquentiels avec modélisation par krigeage permettant d'éviter une trop grande dispersion des variables d'entrée tout en assurant une exploration du domaine accessible pour les variables de sortie. Les essais sont choisis séquentiellement en se servant de l'information apportée par les essais précédents et traitée par le modèle de krigeage. Cette façon de procéder est a priori plus efficace que celle consistant à utiliser un plan d'expériences fixé au départ et comprenant la totalité des essais disponibles.

Des critères d'ajout séquentiel de points d'expérimentation (définissant les valeurs des variables d'entrée) sont proposés, qui favorisent une forte dispersion des sorties correspondantes et prennent en compte les incertitudes associées aux prédictions par krigeage. Enfin, les critères retenus, l'un à base de distance et l'autre à base d'entropie, sont testés sur des données simulées afin de vérifier la bonne répartition finale des valeurs des réponses.

Des rappels sur la modélisation par processus gaussien, la régression/interpolation par krigeage et ses liens avec les méthodes de type splines et SVM, ainsi que la planification d'expériences sont présentés en essayant de concilier rigueur et clarté.

Mots-clés : planification d'expériences, krigeage, entropie de Tsallis.


Abstract

This work deals with the modeling of the synthesis process for catalyst supports obtained by a chemical reaction involving silica and alumina. The process is characterized by 5 inputs and 2 outputs (specific surface and mesoporous volume of the support). Each pair of output values has a potential application and the ultimate objective is to be able to find input values associated with the synthesis of a catalyst with any given output characteristics (surface, volume). The ranges of the two outputs are unknown.

The number of runs available is too small to build a satisfactory model over the whole input domain. We thus combine design of experiments and kriging modeling in a way that ensures both a limited dispersion of the input factors and a good exploration of the reachable output domain. The runs are designed sequentially, using the information provided by former runs through their associated kriging model. This sequential construction seems more efficient than the design of a non-sequential experiment containing the total amount of available runs.

Several criteria are proposed for sequential design which favor a high dispersion of the corresponding outputs and take the uncertainties associated with the kriging model into account. The two most appealing are tested on simulated data in order to check the dispersion of outputs; one is based on minimax distance and the other on entropy.

Basic properties of Gaussian processes, regression/interpolation by kriging and links with other methods such as splines and SVMs are reminded, together with standard methods for designing experiments, with the objective of combining rigor and clarity.

Keywords : design of experiments, kriging, Tsallis entropy.

   Jury :
M. Pascal DUCHENE (Tuteur IFP)
M. Fabrice GAMBOA (Rapporteur)
M. Werner MULLER
M. Luc PRONZATO (Directeur de thèse)
M. Emmanuel VAZQUEZ
M. Henry WYNN (Rapporteur)

15/10/2009
14h
Simoncini David
Sophia-Antipolis
Sélection Topologique dans les Algorithmes Evolutionnaires Cellulaires : Etude du Compromis Exploration/Exploitation
Résumé    [ Annexes ]     
salle de conference

Simoncini David :
  Laboratoire I3S
  Sophia-Antipolis

Résumé :

    Les algorithmes évolutionnaires sont des méthodes d'optimisation approchéesmanipulant une population de solutions. Leur fonctionnement s'inspire de la théorie de l'évolution de Darwin. L'application combinée d'opérateurs stochastiques et de mécanismes de sélection permet de renouveler la population en explorant l'espace de recherche et en exploitant la qualité des solutions déjà découvertes. La vitesse de convergence d'un algorithme évolutionnaire dépend de sa capacité à générer de nouvelles solutions performantes en se dirigeant vers des régions prometteuses de l'espace de recherche et de celles des solutions à survivre en fonction de leur qualité déterminée par la pression de sélection. Celle-ci permet de contrôler le compromis entre exploration et exploitation et d'éviter une convergence prématurée vers un optimum local.

Les algorithmes évolutionnaires cellulaires introduisent une notion de voisinage géographique en structurant spatialement les solutions sur une grille. Cela permet d'ajouter un niveau topologique entre les niveaux phénotypique et génotypique. Dans ce contexte, nous définissons de nouvelles méthodes de sélection permettant à l'aide d'un paramètre continu et borné de contrôler la topologie et ainsi d'obtenir des dynamiques plus complexes.
Plutôt que de restreindre les solutions à évoluer sur une grille régulière où chaque cellule est indifférenciée, nous proposons d'enrichir la topologie en introduisant des notions d'anisotropie et de localité. Nous étudions l'influence de la sélection topologique sur la préservation de la diversité génotypique. Les expériences menées sur deux classes de problèmes NP-complets montrent que la prise en compte d'un point de vue topologique permet d'obtenir un bon équilibre entre exploration et exploitation. Dans le but d'étudier la dynamique de recherche et en particulier d'analyser l'efficacité des compromis observés, nous définissons un modèle théorique basé sur la notion d'équilibres ponctués. Enfin, nous proposons des algorithmes de contrôle utilisant la sélection topologique afin de réguler dynamiquement la pression de sélection et ainsi de gérer le rapport entre phases d'exploration et d'exploitation sans connaissance a priori sur les problèmes étudiés.





Abstract:

Evolutionary algorithms are stochastic optimization methods manipulating a population of solutions. Their behaviour is inspired by Darwin's theory of evolution. The combined application of stochastic operators and selection mecanisms allow renewing the population by exploring the search space and exploiting the already found solutions. The convergence speed of an evolutionary algorithm relies on its ability to generate efficient solutions by leading the search toward promising regions of the search space, and the ability of solutions to survive according to their fitness defined by the selective pressure. The latter allows dealing with the exploration / exploitation trade-off and prevents the algorithm from converging prematurely toward a local optimum.

Evolutionary cellular algorithms introduce a notion of geographical neighborhood by embedding the solution on a grid. This adds a topological level between the phenotypical and genotypical ones. In this context, we define new selection methods that allow controlling the topology and obtain complex dynamics thanks to a single continuous and bounded parameter. Instead of restricting solutions to evolve on a uniform grid, we propose to enhance the topology with notions of anisotropy and locality. We study the influence of the topological selection on the preservation of genotypic diversity. Experiences made on two classes of NP-complete problems show that taking into account the topological level leads to a fine equilibrium between exploration and exploitation. In order to study the search dynamic and especially to analyze the efficiency of the observed trade-offs, we define a model based on the notion of punctuated equilibria. Finally, we propose adaptive algorithms in the intent of dynamically controlling the selective pressure and thus dealing with the relation between exploration and exploitation phases without any knowledge on the studied problems.

   
M. Philippe Collard - Professeur Université de Nice Sophia-Antipolis (Directeur de thèse)
M. Jin-Kao Hao - Professeur Université d'Angers (Président du jury)
M. Marco Tomassini - Professeur Université de Lausanne (Rapporteur)

M. Guillaume Beslon - Maître de Conférences/HDR Université de Lyon (Rapporteur)
M. Manuel Clergue - Maître de Conférences Université de Nice Sophia-Antipolis (Examinateur)
M. Sébastien Verel - Maître de Conférences Université de Nice Sophia-Antipolis (Examinateur)

05/08/2009
15h00
Reyes Patricio
Sophia-Antipolis(France)
Collecte d'Information dans les Réseaux Radio / Data Gathering in Radio Networks
Résumé    [ Annexes ]     
Salle Euler Violet, INRIA Sophia-Antipolis

Reyes Patricio:
  laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Cette thèse concerne l'étude de l'algorithmique et de la complexité des communications dans les réseaux radio. En particulier, nous nous sommes intéressés au problème de rassembler les informations des sommets d'un réseau radio en un noeud central.

Ce problème est motivé par une question de France Telecom (Orange Labs) "comment amener Internet dans les villages". Les sommets représentent les maisons des villages qui communiquent entre elles par radio, le but étant d'atteindre une passerelle connectée à Internet par une liaison satellite. Le même problème se rencontre dans les réseaux de senseurs où il s'agit de collecter les informations des senseurs dans une station de base.

Une particularité des réseaux radio est que la distance de transmission est limitée et que les transmissions interfèrent entre elles (phénomènes d'interférences).
Nous modélisons ces contraintes en disant que deux sommets (équipements radio) peuvent communiquer s'ils sont à distance au plus dT et qu'un noeud interfère avec un autre si leur distance est au plus dI. Les distances sont considérées dans un graphe représentant le réseau. Une étape de communication consistera donc en un ensemble de transmissions compatibles (n'interférant pas).

Notre objectif est de trouver le nombre minimum d'étapes nécessaires pour réaliser un tel rassemblement et de concevoir des algorithmes réalisant ce minimum. Pour des topologies particulières comme le chemin et la grille, nous avons établi des résultats optimaux ou quasi optimaux.

Nous avons aussi considéré le cas systolique (ou continu) où on veut maximiser le debit offert à chaque noeud.



Abstract:

This thesis concerns the study of the algorithmic and the complexity of the communications in radio networks. In particular, we were interested in the problem of gathering information from the nodes of a radio network in a central node.

This problem is motivated by a question of France Telecom (Orange Labs) "How to bring Internet in villages".
Nodes represent the houses of the villages which communicate between them by radio, the goal being to reach a gateway connected to Internet by a satellite link. The same problem can be found in sensor networks where the question is to collect data from sensors to a base station.

A peculiarity of radio networks is that the transmission distance is limited and that the transmissions interfere between them (interference phenomena). We model these constraints by saying that two nodes (radio devices) can communicate if they are at distance at most dT and a node interferes with another one if their distance is at most dI. The distances are considered in a graph representing the network. Thus, a communication step will consist in a compatible (non interfering) set of transmissions.

Our goal is to find the minimum number of steps needed to achieve such a gathering and design algorithms achieving this minimum. For special topologies such as the path and the grid, we have proposed optimal or near optimal solutions.

We also considered the systolic (or continuous) case where we want to maximize the throughput (bandwidth) offered to each node.

   composition du Jury:
M. Jean-Claude Bermond, Directeur de Recherche CNRS, Directeur de Thèse
Mme. Luisa Gargano, Professeur U. Salerno, Rapporteur
M. Cyril Gavoille, Professeur U. Bordeaux, Rapporteur
M. Ralf Klasing, Chargé de Recherche CNRS, Co-Rapporteur
M. Stéphanne Pérennes, Chargé de Recherche CNRS, Examinateur
M. Hervé Rivano, Chargé de Recherche CNRS, Co-Directeur de Thèse

03/07/2009
14h
Carlos Alexandre Fernandes
Sophia-Antipolis (France)
Nonlinear MIMO Communication Systems: Channel Estimation and Information Recovery using Volterra Models
Résumé    [ Annexes ]     
salle de conference

Carlos Alexandre Fernandes:
  Laboratoire I3S
  Sophia-Antipolis (France)

Résumé :

   Abstract

Due to the presence of nonlinear devices such as power amplifiers (PA) and optical instruments, the communication signals are sometimes corrupted by nonlinear distortions. In such cases, nonlinear models are used to provide an accurate signal representation, allowing the development of efficient signal processing techniques capable of eliminating or reducing these nonlinear distortions. In this context, the choice of the nonlinear system model plays a fundamental role. The Volterra model has since longtime been used to represent communication systems in presence of nonlinear distortions, with applications for modeling satellite communication links, Orthogonal Frequency Division Multiplexing (OFDM) systems and Radio Over Fiber (ROF) channels.

The main objective of this thesis is to propose techniques for channel estimation and information recovery in multiple-input-multiple-output (MIMO) Volterra communication systems. This kind of MIMO model is able of modeling nonlinear communication channels with multiple transmit and receive antennas, as well as multi-user channels with a single transmit antenna for each user and multiple receive antennas. Channel estimation and equalization techniques are developed for three types of nonlinear MIMO communication systems: OFDM, ROF and Code division multiple access (CDMA)-ROF systems. According to the considered communication systems, different kinds of MIMO Volterra models are used. In the case of OFDM systems, we develop receivers that exploit the diversity provided by a proposed transmission scheme. In the case of time and space division multiple access (TDMA-SDMA) systems, a set of orthonormal polynomials is developed for increasing the convergence speed of a supervised adaptive MIMO Volterra estimation algorithm. Moreover, in order to develop signal processing techniques for MIMO Volterra communication channels in a blind scenario, we make use of tensor decompositions. By exploiting the fact that Volterra models are linear with respect to their coefficients, blind estimation and equalization of MIMO Volterra channels are carried out by means of the Parallel Factor (PARAFAC) tensor decomposition, considering TDMA-SDMA and CDMA communication systems.

--------------------

Resumo

Devido à presença de dispositivos não-lineares tais como amplificadores de potência (PAs) e equipamentos óticos, sinais em sistemas de comunicações estão sujeitos a distorções não-lineares. Quando tais distorções são importantes, modelos não-lineares são utilizados para fornecer uma descrição precisa dos sinais, permitindo o desenvolvimento de técnicas de processamento de sinais capazes de reduzir ou eliminar estas distorções. Dentro deste contexto, a escolha apropriada de um modelo de sistema não-linear é de grande importância. Os sistemas de Volterra são um dos modelos mais utilizados para representar sistemas de comunicações contaminados por distorções não-lineares, com aplicações na modelagem de enlaces satelitários, sistemas OFDM e Rádio Sobre Fibra (ROF), entre outros.

O principal objetivo desta tese é propor técnicas de estimação de canal e recuperação da informação em sistemas de comunicação MIMO Volterra. Tais modelos MIMO podem ser utilizados para representar sistemas de comunicação não-lineares com múltiplas antenas na transmissão e recepção, assim como canais multi-usuários com múltiplas antenas na recepção e uma antena de transmissão por usuário. As técnicas de estimação e equalização de canais contidas nesta tese são desenvolvidas para três diferentes tipos de sistemas de comunicação MIMO não-lineares: OFDM, ROF e ROF-CDMA, com diferentes tipos de modelos MIMO Volterra sendo utilizados de acordo como o sistema de comunicação considerado. Para o caso de sistemas OFDM, um esquema de transmissão que introduz diversidade nos sinais recebidos, assim como receptores que exploram esta diversidade, são propostos. Para o caso de sistemas TDMA-SDMA, um conjunto de polinômios ortogonais é desenvolvido para acelerar a convergência do algoritmo LMS durante a estimação supervisionada de sistemas MIMO Volterra. Além disso, para se desenvolver técnicas de processamento de sinais para canais de comunicação MIMO Volterra em um ambiente não-supervisionado, esta tese faz uso de decomposições tensoriais. Neste caso, técnicas de estimação e equalização de canais MIMO Volterra são desenvolvidas, tanto no caso de sistemas TDMA-SDMA, como no caso de sistemas CDMA, utilizando-se a decomposição PARAFAC e explorando o fato de os modelos de Volterra serem lineares com relação a seus coeficientes.

--------------------

Résumé

Du à la présence de dispositifs non-linéaires comme des amplificateurs de puissance (PAs) et des instruments optiques, les signaux de communication sont parfois corrompus par des distorsions non-linéaires. Dans ce cas, des modèles non-linéaires sont utilisés pour fournir une description précise des signaux, permettant le développement de techniques de traitement du signal capables d'éliminer ou de réduire ces distorsions. Dans ce contexte, le choix du modèle non-linéaire a une importance majeure. Les modèles de Volterra sont depuis longtemps utilisés pour représenter les systèmes de communication en présence de distorsions non-linéaires, ayant des applications dans les systèmes de communication par satellite, les systèmes OFDM et les systèmes Radio Sur Fibre (ROF), entre autres.

Le principal objectif de cette thèse est de proposer des techniques d'estimation et de récupération d'information dans les systèmes de communication MIMO Volterra. Ce type de modèle MIMO peut être utilisé pour modéliser des canaux de communication avec de multiples antennes à la transmission et à la réception, ainsi que des canaux multi-utilisateurs avec de multiples antennes à réception et une antenne de transmission par utilisateur. Les techniques d'estimation et d'égalisation de canaux sont développées pour trois systèmes de communication non-linéaires différents: OFDM, ROF et ROF-CDMA, différents modèles MIMO Volterra étant utilisés selon l'application considérée. Dans le cas des systèmes du type OFDM, un nouveau schéma de transmission qui introduit de la redondance dans les signaux transmis, ainsi que des récepteurs exploitant cette redondance sont proposés. Dans le cas des systèmes TDMA-SDMA, un ensemble de polynômes orthonormaux est développé pour améliorer la vitesse de convergence de l'algorithme LMS pour l'estimation adaptative supervisée d'un système MIMO Volterra. D'autre part, le développement de récepteurs pour des systèmes de communication MIMO Volterra dans un schéma de transmission aveugle est réalisé à l'aide de décompositions tensorielles. Dans ce cas, en exploitant le fait que les modèles de Volterra sont linéaires vis-à-vis de leurs coefficients, des techniques d'estimation et d'égalisation de canaux MIMO Volterra basées sur la décomposition PARAFAC sont développées pour des systèmes de communication TDMA-SDMA et CDMA.

   Le jury sera constitué de:
- Gérard FAVIER, Directeur de Recherche au CNRS, directeur de thèse
- João Cesar M. MOTA, Professeur à l'Université Federal Ceará, directeur de thèse
- Luc DENEIRE, Professeur à l'Université de Nice, président
- Eric MOREAU, Professeur à l'Université de Toulon, rapporteur
- João Marcos T. ROMANO, Professeur à l'Université de Campinas, rapporteur
- Charles C. CAVALCANTE, Maître de conf. à l'Université Federal Ceará, examinateur
- André L. F. de Almeida, enseignant-chercheur à l'Université Federal Ceará, examinateur

26/06/2009
10h30
Marie Andrée Agostini
Sophia Antipolis
NOUVELLES APPROCHES POUR LA COMPRESSION DE VIDEOS HAUTE DEFINITION - APPLICATION AU CODAGE PAR DESCRIPTIONS MULTIPLES
Résumé    [ URL ]
salle de conference

Marie Andrée Agostini:
  Laboratoire I3S
  Sophia Antipolis

Résumé :

   La problématique principale de cette thèse est la compression de masses de données vidéo haute résolution. Nous proposons un schéma de compression vidéo par transformée en ondelettes compensée en mouvement. Plus précisément, dans le but de réduire le coût des vecteurs mouvement parfois trop élevé dans ce type de schéma, nous avons développé une approche de quantification avec pertes de ces vecteurs, permettant d'adapter leur précision tout en respectant le compromis débit / distorsion. Cette approche permet d'améliorer considérablement les performances du codeur, spécialement à bas débit. Pour modéliser l'influence de l'introduction de perte sur l'information de mouvement, nous avons établi un modèle théorique de distorsion de l'erreur de codage, et, enfin, nous avons réalisé une allocation de débit optimale basée modèle entre les vecteurs mouvement et les coefficients d'ondelettes. Pour éviter certains artefacts dus à une mauvaise estimation du mouvement, nous avons ensuite amélioré le schéma lifting utilisé pour la transformée en ondelettes par une approche novatrice : les coefficients du schéma lifting sont adaptés à la norme des vecteurs mouvement. Notre méthode de quantification des vecteurs mouvement a par ailleurs été appliquée au codeur H.264, la norme actuelle de compression vidéo pour la Haute Définition. Enfin, nous avons travaillé sur le Codage par Descriptions Multiples, une approche de codage conjoint source / canal pour la compression robuste de vidéos utilisée dans la transmission sur des canaux de communication bruités. Nous avons développé un codeur vidéo robuste, par des approches de Codage par Descriptions Multiples dans le domaine transformé. Une allocation de débit est réalisée au codeur pour répartir le débit des coefficients d'ondelettes entre les différentes descriptions, en fonction des paramètres du canal. Plus particulièrement, pour reconstruire au mieux la vidéo en sortie du canal, nous avons réalisé des approches de décodage optimal, basées sur la connaissance des densités de probabilités des sous-bandes des différentes descriptions, sur un modèle de canal et sur des probabilités a posteriori. En parallèle, le codage de source vidéo distribué a également été exploré.

   

16/04/2009
16h45
Blay-Formarino Mireille
Sophia-Antipolis(France)
soutenance HDR Interprétations de la composition d'activités
Résumé    [ Annexes ]      [ URL ]
EPU bât.Templiers Amphi Ouest à Sophia Antipolis

Blay-Formarino Mireille:
  Laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Une grande part du développement logiciel repose sur des techniques de composition : assemblages de composants, orchestrations de services, tissages d'aspects, fusion de modèles. Un logiciel peut ainsi être appréhendé comme une composition d'activités logicielles. La complexité des compositions d'activités logicielles sous-jacentes ainsi que la multiplicité des intervenants conduisent à définir des supports de composition qui assurent des propriétés de consistance des assemblages obtenus, d'associativité dans les compositions, de préservation des activités, ... En fonction des approches, les propriétés recherchées sont différentes de même que les langages utilisés. Cette diversité engendre des difficultés à comparer les approches, à établir les propriétés recherchées, à définir et prouver les algorithmes de composition.

Nos travaux de recherche proposent une vision unifiée d'un procédé de composition d'activités logicielles et caractérisent les différences entre les approches en terme d'interprétations. La modélisation des activités, la définition des propriétés et leur impact sur l'algorithme de composition sont étudiés. En étayant cette formalisation par plusieurs mises en œuvre à la fois en terme d'environnement de programmation et d'applications nous ancrons cette approche dans une réalité fonctionnelle. Les principales applications de ce travail portent sur la composition d'interactions entre composants hétérogènes et la composition de workflows.

   
Jury:

Michel Riveill Université de Nice - Sophia Antipolis, Président du Jury

Laurence DUCHIEN Université de Lille - LIFL - INRIA, Rapporteur
Jean-Marc JEZEQUIEL Université de Rennes - IRISA, Rapporteur
Viviane JONCKERS Vrije Universiteit Brussel, VUB, Belgique, Rapporteur

Yves Caseau DGA Bouygues Telecom, Examinateur
Paul FRANCHI Université de Nice - Sophia Antipolis, Examinate

13/03/2009
14h
Leonardo Hidd Fonteles
Sophia-Antipolis(France)
Lattice vector indexing for generalized Gaussian distribution: application to source coding
Résumé    [ Annexes ]     
salle de conference

Leonardo Hidd Fonteles:
  Laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Les travaux de thèse ici présentés portent une attention particulière au comptage et à l'indexage des vecteurs d'un réseau régulier de points appartenant à des surfaces multidimensionnelles de norme Lp constante. Deux approches distinctes ont été adoptées, à savoir: le comptage des vecteurs au moyen de la série téta généralisée et de l'analyse Bohr-Fourier pour des fonctions presque périodiques; l'indexage des vecteurs leaders basée sur la théorie des partitions. La première approche généralise d'une façon très élégante les divers résultats d'énumération présents dans la littérature pour des valeurs de p quelconques et pour des réseaux tels que Dn, En, Barnes-Wall, Leech. La deuxième approche a abouti à un algorithme à faible complexité de calcul et à faible coût mémoire permettant l'indexage des vecteurs du réseau Zn pour des valeurs de norme et de dimension élevées et de p quelconques. Ces travaux ont été motivés en partie par l'utilisation de la quantification vectorielle algébrique (QVA) dans le contexte de codage de source. D'après la théorie de débit-distorsion de Shannon, la quantification vectorielle tend à être plus performante que la quantification scalaire pour des vecteurs de dimension arbitrairement élevées. Ainsi, une étude de performance débit-distorsion à été menée en utilisant l'algorithme d'indexage proposé dans le cadre de la QVA avec un codeur du type code produit. Des sources de distribution Gaussienne généralisée (DGG) avec différentes valeurs de paramètres de forme p ont été codées à l'aide du schéma proposé, les résultats obtenus se sont révélés prometteurs face à des techniques de l'état de l'art. L'impact de la mutualisation de l'information dans les performances de débit-distorsion a été également évalué lorsque le schéma de codage est appliqué à des données DGG corrélées. Une approche basée sur l'analyses en composantes indépendantes (ACI) à donc été proposé afin d'améliorer les performances de codage. Le schéma de compression a été également évalué dans le cadre du codage des images 2D et des maillages 3D surfaciques apportant des résultats très encourageant. Un schéma de recherche dans une base de données image à aussi été élaboré atteignant de bons résultats grâce à l'efficacité de l'algorithme d'indexage.

--------------

In this thesis we have being particularly interested in enumerating and indexing lattice vectors belonging to multidimensional surfaces of constant distance to the origin under the Lp metric. We developed two different approaches: vector enumeration using the generalized theta series and the Bohr-Fourier analysis for almost periodic functions; leader vector indexing based on the theory of partitions. The former one generalizes in an elegant way the different enumeration techniques we find in the literature, proposing an enumeration solution for arbitrary values of p and for different lattices such as Zn, Dn, En, Barnes-Wall, Leech. The latter approach results in an low computational complexity and memory requirement algorithm able to index Zn lattice vectors of high norms and dimensions for arbitrary values of p. The presented works have been motivated in part by the use of the lattice vector quantization (LVQ) in the source coding context. According to the Shannon's rate-distortion theory, vector quantization has the potential to achieve the optimal theoretical performance if the vector dimension is arbitrarily high. Therefore, we investigated the rate-distortion performance of the LVQ coupled to a product code encoder based on the proposed indexing technique. In order to do so we have encoded memoryless generalized Gaussian distribution (GGD) sources with different shape parameter p using the proposed scheme, the results obtained being very encouraging compared to state-of-the-art techniques. As a step forward we investigated the impact of the mutual information over the rate-distortion performance when applying the proposed encoding scheme to correlated GGD sources. As result, we developed an approach based on the independent component analysis (ICA) in order to improve the coding performances. Such compression scheme have also been applied in the context of 2D still images and 3D surface meshes yielding very competitive results. We have also elaborated an image database retrieval technique based on the proposed indexing method achieving very good speed-precision results thanks to the efficiency of the indexing algorithm.

   Le jury sera constitué de:
Marc Antonini, directeur de recherche, I3S/CNRS/UNSA (directeur de thèse)
Pierre Comon, directeur de recherche, I3S/CNRS/UNSA (président)
Christine Guillemot, directeur de recherche, IRISA/CNRS/INRIA (rapporteur)
Pier Luigi Dragotti, professeur associé, Imperial College/London (rapporteur)
Jean-Marie Moureaux, enseignant-chercheur, CRAN/Nancy/Université Henri Poincaré (examinateur)
Stéphane Ragot, ingénieur de recherche, France Télécom R&D, France (examinateur)

05/03/2009
14h30
Cheung Daniel
Sophia Antipolis(FRANCE)
ADAPTATION DYNAMIQUE PAR TISSAGE D’ASPECTS
Résumé    [ Annexes ]     
Amphi-théatre Est, Polytech'Nice Sophia-Antipolis, Bâtiment SI (site des Templiers)

Cheung Daniel :
  Centre Scientifique et Technique du Bâtiment
  Sophia Antipolis(FRANCE)

Résumé :

   L'Informatique Ambiante (IAm) engage de nombreux capteurs et actionneurs variés intégrés aux objets du quotidien. Ces dispositifs collaborent pour faire émerger de manière spontanée de nouvelles applications logicielles. Les fonctionnalités de ces applications sont adaptées aux dispositifs disponibles de l’environnement physique.

L’objectif est de proposer une approche originale pour développer ces nouvelles applications IAm. Ces dernières doivent prendre en compte un ensemble de dispositifs temporaires et non connus à priori. Nous présentons notre approche s’appuyant sur les techniques de programmation à base de composants logiciels et sur le concept d’« aspect d'assemblage », une évolution de l'AOP de Kiczales, qui spécifie les mécanismes de composition automatique et les principes de gestion d’interférences potentielles entre les spécifications d’adaptation. Une approche à base de règles logiques permet de résoudre les problèmes d’interférence. Une application s'adapte alors par tissage – composition et gestion d’interférences – entre ces aspects d'assemblage.

Ces travaux ont permis la réalisation d'une extension de la plate-forme logicielle WComp et la mise en œuvre de plusieurs prototypes d'expérimentation IAm, notamment dans le domaine du bâtiment intelligent.


Summary:

Ambient computing uses various devices integrated to objects of our everyday life. Those devices collaborate to build dynamically new applications according to the set of ambient devices which are not necessarily known in advance.

A new approach is proposed to develop componentized applications for ambient computing which rely on a new concept called "aspect of assembly" to manage independent, automatic and structural composition of Ambient applications and their possible intrinsic interferences. These interferences are automatically solved by using merging rules specified in a logical formalism. An application adaptation is then developed by weaving (composing & interferences solving) aspects of assembly.

This work enabled the implementation of an extension of the WComp component framework and several experimental prototypes in Ambient computing, namely for smart building domain.

   Jury :
Noëmie Simoni, Prof. à l'ENST (Présidente)
Lionel Seinturier, Prof. à l'Université de Lille (Rapporteur)
Didier Donsez, Prof. à l'Université Grenoble 1 (Rapporteur)
Michel Riveill, Prof. à l'Université de Nice Sophia Antipolis (Directeur)
Jean-Yves Tigli, MCf à l'Université de Nice Sophia Antipolis (Co-Directeur)
Stéphane Lavirotte, MCf à l'Université de Nice Sophia Antipolis
Eric Pascual, Ingénieur CSTB

10/02/2009
10h30
Soulignac Michael
Sophia-Antipolis(France)
Planification de trajectoire en présence de courants Application aux missions de drones
Résumé    [ Annexes ]     
salle de conference

Soulignac Michael:
  Labo I3S
  Sophia-Antipolis(France)

Résumé :

   Les véhicules aériens sans pilote, ou drones, sont utilisés de façon grandissante pour réaliser des missions pouvant être répétitives, longues ou dangereuses (reconnaissance, surveillance, sauvetage, etc.). Dans toutes ces missions, de par leur faible vitesse et leur petite taille, les drones sont particulièrement sensibles aux courants aériens.

Dans ce contexte, nous avons développé, au cours de la thèse proposée, deux algorithmes de planification de trajectoire en présence de courants. Ces deux algorithmes sont des extensions des techniques dites de "propagation d'onde":

1. La propagation d’onde coulissante, permet de planifier des trajectoires de façon fiable même en présence de courants forts. Cette technique constitue une avancée par rapport aux techniques de planification existantes, qui peuvent, dans ce contexte particulier, manquer des solutions (problème d’incomplétude) ou pire, renvoyer des solutions physiquement non réalisables par le drone (problème d’incorrection).

2. La propagation d’onde symbolique, permet de planifier des trajectoires en présence de courants variables dans le temps. Etant données des prévisions de courants, cette technique permet de calculer la date de départ minimisant le temps de parcours du drone, ainsi que la trajectoire optimale associée, en anticipant les changements de courants.

Ces deux techniques seront détaillées lors de la soutenance, ainsi que les avancées qu'elles présentent, en termes de performance et de fiabilité, par rapport aux techniques de l'état de l'art.

   

    Jury composé de :


Michel RUEHER, Université de Nice Sophia Antipolis, Directeur de Thèse
Malik GHALLAB, INRIA, Rapporteur
Luc JAULIN, ENSIETA, Rapporteur
Jean-Paul LAUMOND, LAAS/CNRS, Rapporteur
Jean-Pierre MERLET, INRIA, Examinateur
Patrick TAILLIBERT, THALES Aerospace, Examinateur

02/02/2009
14h30
YURCHYSHYNA Anastasiya
Sophia Antipolis/France
Soutenance de thèse: Modélisation du contrôle de conformité : une approche ontologique
Résumé    [ Annexes ]     
salle 310 de Polytech'Nice Sophia Antipolis(site des Templiers)

YURCHYSHYNA Anastasiya:
  I3S
  Sophia Antipolis/France

Résumé :

   Dans le cadre de notre thèse, nous nous sommes intéressés à la modélisation du contrôle de conformité dans le domaine de la construction. Notre objectif principal a été de développer un modèle du contrôle de conformité d’un projet de construction relativement à un cadre réglementaire ou normatif traduit sous forme des contraintes de conformité. Nous proposons une formalisation des projets et des contraintes de conformité et des mécanismes de raisonnement permettant d’automatiser le processus de contrôle de conformité, en identifiant les causes éventuelles de non-conformité, et nous développons un modèle global du processus de contrôle intégrant des connaissances expertes. Partant du constat du manque de modèle de contrôle structuré et explicite qui prendrait en compte toute la complexité des connaissances liées au processus du contrôle et permettrait de réaliser un contrôle efficace, nous avons développé un modèle global du contrôle de conformité qui se base sur trois contributions principales :
(i) une approche ontologique pour la représentation formelle des connaissances concernant le contrôle de conformité à savoir : ontologie du contrôle de conformité, requêtes de conformité, projet de construction orienté contrôle ;
(ii) une méthode d’annotation sémantique et d’organisation des requêtes de conformité intégrant des connaissances sur le domaine pour un raisonnement efficace ;
(iii) une modélisation de la démarche experte de contrôle basée sur l'appariement des annotations de projet et des requêtes de conformité et l'ordonnancement des requêtes de conformité pour un contrôle optimisé. Les résultats de ce travail ont été validés par le développement d'une application web qui utilise le moteur sémantique CORESE et l’environnement SeWeSe/Tomcat de développement d'applications Web sémantique. Les connaissances sont formalisées dans les langages RDF, OWL-Lite et SPARQL. Nous avons mené des expérimentations sur une base de projets de constructions et un ensemble de textes réglementaires relatifs à l'accessibilité des bâtiments, fournis par le Centre Scientifique et Technique du Bâtiment (CSTB).

Abstract
In this work we are interested in modelling the conformity-checking process in the construction domain. The main objective of this research work was to model the process of checking whether a construction project (e.g. public building) is compliant or not to a set of conformity requirements defined in construction regulations (i.e. a set of conformity constraints extracted from construction-related legal texts). We propose the formalisation of construction projects and conformity constraints, elaborate reasoning mechanisms automating the conformity-checking process by identifying eventual reasons of non-conformity, as well as developing a global conformity-checking model that integrates expert knowledge. By identifying the absence of a structured and explicit model that integrates the whole complexity of the knowledge taking part in the checking process and increases its effectiveness, we have developed a general conformity-checking model that has three main contributions:
(i) an ontological approach for the formal representation of knowledge concerning conformity-checking: conformity-checking ontology, conformity requirements, construction project oriented to conformity checking;
(ii) a method for semantic annotation and organisation of conformity queries that integrates domain knowledge;
(iii) modelling of the process of the conformity-checking adopted by checking engineers, which is based on matchings of project annotations and conformity queries and on scheduling of conformity queries for effective checking.
The results of our research have been validated by the development of the web application that uses the semantic engine CORESE and the environment SeWeSe/Tomcat for the development of Semantic Web applications. The knowledge is formalised in the languages RDF, OWL-Lite and SPARQL. We have fulfilled the experimentations on the basis of construction projects and a set of regulation texts relating to the accessibility of public buildings that were by the Centre Scientifique et Technique du Bâtiment (CSTB).

   Le jury sera constitué de :
- Mr Michel LEONARD, Professeur des universités, Université de Genève / Président
- Mme Zohra BELLAHSENE, Professeur des universités, Université de Montpellier II, LIRMM / Rapporteur
- Mr Ollivier HAEMMERLE, Professeur des universités, Université Toulouse Le Mirail / Rapporteur
- Mme FARON-ZUCKER, Maitre de Conférence, Université de Nice - Sophia Antipolis / Directrice
- Mr Nhan LE THANH, Professeur des universités, Université de Nice - Sophia Antipolis / Directeur
- Mr Alain ZARLI, Chef de la Division I2S du Centre Scientifique et Technique du Batiment (CSTB) / Examinateur
- Mr Celson LIMA, Professeur, Nouvelle Université de Lisbonne (UNL), Portugal / Examinateur

17/12/2008
14h
Jean-Vivien MILLO
Sophia-Antipolis (France)
Ordonnancements périodiques dans les réseaux de processus: Application à la conception insensible aux latences
Résumé    [ Annexes ]      [ URL ]
salle Euler violet à l'INRIA Sophia-Antipolis

Jean-Vivien MILLO:
  I3S
  Sophia-Antipolis (France)

Résumé :

   Du fait de la miniaturisation grandissante des circuits électroniques, la conception de système sur puce actuelle, se heurte au problème des latences sur les fils d'interconnexions traversant tout le circuit. Un système sur puce est un ensemble de blocs de calculs (les composants IP) qui s'échangent des données. Alors que la communication à l'intérieur de ces blocs de calculs peut toujours se faire de manière synchrone, c'est à dire s'abstraire comme une action instantanée, la communication d'un bloc de calculs à un autre prend un temps qui n'est pas négligeable. Il s'écoule plusieurs cycles d'horloge entre l'émission d'une donnée sur un fil d'interconnexion et sa réception.

La théorie du Latency Insensitive Design créée par Luca Carloni et Alberto Sangiovanni-Vincentelli permet entre autre de résoudre ce problème en implantant un protocole de communication basé sur la segmentation des fils d'interconnexions et sur le principe de rétroaction en cas d'embouteillage.

Dans un premier temps, nous avons donné un fondement théorique à cette théorie en la rapprochant formellement d'une modélisation par Marked/Event graph (Sous ensemble sans conflit des Réseaux de Pétri) et avec des places de capacité $2$; ce qui génère naturellement le protocole de contrôle de flux.

Cette modélisation nous amène à la problématique principale de cet ouvrage: comment, et sous quelles conditions, peut on minimiser la taille des ressources de mémorisation utilisées comme tampons intermédiaires au long de ces fils d'interconnexions? Car leur nombre et leur position peuvent se révéler critique à l'implantation matérielle.

Nous allons ensuite étudier cette question sous une hypothèse naturelle de déterminisme, ce qui permet d'obtenir des régimes de fonctionnement périodiques et réguliers.

Le but de cette thèse est de modifier le protocole mis en place dans la théorie du Latency Insensitive Design en prenant en compte cette hypothèse. L'étude des systèmes déterministes et des résultats existant nous a permis une première phase de modification appelée: égalisation.

L'étape suivante consiste à ordonnancer statiquement ces systèmes. Pour cela, nous avons choisi de représenter explicitement l'ordonnancement de chacun des éléments du système comme un mot binaire périodique où les "1" représentent les instants d'activités et les "0" d'inactivités tel que M. Pouzet et al. l'ont introduit dans le "N-synchronous Kahn network".

Une étude approfondie des différentes classes de mots binaires existants (mot de Sturm, de Christoffel, de Lyndon ou encore mécaniques) a précédé leur association à la théorie du Latency Insensitive Design et au processus d'égalisation pour obtenir des systèmes déterministes ordonnancés statiquement.

Abstract:

Due to the increasing scaling of digital system, System-on-Chip (SoC) design deals with latencies problem on long wire interconnection through the whole chip. A SoC is a set of IP components communicating together. While the communication inside the IP component can still be considered synchronous (abstracted as instantaneous action), the communication between IP components should not. Many clock cycles occur between sending and reception of a data on an interconnexion wire.

The theory of Latency Insensitive Design (LID) created by L. Carloni and A. Sangiovanni-Vincentelli solves this problem by implementing a communication protocol based on segmentation of interconnection wire and back pressure in case of local traffic jam.

In the first time, we'll give theoretical basis of LID theory by formally linking it to the deterministic model of Marked/Event graph (conflict free subset of Petri net), and limiting the capacity of places by 2; which naturally implement the back pressure protocol.

This model drive us to the main problem of this work: How to minimize the size of memory resources used as buffer through the interconnection wires? Because their quantity and location should become critical at implementation.

Then we'll study this problem with the natural hypothesis of determinism. This allow the system to have regular and periodic behaviour.

The goal of this work is to modify the LID theory by taking care of this hypothesis. the study of deterministic systems and previous results lead us to a first modification step called: Equalization.

Next step consist in statically schedule these system. We chose to explicitly represent schedule of each element of the system using periodic binary word (1 for activity, 0 for stalling) such M. Pouzet and al. introduce it in "N-synchronous Kahn network".

A study of different classes of binary word (Sturm, Christoffel, Lyndon, Mechanical words) was prior to their association to LID theory and {\em Equalization} process. We obtained statically scheduled systems which answered to the main problem of this work.

   Ce travail a été fait dans le cadre du projet Sys2rtl de la plate-forme Conception de CIMPACA. Il a été dirigé par Robert de Simone.

Le Jury sera composé de:

Mr Bruno Gaujal, Directeur de recherche à l'INRIA Rhône-Alpes, en qualité de rapporteur.
Mr Marc Pouzet, Professeur à l'Université de Paris Sud 11, en qualité de rapporteur.
Mr Gael Clavé, Ingénieur Principal de Texas Instrument Villeneuve Loubet, en qualité d'examinateur.
Mr Michel Auguin, Directeur de recherche au LEAT/ CNRS UMR 6071, en qualité de président du jury.
Mr Robert de Simone, Directeur de recherche à l'INRIA Sophia-Antipolis, en qualité de directeur de thèse.

15/12/2008
15h30
Nicolas Nobelis
Sophia-Antipolis(France)
Une architecture pour le transfert électronique sécurisé de document
Résumé    [ Annexes ]      [ URL ]
salle 310 de Polytech’Nice Sophia-Antipolis (troisième étage du site des Templiers)

Nicolas Nobelis :
  laboratoire I3S
  Sophia-Antipolis(France)

Résumé :

   Une architecture pour le transfert électronique sécurisé de document

Grâce à l'avènement des réseaux de télécommunications, de nombreux acteurs ont exprimé des besoins hétérogènes liés au transfert électronique sécurisé de document. Ces acteurs peuvent être professionnels (une entreprise souhaitant transmettre des plans de fabrication à un de ses fournisseurs), particuliers (un individu souhaitant partager ses photos de vacances avec un proche) ou gouvernementaux (une procédure administrative devant être envoyée au département d'une administration).

L'hétérogénéité des besoins susnommés provient de la nature des documents traités, mais également des propriétés de sécurité à assurer. Afin de satisfaire ces différents besoins, de nombreux protocoles sécurisés de communication ont ainsi été développés. Néanmoins, il n'existe pas de bijection entre les protocoles et les besoins et il très souvent difficile d'associer à un besoin le protocole adéquat.

Au cours de leur cycle de vie, les protocoles de communication existants peuvent être gérés (utilisés, créés et déployés) par trois rôles : l'utilisateur, le développeur de protocole et l'administrateur système. Chacun de ces derniers est confronté à un problème spécifique :
Après avoir exprimé un besoin, l’utilisateur ne dispose pas de suffisamment de critères pour évaluer les protocoles candidats, et ne peut obtenir l’assurance que le protocole choisi satisfait bien le besoin exprimé.
Le développeur de protocole doit faire face à des choix critiques lorsqu’il doit implémenter un nouveau protocole, particulièrement celui des bibliothèques de sécurité à utiliser. De plus, il n’existe pas de correspondance simple entre une propriété de sécurité et les outils cryptographiques, ce qui peut freiner le passage de la spécification à l’implémentation.
L’administrateur système paye les conséquences des choix du développeur à travers la multiplication des bibliothèques de sécurité à déployer : chaque protocole peut ainsi être dépendant d’une librairie spécifique sans que l’administrateur ait la possibilité de remplacer, suivant le contexte, cette dépendance par une autre.

Le premier objectif de nos travaux est de rechercher une solution à ces problèmes. Une approche par composition nous semble particulièrement viable : les composants logiciels permettent en effet d'isoler des fonctionnalités spécifiques à des fins de réutilisabilité et de composition. De plus, l'utilisation de tels composants permet à une application d'annoncer et de certifier certaines caractéristiques requises par ses utilisateurs. Dans le cadre de cette thèse, nous définissons la notion de composants de sécurité de haut niveau remplissant chacun une propriété de sécurité et disposant d'une interface générique permettant leur utilisation par différents protocoles et applications.

Le second objectif de cette thèse est la conception de notre architecture appelée A.D.E.P.T. (Architecture pour les Documents Électroniques Plus leurs Transferts) et consacrée au transfert électronique de document. Cette architecture, paramétrée par des politiques de sécurité, tire partie des composants de sécurité de haut niveau grâce à un ou plusieurs assemblage(s) de ces composants adapté(s) aux besoins des différents rôles. Ces différents assemblages permettent d'illustrer les fonctionnalités de nos composants et de montrer leurs utilisations variées par les rôles susmentionnés.



An architecture for secure electronic document transfer

In our Information Era, various actors have expressed their needs related to electronic document transfer. These actors can be corporates (a company willing to send confidential schematics to its subcontractor), individuals (a person wishing to share his holiday pictures with his friend) or governments (an administration sending documents to another department).

These needs are heterogeneous because they depend not only on the document being transferred, but also on the security properties to fulfill. To satisfy these different needs, numerous secure communication protocols have been developed. However, there is no bijection between the protocols and the needs: thus, it is difficult to associate the adequate protocol to a specific need.

During their life cycles, the existing communication protocols can be managed (created, deployed, and used) by three roles, each of them having different objectives: non-expert user, protocol developer and system administrator.

The first objective of this thesis is to help these roles find a solution to their problems. A component-based approach seems particularly suitable: in fact, software components allow to isolate specific functionalities for reuse and composition. Moreover, the use of such components enables applications to certify features which may be required by the users. In the context of this work, we define the notion of high level security components, each fulfilling a security property. These components have a generic interface which allows their use by various protocols and applications.

The second objective of this thesis is to design an architecture named A.D.E.P.T. and dedicated to the electronic document transfer. This architecture, driven by security policies, relies on one or several assemblies of high level security components to satisfy users needs. These assemblies allow us to illustrate the functionalities of our components as well as their use by the aforementioned roles.

   Le jury sera constitué de :
* Mr Abdelmalek Benzekri Professeur, Université de Toulouse III, IRIT / Rapporteur
* Mr Philippe Owezarski Chargé de Recherche, CNRS, LAAS / Rapporteur
* Mr Bruno Martin Professeur, Université de Nice - Sophia Antipolis, I3S / Examinateur
* Mr Jean-Christophe Pazzaglia SAP Research Sophia Antipolis / Examinateur
* Mlle Karima Boudaoud Maître de conférences, Université de Nice - Sophia Antipolis, I3S / Co-Directrice de thèse
* Mr Michel Riveill Professeur, Université de Nice - Sophia Antipolis, I3S / Directeur de thèse

11/12/2008
10h30
Garcia Vincent
France
Suivi d'objets d'intérêt dans une séquence d'images : des points saillants aux mesures statistiques
Résumé    [ URL ]
salle de conference

Garcia Vincent:
  I3S
  France

Résumé :

   Le problème du suivi d'objets dans une vidéo se pose dans des domaines tels que la vision par ordinateur (vidéo-surveillance par exemple) et la post-production télévisuelle et cinématographique (effets spéciaux). Il se décline en deux variantes principales : le suivi d'une région d'intérêt, qui désigne un suivi grossier d'objet, et la segmentation spatio-temporelle, qui correspond à un suivi précis des contours de l'objet d'intérêt. Dans les deux cas, la région ou l'objet d'intérêt doivent avoir été préalablement détourés sur la première, et éventuellement la dernière, image de la séquence vidéo. Nous proposons dans cette thèse une méthode pour chacun de ces types de suivi ainsi qu'une implémentation rapide tirant partie du Graphics Processing Unit (GPU) d'une méthode de suivi de régions d'intérêt développée par ailleurs. La première méthode repose sur l'analyse de trajectoires temporelles de points saillants et réalise un suivi de régions d'intérêt. Des points saillants (typiquement des lieux de forte courbure des lignes isointensité) sont détectés dans toutes les images de la séquence. Les trajectoires sont construites en liant les points des images successives dont les voisinages sont cohérents. Notre contribution réside premièrement dans l'analyse des trajectoires sur un groupe d'images, ce qui améliore la qualité d'estimation du mouvement. De plus, nous utilisons une pondération spatio-temporelle pour chaque trajectoire qui permet d'ajouter une contrainte temporelle sur le mouvement tout en prenant en compte les déformations géométriques locales de l'objet ignorées par un modèle de mouvement global. La seconde méthode réalise une segmentation spatio-temporelle. Elle repose sur l'estimation du mouvement du contour de l'objet en s'appuyant sur l'information contenue dans une couronne qui s'étend de part et d'autre de ce contour. Cette couronne nous renseigne sur le contraste entre le fond et l'objet dans un contexte local. C'est là notre première contribution. De plus, la mise en correspondance par une mesure de similarité statistique, à savoir l'entropie du résiduel, d'une portion de la couronne et d'une zone de l'image suivante dans la séquence permet d'améliorer le suivi tout en facilitant le choix de la taille optimale de la couronne. Enfin, nous proposons une implémentation rapide d'une méthode de suivi de régions d'intérêt existante. Cette méthode repose sur l'utilisation d'une mesure de similarité statistique : la divergence de Kullback-Leibler. Cette divergence peut être estimée dans un espace de haute dimension à l'aide de multiples calculs de distances au k-ème plus proche voisin dans cet espace. Ces calculs étant très coûteux, nous proposons une implémentation parallèle sur GPU (grâce à l'interface logiciel CUDA de NVIDIA) de la recherche exhaustive des k plus proches voisins. Nous montrons que cette implémentation permet d'accélérer le suivi des objets, jusqu'à un facteur 15 par rapport à une implémentation de cette recherche nécessitant au préalable une structuration des données.

   

04/12/2008
10h
Aline Cabasson
Sophia-Antipolis
Estimation et Analyse des Intervalles Cardiaques
Résumé    [ URL ]
salle de conference

Aline Cabasson:
  I3S
  Sophia-Antipolis

Résumé :

   Dans ces travaux, nous nous intéressons à l'estimation et l'étude des intervalles cardiaques. L'objectif principal de cette thèse est donc de développer de nouveaux outils d'estimation de ces intervalles. Plus précisément, nous souhaitons concevoir de nouvelles techniques de traitement du signal pour extraire des ECG les intervalles P-R, qui sont très peu étudiés dans la littérature de part la difficulté d'extraire les ondes P, et dans un second temps les intervalles Q-T. Inspirés de la méthode itérative de Woody (1967) basée sur une technique de corrélation de chaque observation avec une moyenne des signaux réalignés, nous proposons tout d'abord un perfectionnement de cette méthode. En effet, à partir du même modèle d'observations, nous développons le critère de maximum de vraisemblance et nous obtenons une amélioration de la méthode de Woody au sens de l'optimalité. Le modèle d'observations de cette méthode est ensuite enrichi par une onde potentiellement parasite additionnée au bruit, et une généralisation de la méthode de Woody est proposée. En prenant l'exemple de l'onde T de l'ECG qui se superpose à l'onde P du battement suivant lorsque la fréquence cardiaque est élevée, différents modèles de l'onde T sont proposés. Grâce à ces deux méthodes proposées, les objectifs d'estimer et d'analyser les intervalles cardiaques, tels que les intervalles R-R, Q-T et P-R, sont atteints. Plus précisément, grâce à la généralisation de Woody, l'estimation des intervalles P-R à l'exercice est réalisable. L'application de ces méthodes aux enregistrements réels de différents types d'ECG (repos, exercice, fibrillation auriculaire,…), nous a révélé de nouveaux résultats concernant l'évolution des intervalles cardiaques, comme par exemple : l'existence d'un phénomène d'hystérésis en sens horaire dans la relation P-R/R-R, et une caractérisation possible des sujets en fonction de leur niveau d'entraînement à l'aide de la pente des intervalles P-R au début de la phase de récupération. Une modélisation de la réponse du Q-T à un changement de la période cardiaque a également été proposée s'inspirant du comportement électrique cellulaire.

Mots-clefs : Électrocardiogramme (ECG), estimation de temps de retard, maximum de vraisemblance, intervalles P-R, intervalles Q-T, exercice, récupération, hystérésis P-R/R-R, modélisation Q-T/R-R.

Abstract:
In this work, we study the estimation and the analysis of the cardiac intervals. The main objective of this thesis is therefore to develop new signal processing tools for estimating in ECG, the P-R intervals which are poorly studied in the literature because of the difficulty in extracting the P waves, and the Q-T intervals. Inspired by the method of Charles D. Woody (1967) based on iterative correlation and averaging techniques, we propose firstly an improvement of this method in terms of optimality. The observation model of this method is then enriched by a potentially parasite wave added to noise, and a generalization of the Woody's method is proposed. Taking the example of the T wave of the ECG which overlaps the following P wave when the heart rate is high, various models of the T wave are proposed. With these two proposed methods, the objectives to estimate and analyze cardiac intervals, such as the R-R, Q-T and P-R intervals, are reached. More precisely, the estimation of the P-R intervals on ECG recorded during exercise is feasible applying the generalization of the Woody's method. The application of these methods to real recordings of different types of ECG (rest, exercise, atrial fibrillation,…), has revealed new findings about the evolution of cardiac intervals, as an hysteresis phenomenon in the relation P-R/R-R intervals, or a characterization of subjects according to their training level studying the P-R interval slope in the early recovery phase, for instance. A modeling of the response of the Q-T interval to R-R intervals changes has also been proposed based on the electrical behavior at the cellular level.

Keywords: Electrocardiogram (ECG), time delay estimation, maximum likelihood, P-R intervals, Q-T intervals, exercise, recovery, P-R/P-R hysteresis, Q-T/R-R modeling.

   

04/12/2008
10h30
Thiery Stéphane
Sophia Antipolis (France)
Évaluation d'options vanilles et digitales dans le modèle de marché à intervalles
Résumé    [ Annexes ]     
INRIA Sophia Antipolis - Méditérranée, bâtiment Euler, salle Euler Violet

Thiery Stéphane:
  laboratoire I3S
  Sophia Antipolis (France)

Résumé :

   Nous nous intéressons à un jeu minimax différentiel et multi-étages à horizon fini, motivé par un problème d'évaluation d'options européennes. Ce jeu comporte une commande à la fois continue et impulsionnelle, ainsi qu'un coût terminal discontinu pour une option digitale. Du point de vue des techniques financières, notre but est de développer en parallèle une théorie normative d'évaluation d'options en temps continu et en temps discret, en présence de coûts de transaction.

La résolution du jeu différentiel, via une analyse géométrique des trajectoires extrémales et singulières du jeu qualitatif impulsionnel à cible unique avec des outils géométriques de la théorie d'Isaacs-Breakwell, conduit à une formule de représentation de la fonction Valeur et exhibe de nombreuses variétés singulières de dimension 2 (dispersion, équivoques, focale). Nous vérifions ensuite que la fonction Valeur obtenue par la formule de représentation est solution de viscosité discontinue de l'équation d'Isaacs.

La résolution du jeu multi-étages par le biais d'un algorithme de programmation dynamique aboutit à une formule de représentation de la Valeur (similaire à celle du jeu différentiel) de laquelle découle un algorithme rapide applicable en pratique. Nous montrons la convergence monotone décroissante de la solution du jeu multi-étages vers celle du jeu différentiel lorsque le pas de temps tend vers 0. L'algorithme rapide en temps discret fournit ainsi une bonne approximation de la solution (prime et stratégie) en temps continu.

Nous terminons par une analyse critique de la solution du point du vue financier avec en particulier une étude de la robustesse de notre modèle de marché.

Mots clefs
Jeux dynamiques: commande robuste, jeu différentiel, contrôle impulsionnel, jeu qualitatif, variétés singulières, jeu quantitatif, solution de viscosité.
Mathématiques financières: évaluation d'options en temps continu et en temps discret, coûts de transaction, modèle de marché à intervalles, stratégie de couverture, marché incomplet.




Abstract

We investigate a finite horizon minimax differential game and multistage game, arising in an european options pricing problem. Its main features are to mix a continuous and an impulse control for the same player and, in the case of digital options to have a discontinuous terminal cost function. From the mathematical finance view point, our objective is to develop a consistent normative option pricing theory, both in continuous and discrete trading within the same market model, with transaction costs.

In the continuous trading framework, we develop a detailed analysis of the extremal trajectories of the impulsive qualitative game with target, via tools of the Isaacs-Breakwell Theory. The solution involves many singularities (dispersal, equivocal, and focal manifolds) of dimension 2. This analysis also leads to a representation theorem for the Value function providing a discontinuous viscosity solution of the Isaacs equation of the game.

In the discrete trading framework, we use a dynamic programming approach. It yields a representation theorem which provides a fast algorithm to compute numerically both the premium and the trading strategy. We also prove the convergence of the Value function of the multistage game toward that of the continuous time game when the time step vanishes. Hence the fast algorithm also provides a good approximation of the solution (premium and trading strategy) of the continuous time theory.

We conclude this dissertation by a discussion of the relevance of our results in the mathematical finance framework, including a study of the robustness of the hedging strategy to violations of the hypothesis of the market model.

Keywords
Dynamic games: robust control, differential game, impulse control, qualitative game, singular manifolds, quantitative game, viscosity solution .
Mathematical finance: options pricing in continuous time and discrete time, transaction costs, interval model market, hedging strategy, incomplete market.

   

Le jury sera composé de :

M. Marc Quincampoix. Professeur à l'Université de Brest (Rapporteur).
M. Patrick Saint-Pierre. Maître de conférences hors-classe à l'Université de Paris-Dauphine (Rapporteur).
M. Stéphane Crepey. Maître de conférences à l'Université d'Evry (Examinateur).
Mme. Francine Diener. Professeur à l'Université de Nice - Sophia Antipolis (Examinateur).
M. Geert Jan Olsder. Full professor at Delft University, the Netherlands (Examinateur).
M. Denis Talay. Directeur de recherche à l'INRIA Sophia Antipolis - Méditérranée (Examinateur).
M. Pierre Bernhard. Directeur de recherche émérite à l'INRIA Sophia Antipolis - Méditérranée (Directeur de thèse).

21/11/2008
10h30
Pierre Weiss
Sophia Antipolis
Algorithmes rapides d'optimisation convexe. Applications à la restauration d'images et à la détection de changements.
Résumé    [ Annexes ]      [ URL ]
salle de conference

Pierre Weiss:
  I3S
  Sophia Antipolis

Résumé :

   

Cette thèse contient des contributions en analyse numérique et en vision
par ordinateur.

Dans une première partie, nous nous intéressons à la résolution rapide,
par des méthodes de premier ordre, de problèmes d'optimisation convexe.
Ces problèmes apparaissent naturellement dans de nombreuses tâches telles
que la reconstruction d'images, l'échantillonnage compressif ou la
décomposition d'images en texture et en géométrie. Ils ont la
particularité d'être non différentiables ou très mal conditionnés. On
montre qu'en utilisant des propriétés fines des fonctions à minimiser on
peut obtenir des algorithmes de minimisation extrêmement efficaces. On
analyse systématiquement leurs taux de convergence en utilisant des
résultats récents dûs à Y. Nesterov. Les méthodes proposées correspondent
- à notre connaissance 
- à l'état de l'art des méthodes de premier ordre.

Dans une deuxième partie, nous nous intéressons au problème de la
détection de changements entre deux images satellitaires prises au même
endroit à des instants différents. Une des difficultés principales à
surmonter pour résoudre ce problème est de s'affranchir des conditions
d'illuminations différentes entre les deux prises de vue. Ceci nous mène à
l'étude de l'invariance aux changements d'illuminations des lignes de
niveau d'une image. On caractérise complètement les scènes qui fournissent
des lignes de niveau invariantes. Celles-ci correspondent assez bien à des
milieux urbains. On propose alors un algorithme simple de détection de
changements qui fournit des résultats très satisfaisants sur des image
synthétiques et des images Quickbird réelles.

Abstract

This PhD contains contributions in numerical analysis and in computer
vision. The talk will be divided in two parts.

In the first part, we will focus on the fast resolution, using first order
methods, of convex optimization problems. Those problems appear naturally
in many image processing tasks like image reconstruction, compressed
sensing or texture+cartoon decompositions. They are generally non
differentiable or ill-conditioned. We show that they can be solved very
efficiently using fine properties of the functions to be minimized. We
analyze in a systematic way their convergence rate using recent results
due to Y. Nesterov. To our knowledge, the proposed methods correspond to
the state of the art of the first order methods.

In the second part, we will focus on the problem of change detection
between two remotely sensed images taken from the same location at two
different times. One of the main difficulty to solve this problem is the
differences in the illumination conditions between the two shots. This
leads us to study the level line illumination invariance. We completely
characterize the 3D scenes which produce invariant level lines. We show
that they correspond quite well to urban scenes. Then we propose a
variational framework and a simple change detection algorithm which gives
satisfying results both on synthetic OpenGL scenes and real Quickbird
images.

   

Jury:
- M. Patrick-Louis Combettes, Professeur, université Paris 6  (Rapporteur)
- M. Jérôme Idier, Directeur de recherches, CNRS/IRCCyN       (Rapporteur)
- M. Antonin Chambolle, Directeur de recherches, CNRS/CMAP
(Examinateur)
- M. Henri Maître, Professeur TELECOM ParisTech               (Examinateur)
- M. Lionel Moisan, Professeur Université Paris 5             (Examinateur)
- Mme. Laure Blanc-Féraud, Directrice de recherches, CNRS/I3S (Directrice)
- M. Gilles Aubert, Professeur UNSA
(Co-directeur)

14/11/2008
14h30
Florian Huc
Sophia Antipolis, France
Conception de réseaux dynamique tolérants aux pannes
Résumé    [ Annexes ]      [ URL ]
INRIA

Florian Huc:
  INRIA/I3S
  Sophia Antipolis, France

Résumé :

   Cette thèse aborde différents aspects de la conception d'un réseau de télécommunications. Un tel réseau utilise des technologies hétérogènes: liens antennes-satellites, radio, fibres optiques ou bien encore réseaux embarqués dans un satellite. Les problématiques varient en fonction de la partie du réseau considérée, du type de requêtes et de l'objectif. Le cas des requêtes de type paquets est abordé dans le cadre des réseaux en forme de grille, mais le thème principal est le routage de requêtes de type connections (unicast et multicast). Les objectifs considérés sont : la conception d'un réseau embarqué dans un satellite de télécommunication, de taille minimum et tolérant des pannes de composants; le dimensionnement des liens d'un réseau afin qu'il supporte des pannes corrélées ou qu'il offre une bonne qualité de service, ou s'il autorise des connections multicast; le dimensionnement de la taille des buffers d'un réseau d'accés radio; et l'optimisation de l'utilisation des ressources d'un réseau dynamique orienté connections. Dans tous ces cas la problématique du routage de connections est centrale. Mon approche consiste à utiliser la complémentarité de techniques algorithmique et d'optimisation combinatoire ainsi que d'outils issus de la théorie des graphes tels la pathwidth et des notions reliées -process number, jeux de captures et treewidth-, différents types de coloration -impropre et pondérée, proportionnelle, directed star colouring-, les graphes d'expansion et des techniques de partitions telle la quasi partition.

   Les rapporteurs sont: Pierre Fraigniaud Andrew Thomasson Arie Koster Le jury est: Pierre Fraigniaud Arie Koster Jean-Claude König Yann Vaxès David Coudert Jean-Claude Bermond

09/07/2008
10h
Sylvain Boltz
Sophia-Antipolis (France)
Soutenance de thèse: Un cadre statistique en traitement d'images et vidéos par approche variationnelle avec modélisation haute dimension
Résumé    [ Annexes ]      [ URL ]
salle de conference

Sylvain Boltz:
  I3S
  Sophia-Antipolis (France)

Résumé :

   Cette thèse aborde le traitement d'images et de vidéos sous l'angle variationnel, c'est-à-dire sous forme d'une énergie dont le minimum est atteint pour la solution. La modélisation adoptée pour formaliser le problème et obtenir ces énergies peut être déterministe ou stochastique. Il est connu que la première approche est équivalente à la classe paramétrique de la seconde. Ce constat nous a amené à faire le choix de la seconde approche a priori plus générale si l'on se débarrasse de l'hypothèse paramétrique. En contrepartie, il s'agit d'être capable d'exprimer et d'estimer une énergie en fonction des données alors interprétées comme des échantillons d'une variable aléatoire. Ce premier obstacle est classiquement surmonté par l'emploi de méthodes à noyau fixe sur des lois marginales, autrement dit, en supposant les canaux de données indépendants entre eux. Or cet obstacle en cache deux autres : l'inhomogénéité de la répartition des échantillons dans leur espace d'appartenance et leur faible densité dans cet espace. Ces difficultés, ainsi que l'hypothèse d'indépendance mentionnée plus haut, sont d'autant plus pénalisantes que le modèle proposé pour les données est de grande dimension (canaux couleur, mais aussi ajouts d'autres canaux pour prendre en compte les structures locales des images). Au fondement d'estimateurs de mesures statistiques telle que l'entropie, l'idée du kième plus proche voisin permet de résoudre les difficultés évoquées en s'adaptant à la densité locale des données, en considérant les canaux conjointement, et ce quelle que soit leur nombre. Dans ce contexte, nous proposons une approche statistique générale inspirée de la théorie de l'information, dédiée aux approches variationnelles car estimant efficacement des énergies en haute dimension, permettant le calcul de leur dérivée et pouvant estimer localement des probabilités. Ce cadre est appliqué aux trois problèmes de traitement d'images ou de vidéos que sont l'estimation de flot optique, le suivi d'objets vidéos et la segmentation. Ce point de vue, en permettant de limiter sinon de s'affranchir du problème de la dimension des données, autorise la définition de nouvelles mesures et lois de probabilités plus adaptées aux images naturelles. Certains travaux en suivi d'objets et en segmentation ont conduit à des implémentations industrielles.

   Jury: Vicent Caselles, rapporteur Nikos Paragios, rapporteur Patrick Pérez, rapporteur Olivier Michel, examinateur Frank Nielsen, examinateur Michel Barlaud, directeur de thèse Eric Debreuve, co-directeur de thèse

25/06/2008
10h
Isabelle Mirbel
Sophia-Antipolis ( France )
Soutenance HDR: le travail présenté portera sur mes contributions à la modélisation, la réutilisation et la flexibilité des systèmes d'information
Résumé    [ Annexes ]      [ URL ]
salle 317 EPU(bâtiment ESSI)

Isabelle Mirbel:
  Équipe KEWI / Pôle GLC / Laboratoire I3S
  Sophia-Antipolis ( France )

Résumé :

   L'ingénierie des systèmes d'information a ouvert un champ considérable d'activités de recherche et de développement d'applications avec aujourd'hui de nouvelles perspectives pour aborder la complexité croissante des systèmes d'information d'entreprise. Les différents projets de recherche présentés dans ce mémoire prennent place dans ce domaine. Ils couvrent des aspects variés du développement de système d'information tout en se focalisant sur trois problèmes complémentaires et importants : i) la séparation des dimensions durant l'activité de modélisation des systèmes d'information, ii) la réutilisation dans l'ingénierie des systèmes d'information et iii) la flexibilité dans l'ingénierie des systèmes d'information.

En ce qui concerne la structuration et la séparation des dimensions durant l'activité de modélisation des systèmes d'information, le modèle et la démarche proposés dans le cadre du projet WIDE, présenté dans le manuscrit, permettent d'améliorer la modélisation des situations dites exceptionnelles attachées aux workflows. L'originalité de l'approche tient à l'utilisation de patrons et à la représentation des exceptions sous forme de règles actives. Par ailleurs, la technique proposée dans le cadre du projet Chorochronos permet de la vérification qualitative et quantitative de la consistance temporelle d'applications multimédias. Enfin, des critères pertinents ont été mise en évidence dans le cadre du projet JECKO pour améliorer la mise en oeuvre du processus de développement de système d'information chez Amadeus S.A.S.

En matière de partage et de réutilisation, les mécanismes originaux proposés dans le cadre du projet WIDE couvrent le processus de réutilisation dans son ensemble afin de faciliter la modélisation des situations dites exceptionnelles dans les workflows. Dans le projet SESAME, des moyens originaux pour classifier et rechercher des composants de méthode dans une bibliothèque dédiée ont été proposés. Le point fort de cette proposition est d'une part de proposer un moyen alternatif de naviguer parmi les fragments de méthode et d'autre part de permettre la recherche de fragments proches de ceux considérés.

En terme de flexibilité, l'environnement proposé dans le cadre du projet JECKO permet la définition d'itinéraires personnalisés au sein du processus de développement de l'entreprise. L'environnement proposé dans le cadre du projet SESAME, plus générique, couple une approche de construction de méthode par assemblage avec une approche de configuration au travers de la définition d'itinéraire. Il permet d'introduire de la flexibilité dans la mise en oeuvre des démarches de développement au niveau de l'organisation, du projet et d'un acteur particulier du processus de développement.

Les perspectives de ces travaux reposent sur un rapprochement entre ingénierie des méthodes d'une part et ingénierie des connaissances et web sémantique d'autre part. Elles portent sur l'explicitation de démarches de recherche d'information sur le Web, appliquée à l'ingénierie des méthodes dans un premier temps et de façon plus générale à des ressources sur des savoirs informatiques dans un deuxième temps.

   Soutenance HDR
Le jury sera composé de :

- Michel Riveill, Président
- Corine Cauvet, Rapporteur
- Jean-Pierre Giraudin, Rapporteur
- Barbara Pernici, Rapporteur (absente)
- Michel Léonard, Examinateur
- Colette Roland, Examinatrice
- Rose dieng-Kuntz, Examinatrice

12/12/2001
10h00
Aymen Kammoun
Sophia Antipolis
Contributions dans le domaine de l'analyse multirésolution de maillages surfaciques semi-réguliers. Application à la compression géométrique
Résumé   
salle de conference I3S

Aymen Kammoun:
  Laboratoire I3S
  Sophia Antipolis

Résumé :

   Les travaux développés dans cette thèse portent sur l’amélioration des performances des codeurs géométriques pour les maillages triangulaires. De nombreux travaux considèrent que la géométrie est la composante la plus importante d’un maillage triangulaire. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L’objectif de nos travaux est de proposer de nouvelles approches pour le remaillage semi-régulier et des améliorations des transformées en ondelettes existantes. Le but du remaillage semi-régulier est de rendre l’échantillonnage plus régulier et de modéliser l’objet avec une structure multirésolution. Ceci permettra par la suite d’utiliser facilement et efficacement des transformées en ondelettes. Ces transformées en ondelettes offrent une plus grande finesse au niveau de l’analyse du signal et permettent de mieux s’adapter aux propriétés locales des maillages surfaciques. Nous avons alors proposé une nouvelle approche basée Voronoï pour le remaillage semi-régulier des objets statiques. Nous avons aussi proposé une nouvelle approche basée sur des techniques de remaillage statique pour le remaillage des animations 3D. Pour améliorer les transformées en ondelettes existantes, nous avons proposé de modifier les filtres utilisés afin de maximiser la parcimonie des coefficients d’ondelettes tout en respectant certaines propriétés (bi-orthogonalité, moment d’ordre 1 nul). Nous avons aussi proposé une analyse spatio-temporelle pour les animations 3D, ainsi qu’une allocation débit optimale adaptée à cette analyse.

   



Séminaires des
pôles I3S


Autres séminaires




fleche Pour retourner à la liste des annonces cliquez ici



fleche Pour modifier une annonce passée
cliquez ici .