Présentations

Ouverture

Ouverture et introduction

Collecte de données massives : crowdsourcing, réseaux de capteurs

Système de concentration d'observations de surface issues de réseaux de capteurs hétérogènes

Frédéric GUILLAUD (Météo France)

En 2010, Météo-France a lancé le projet PACOME visant à centraliser et moderniser son système de collecte des observations en surface, jusqu’alors basé sur des concentrateurs régionaux. Après avoir décrit l’architecture fonctionnelle, applicative et technique du système basée sur un serveur qui implémente les standards SWE de l’OGC; la présentation fera un retour d’expérience suite au basculement en opérationnel d’environ 750 stations sur le nouveau système. On abordera ensuite les perspectives à court et moyen terme, en particulier l’intégration de nouveaux réseaux de capteurs, dont les réseaux partenaires ; et comment le système peut répondre aux nouvelles exigences d’ouverture des données publiques dans le cadre de la directive INSPIRE et « OpenData ».

Utilisation de services OGC (SensorML) pour la mise à disposition de données d'observations

Julien MEILLON (IFREMER), Mickaël TREGUER (IFREMER), Thomas LOUBRIEU (IFREMER)

L’Ifremer, dans le cadre de ses activités liées notamment à l’observation et la gestion des données marines, développe des outils normalisés. Ces outils s’appuient sur des Normes désormais décrites par l’Open Geospatial Consortium (OGC) telles que le Sensor Web Enablement (SWE) avec des spécifications comme le SensorML, SOS, O&M, etc. Une partie de cette Norme commence à être implémentée dans des systèmes qui répondent à la fois aux besoins des fournisseurs de données (métadonnées complètes et adaptées) mais aussi à ceux des utilisateurs (qu’on retrouve en aval de ces systèmes) avec des fonctionnalités avancées de visualisations et de téléchargement.

Comment mettre en œuvre les sciences participatives pour suivre l'évolution de la biodiversité ? L'exemple de Vigie-Nature

Anne-Laure GOURMAND (MNHN)

Les sciences participatives sont des programmes de collecte d’informations impliquant une participation du public dans le cadre d’une démarche scientifique (définition issue du collectif national des sciences participatives). Ces programmes ont toujours un objectif scientifique et un objectif pédagogique, mais plusieurs grandes familles de projets de sciences participatives permettent d’atteindre ces objectifs. L’objet de la présentation est d’envisager le mode de fonctionnement des programmes de sciences participatives issus de la recherche académique, via le programme Vigie-Nature porté par le Muséum National d’Histoire Naturelle en collaboration avec les associations nationales co-fondatrices des programmes. Un réseau d’acteurs locaux (Muséum d’Histoire Naturel, associations, collectivités territoriales, entreprises, …) permet d’assurer l’animation de ces programmes sur leur territoire. Les observatoires Vigie-Nature, qui ont pour objectif de suivre l’évolution de la biodiversité commune en France, s’adressent à différents publics (naturalistes, gestionnaires, agriculteurs, grand public ou scolaires) mais répondent à des critères communs : les programmes sont conçus pour répondre à une question scientifique définie en amont, et les protocoles de collectes de données doivent être simples, peu contraignant, mais rigoureux. Des compromis doivent être faits entre le nombre de participants souhaité et les compétences requises, entre le plaisir naturalistes des participants et la représentativité du territoire, ainsi qu’entre la nécessité d’avoir peu de données très standardisées ou beaucoup de données plus hétérogènes. Selon la nature du projet, on peut accepter plus ou moins d’erreurs d’identifications et travailler avec différents degrés d’identification (espèces ou groupes d’espèces). En pesant bien les compromis nécessaires, les sciences participatives peuvent être un formidable outil pour faire avancer la science et sensibiliser la population.

Plateforme multi-utilisateurs de matching de besoins et d’offres de services en temps de crise - Projet NOMP1.0

Babiga BIRREGAH (Université de technologie de Troyes (UTT), CNRS)

La collecte et la gestion des informations provenant des centres d’opération et des différents acteurs (sinistrés, volontaires, ONG, etc.) constitue un des défis majeurs en gestion de crise. L’information collectée peut couvrir des domaines variés tels que l’état des réseaux et des infrastructures vitales, la logistique, les besoins des populations, etc. Depuis quelques années, on assiste à l’émergence de communautés ad hoc d’entraide qui s’appuient fortement sur la montée en puissance des réseaux/media sociaux et d’autres plateformes dédiées telles que Ushahidi, HelpBridge, Google Persons Finder, etc. Aujourd’hui, le succès de ces plateformes et l’utilité des réseaux/media sociaux en temps de crise n’est plus à démontrer. Cependant, la mise en place (i) de technologies fiables et robustes de remontée d’information et (ii) d’algorithmes semi-automatiques de matching des besoins avec les ressources disponibles restent un champ encore peu exploré. Le projet NOMP a pour objectif de développer une plateforme de matching des besoins et des offres (de bien et de services) en cas de crise généralisée. Au cœur de la problématique de collecte et de référencement des différents besoins et offres, NOMP offre l’opportunité d’aborder la problématique cruciale des capteurs humains (man as sensor) en tant que canal de collecte et de remontée d’information de crise. Nous présentons les différents volets de la plateforme NOMP et les perspectives sur lesquelles elle débouche.

Traitements distribués

Valorisation du réseau hydrographique français au travers de traitements distribués simples ou agrégés

Anthony MAUCLERC (BRGM)

Utilisation de services OGC déployés dans un environnement Cloud pour l'exécution de processus photogramétriques sécurisés

Frédéric HOUBIE (Geomatys)

Interopérabilité sémantique

L’interopérabilité sémantique et technique au cœur du système d’information sur l’eau

Dimitri MEUNIER (OIEau)

Au-delà de la consommation d’eau indispensable à la vie, l’homme a développé d’autres usages de l’eau pour ses activités économiques, ses loisirs... Chaque usage amène logiquement à des contraintes en matière de quantité et de qualité des eaux utilisées et rejetées. Afin d’y répondre, des millions de données sur l’eau - de nature quantitative, qualitative, économique, réglementaire, etc. - sont produites à l’échelle des territoires français par différents opérateurs tels que les services de l’État, les Agences et Offices de l’eau, l’ONEMA, les organismes de recherche, les collectivités territoriales ou les entreprises... Ces données sont réunies au sein d’un seul dispositif connu sous le nom de système d’information sur l’eau (SIE). Afin de conserver les données du SIE, de les échanger et de les rendre comparables entre elles, le service d’administration nationale des données et référentiels sur l’eau (Sandre) est chargé d’en assurer l’interopérabilité sémantique et technique.

Cloud based platforms for Linking and Managing Geodata

Dimitrios KOTZINOS (ENSEA, Université de Cergy Pontoise (UCP) - Lab ETIS, CNRS)

The need to better integrate and link various isolated data sources on the web has been widely recognized and is been tackled by the Linked Open Data (LOD) initiative. Especially in the case of geospatial data, the issue of publishing and subsequently exploiting the data as Linked Open Data is a central one, because of data size. This affects the performance of the corresponding queries but also refers to the complexity of the publication itself. The cloud offers solutions to these problems when used as a hosting platform for Linked Geospatial Data since we can rely on its scalability and elasticity capabilities. To deal with the issue of the publication complexity we propose a Linked Open Data-as-a-Service approach that offers an integrated service based API for (semi)automatic publication of relational data as LOD and subsequent querying and updating capabilities. To address interoperability issues we proposed an INSPIRE compliant conceptual model that allows for integration of different and disparate datasets, allowing at the same time for transforming and exporting to INSPIRE compliant XML format.

Datalift, une plate-forme open source pour la publication de données métier interopérables et structurées sur le Web

Bénédicte BUCHER (IGN), Olivier CURÉ (Université Pierre et Marie Curie (UPMC) - LIP6, CNRS), Gabriel KEPEKLIAN (ATOS)

La plateforme DataLift est le résultat d’un projet de recherche soutenu par l’Agence nationale de la recherche. Son objectif est de transformer des jeux de données bruts et hétérogènes en entrée en données interconnectées dans le Web de données (linked data). L'ensemble des outils nécessaires à la réalisation des processus de transformation est intégré dans la plateforme DataLift. Les données géographiques sont des données métier qui ont fait l’objet d’un traitement particulier dans le projet : définition de vocabulaires, de méthodes d’interconnexion, mise en place d’un prototype de serveur géographique sémantique data.ign.fr.

Clôture

Restitution