Rapport Accompagnement Open Data des Collectivités, encore des inconnues

A Rodez remise du rapport @opendata_fr sur l’ouverture des données publiques dans les collectivités locales #gagadeladata
cc @estellegrelier pic.twitter.com/PIS8F14opV

— Axelle Lemaire (@axellelemaire) October 17, 2016

Aujourd’hui, lundi 17 octobre, l’association OpendataFrance remettait à Axelle Lemaire, secrétaire d’État chargée du Numérique et de l’Innovation, son « Rapport sur les dispositifs d’accompagnement des collectivités locales à l’ouverture des données publiques ».

Ce rapport, réalisé sur lettre de mission, avait trois objectifs :

  1. fixer un état des lieux de l’open data des collectivités en France
  2. proposer un dispositif de soutien à la mise en œuvre des démarches des collectivités

  3. proposer des démarches d’animations et mutualisation au niveau national.

Nous vous proposons ici un résumé du rapport et nos premières réactions.

 

  1. Etat des lieux de l’open data des collectivités

La loi pour une République numérique représente une étape majeure pour le mouvement open data en France. Toute collectivité de plus de 3 500 habitants étant désormais tenue de publier des données ouvertes, comment organiser concrètement la mise en œuvre de cette obligation et accompagner ce changement d’échelle ?

L’association Opendata France, qui réunit selon ses propos plus de 70 collectivités engagées dans l’ouverture de données (en comptant toutes celles qui ont publié un jeu de données, il y a quelques années puis plus rien) part du constat suivant: une poignée de collectivités pilotes se sont déjà lancées dans le mouvement. 45 % de leurs données sont des données géographiques et cette dynamique de publications est accompagnée d’une évolution dans la gouvernance interne des données, constatée notamment avec la création de postes d’administrateur général de données (AGD).

Les collectivités les plus grosses en termes de population sont celles qui ont le plus avancé sur le sujet des données ouvertes. Les collectivités de tailles moyennes et petites ne se sont pas réellement positionnées sur le sujet qui n’apparaît pas comme une priorité et qui leur est souvent mal connu et incompris. Elles sont également dépossédées de leurs propres données par les EPCI ou les délégataires et ont donc une faible culture du sujet. Un travail de communication s’impose pour expliquer la mise en œuvre, les bénéfices en terme d’accès aux informations de la commune, la réduction des charges et centralisation des informations, etc.

Les limites des démarches :

  • peu de réutilisations des données
  • marché économique local et trop restreint
  • peu d’implication des réutilisateurs de données dans les démarches
  • manque de normalisation et de référentiels pour les données
  • animations trop territorialisées

 

2. Quel soutien pour la mise en œuvre des démarches open data des collectivités ?

Face à ce constat, des actions concrètes sont proposées dans le rapport. Il est rappelé en premier lieu que l’organisation du changement d’échelle (et donc le défi) consiste à multiplier les initiatives tout en assurant la qualité et conformité des données avec les lois en vigueurs, notamment en ce qui concerne le respect de la vie privée. L’enjeu est fort sur la normalisation, car si celle-ci s’est à peu près stabilisée autour de deux licences (nous verrons que non), les données elles-mêmes manquent cruellement de standards communs.

Voici quelques propositions du rapport :

  • Coproduction avec les collectivités d’un socle commun de données

Définir conjointement les données essentielles à publier et sur lesquelles bâtir une structuration commune. Une vingtaine de données sont proposées en annexe (page 49), parmi celles-ci : le budget, le PLU, les marchés publics, les délibérés, contours IRIS, résultats d’élection, agenda, etc.

  • Création d’un service public de la donnée locale

Proposition déjà mise en œuvre par Etalab qui propose sur www.data.gouv.fr/ et pour chaque commune de France, une page dédiée agrégeant automatiquement des données locales (INSEE, Finances, etc). L’idée est de centraliser les données existantes pour éviter aux communes de doublonner un travail de publication. Nous nous étions d’ailleurs appuyés sur ce service pour Montreuil-en-Touraine durant la dernière Opération Libre car il permet également de publier manuellement les données supplémentaires des communes.

A noter que l’étude ne conclue pas à la nécessité d’un service d’hébergement imposé par l’État, qui ne serait pas légitime aux yeux des collectivités.

  • Création de l’observatoire d’une évaluation des politiques open data des territoires

Le rôle de cet observatoire serait de suivre, évaluer et répondre au mieux au développement du mouvement open data en France. Mais ces critères d’évaluation restent à préciser.

  • Intégration de modules d’exports dans les progiciels métiers

A l’heure où les éditeurs persistent à emprisonner des données dans les logiciels métiers, un changement de paradigme s’impose. Des partenariats avec des éditeurs spécialisés seraient mis en œuvre pour inclure des modules d’export et portabilité des données des collectivités.

 

3. Les démarches d’animation et mutualisation

  • Création de référentiels pédagogiques mutualisés.

Documentation qui a déjà commencé à être constituée sur http://www.opendatafrance.net/ressources/.

  • Formations théoriques et pratiques

La première formation au logiciel R à destination des collectivités commence justement aujourd’hui.

  • Sensibilisation des élus

(message d’intérêt local) Nous proposons une expérimentation de sensibilisation aux élus sur la personne de M. Bruno Retailleau afin de le motiver à reprendre la dynamique open data de la région Pays de la Loire qu’il préside.

  • Phase d’expérimentations

Afin d’organiser une première étape de prototypage de démarches d’ouverture selon différents échelons de territoires  (communes, métropoles, départements, etc), l’association OpendataFrance propose une phase d’expérimentations avec des territoires pilotes. Celle-ci permettrait notamment d’identifier des modèles d’articulations d’ouverture sur les territoires et guides de bonnes pratiques.

Quelques organisations déjà postulantes pour l’expérimentation : La Région Provence-Alpes-Côtes d’Azur, un groupement de cinq acteurs en Bretagne, la préfecture de région Occitanie, le département de Loire-Atlantique, le Syndicat Mixte Informatique de Charente-Maritime (SOLURIS), liste non-exhaustive.

Deux initiatives de formations sont également proposées :

  • La création d’un certificat de formateur

Décerné par l’État, il s’agirait de quelques jours de formations pour les formateurs souhaitant obtenir ce certificat. Initiative d’intérêt pour ceux qui assurent déjà ou souhaitent assurer des formations Open Data auprès des collectivités, ce certificat assurerait la pertinence, qualité et conformité de leurs formations avec les référentiels nationaux. Libre aux collectivités de choisir ensuite des formateurs certifiés ou non.

  • Une formation d’animateur de la donnée territoriale (ADT)

Inspiré de la création et du rôle des Animateurs Numériques de Territoire dans le secteur du tourisme, l’ADT est chargé de déployer l’open data sur son territoire, il fait office de référent open data local et travaille en réseau.

 

 

Notre avis

L’initiative marque un pas de plus vers l’ouverture par défaut des données des collectivités et nous ne pouvons que féliciter les parties-prenantes de maintenir cette dynamique. Mais pour alimenter de futures réflexions, voici quelques commentaires et questions qui restent en suspens selon nous.

Tout d’abord, le rapport offre une série de propositions des collectivités mais rien ne permet d’affirmer que toutes ces hypothèses seront mises en œuvre. Le rapport a le mérite d’offrir une option réaliste d’ouverture technique généralisée, sauf que sa faisabilité tient sur une ouverture au rabais. Il semble que le plus petit dénominateur commun ait été pris comme modèle de base de prototypage : une commune de 3 501 habitants qui publierait 20 jeux de données statiques dont la moité pré-agrégée par l’État. Mais les modèles d’ouvertures, des agglomérations par exemple, de par la richesse, quantité et complexité de leurs données gagneraient à suivre un modèle plus élaboré.

Bien sûr il y a les phases prévues de prototypages pour répondre à toutes les questions en suspens. Mais il semble que les collectivités partent pour maintenir des démarches d’ouverture selon le triptyque « publication-animation-usages externes » dont le modèle, à l’heure des administrateurs généraux de données et data scientists pour usages internes, semble discutable pour les plus hauts niveaux d’ouverture. Seule une petite phrase mentionne d’ailleurs l’usage interne des données – Eat your own dog food – pour indiquer que cette approche est bien prévue, sans sembler pivot.

(Visionnez à ce propos la table ronde « Pilotage par les données et nouveaux métiers de l’open data » et autres captations du salon Open Data que Libertic co-organisait en septembre)

Le risque de cette généralisation d’ouverture de données a minima est d’entrer dans une simple démarche de publication automatisée, de données dissociées des usages internes, et donc à obsolescence programmée, générant une production de données orphelines en masse. Vous voulez un exemple ? Multipliez désormais par 3 800 communes et EPCI.

Il est regrettable que les sujets de prospectives (bien que d’actualité pour certaines collectivités) aient été écartés du rapport, tel que les scénarios d’ouverture conjointe de données publiques, privées et d’acteurs tiers d’un territoire. Ceux-ci représentent un modèle d’intérêt pour les agglomérations mais ont été considérés comme ne relevant pas du cadre de l’étude car « ils ne concernent que les acteurs les plus matures de l’open data ». Dommage de ne pas avoir profité de cet exercice pour préparer également le futur.

Un autre terme absent du rapport : la gouvernance ouverte. Il est en fait cité une petite fois pour préciser que ce thème sortait lui aussi du cadre de l’étude. À deux mois du sommet mondial que la France présidera à Paris, il n’est toujours pas d’actualité d’aborder l’open data sous l’axe d’une cohérence globale d’actions de modernisation de l’action publique. On regrettera une vision segmentée entre processus technique et organisationnel car sans travail d’acculturation, engager un réel développement autour de l’usage des données risque de s’avérer difficile.

La vision hypersectorisée de l’open data des collectivités induit notamment un problème. Les collectivités peinent à identifier un marché pour leurs données hyperlocales, celui-ci étant trop fragmenté et dissocié des données nationales et informations publiques qui alimentent, elles, les chiffres pharaoniques annoncés dans les bénéfices de l’open data. La dernière étude « Open Data Maturity in Europe 2016 » mentionne ainsi la croissance prévue de 36.9% de la valeur du marché des données publiques ouvertes pour atteindre 75,7 milliards d’euros en Europe pour 2020. Ces chiffres désespèrent les collectivités incapables d’identifier la valeur locale, notamment car elles peinent déjà à quantifier et chiffrer des bénéfices internes qui sont pris en compte dans ces calculs et car elles peinent à identifier leur valeur associée aux marchés nationaux.

Il est également possible de questionner la capacité d’ OpendataFrance à mettre en œuvre cette normalisation annoncée. Cela fait trois ans que l’association travaille à la création de standards, avec relativement peu de résultats à ce jour. Entre parenthèse, l’association n’a toujours pas réussi à normaliser le terme « open data » orthographié « opendata » dans son rapport. Et l’une des seules normalisations effectives autour des deux licences de données ouvertes (LO et OdbL) sera bientôt affaiblie par OpendataFrance elle-même, avec la création d’une nouvelle version OdbL v2 actuellement en travaux. Pour sa décharge, il est vrai que l’association n’avait jusqu’à présent que peu de budgets et travaillait avec des bénévoles.

Mais qu’en est-il du financement de la mise en œuvre justement ? Étrangement, ce rapport ne définit aucune estimation budgétaire. Quel coût ? Quel modèle économique ? Quelle prise en compte des évolutions de financements des régions par exemple? Une prise en charge par les collectivités ? Un financement de l’État ? Si oui, est-il prévu avant les élections présidentielles ?

Enfin, au lieu de propositions concrètes, le rapport énumère de vagues intentions dont la mise en œuvre n’est pas détaillée : mener conjointement l’ouverture avec la CADA et la CNIL (sous quelle forme?), améliorer les données en facilitant les retours de réutilisateurs (quelles actions supplémentaires envisagées?). On aurait aimé des propositions d’actions plus précises. D’ailleurs, lorsque les propositions se détaillent, telle l’intégration de fonctionnalités d’export de données pour les logiciels métiers par exemple, on soupçonne déjà les difficultés cachées. Prenons le cas des fonctions d’exports de données GTFS (normes poussée par Google pour les transports publics), l’export est maintenant présent dans de nombreux logiciels-métiers mais souvent encore la donnée est inutilisable car l’intégrité des données n’a pas été vérifiée.

En conclusion, un rapport positif qui apporte des éléments pour développer l’ouverture par défaut mais encore beaucoup de questions et de travail sur la route.

Note des auteurs : Libertic est une association à but non-lucratif implantée en Pays de la Loire et a accompagné la région dans son étude de création d’un Datalab. Libertic est également membre associé d’OpendataFrance, association créée suite à l‘initative de rencontre des collectivités en 2012. Enfin Libertic a été consulté pour la rédaction de ce rapport.


Source : ADEC - Open data