Les données ouvertes à Chicago: Game On

Avant de rejoindre l’administration gouvernementale de Chicago, je connaissais très peu les données ouvertes. J’étais certainement plongé dans le monde des données et de l’analyse depuis un certain temps, mais je ne comprenais pas de manière substantielle le concept d' »ouvert » tel qu’il s’appliquait à ce contexte. En fait, parce que j’avais travaillé au Service de police de Chicago dans la Section du Contre-terrorisme et du Renseignement, les données ouvertes semblaient complètement contre-intuitives. Ainsi, lorsque l’équipe de transition du maire élu Rahm Emanuel m’a contacté pour discuter de la mise en place d’un programme de données ouvertes à la ville de Chicago, j’ai dû faire des recherches rapides et hâtives sur Internet pour être correctement préparé.

Pendant la campagne pour la mairie, le maire Emanuel avait organisé un événement chez Microsoft qui soulignait l’importance du gouvernement ouvert, citant les données ouvertes au cœur de sa vision pour un Chicago plus transparent. Le maire m’a ensuite demandé d’être le premier Chief Data Officer (CDO) de la ville et de mettre en œuvre sa vision d’un gouvernement plus transparent qui met non seulement ses données à la disposition du public, mais utilise également l’analyse des données comme outil pour éclairer les politiques et améliorer les services.

La nouvelle administration a commencé le 16 mai 2011, avec les données ouvertes comme priorité absolue dès le premier jour. Le week-end précédent, le groupe politique s’était réuni pour discuter de la stratégie pour les cent premiers jours et les données ouvertes ont été répertoriées comme un objectif précoce. Ma mission était de prendre les os du programme existant de la ville et d’en faire une pierre angulaire des initiatives de transparence de la ville. Ma première étape a été d’évaluer ce qui existait, puis de décider où je voulais prendre la vision et la direction en tant que CDO pour la ville de Chicago.

Avant de nous plonger dans les détails de ce qui s’en est suivi, il convient de discuter du simple fait que Chicago a été la première grande municipalité à nommer un CDO. Il s’agissait d’une déclaration claire et immédiate sur l’importance de ces initiatives pour la nouvelle administration. Le maire Emanuel avait décidé très tôt qu’il voulait une équipe qui utilise les vastes et riches ressources de données de la ville comme outil et que l’empirisme informerait les politiques. Pour atteindre cet objectif, il a créé un poste de haut niveau au sein de son bureau qui se concentrerait exactement sur cela. En créant un CDO comme mandataire d’un gouvernement transparent et axé sur les données, le maire Emanuel a jeté les bases pour que Chicago ne soit plus à la traîne par rapport aux autres gouvernements et soit à la pointe des données civiques ouvertes et de la transparence.

La ville de Chicago avait un programme de données ouvertes existant, donc je ne partais pas de zéro. Avant la nouvelle administration, il était dirigé par Danielle DuMerer, chef de projet au Département de l’Innovation et de la Technologie (DoIT). La ville avait déjà sécurisé la plate—forme Socrata et lancé certains projets d’ensembles de données de base – en particulier, la publication des journaux des demandes de la Loi sur la liberté de l’information (FOIA) soumises par le public, ainsi qu’un assortiment d’ensembles de données d’installations et géographiques.

DuMerer avait largement engagé la communauté locale du gouvernement ouvert avec les données ouvertes de la ville. Cependant, l’administration précédente n’avait pas identifié le programme de données ouvertes comme une priorité absolue parmi d’autres problèmes concurrents, et même avec les efforts de DuMerer, le programme a eu du mal à gagner en popularité. Mais une fois que la nouvelle administration a accepté un mandat clair de la part du maire Emanuel pour faire des données ouvertes une priorité, le programme de données ouvertes de la ville a commencé à changer immédiatement.

Au cours des deux premières semaines en tant que responsable des données de la ville, j’ai fait de mon mieux pour apprendre les tenants et les aboutissants du programme dont j’avais hérité. J’ai trouvé frustrant que la plate-forme de données ait déjà été choisie. Bien que j’apprécie l’efficacité clé en main de la plateforme de Socrata, je savais qu’une application propriétaire deviendrait un investissement financier à long terme. Je suis également un fervent partisan de l’utilisation des technologies open source et j’ai été déçu que nous fassions peu pour soutenir la communauté autour de CKAN, un catalogue de données ouvertes open source largement utilisé. Mais comme j’avais besoin de fournir des résultats immédiatement, je n’étais pas en mesure de faire un pivot aigu. Il n’était pas pratique d’envisager d’autres plates-formes alternatives à ce stade.

Il y avait aussi les applications à venir pour les concours Metro Chicago, dont les plans avaient été lancés pendant l’administration précédente. La Fondation John D. et Catherine T. MacArthur finançait trois concours thématiques pour encourager les entreprises et les ingénieurs logiciels à utiliser les données ouvertes de la ville de Chicago et du comté de Cook pour créer des applications utiles pour les résidents. Nous avons grandement apprécié le soutien philanthropique de cette initiative, mais le concours a imposé un calendrier difficile pour déployer notre programme.

Il aurait été simple de lui accorder juste assez d’attention pour répondre aux exigences du projet et ne pas offenser la fondation qui le soutient, nous permettant de nous concentrer sur les idées provenant de la nouvelle administration. Cependant, nous avons fini par voir ce concours comme un excellent moyen d’aider au lancement du nouveau programme de données ouvertes à Chicago et cela nous a aidés à prendre de l’ampleur rapidement. (MacArthur continue d’être un formidable partisan de ces programmes avant-gardistes.) Le lancement de la compétition Apps for Metro Chicago si tôt après le début de la nouvelle administration était conforme à la stratégie d’expansion rapide du programme de données ouvertes existant.

Nous avons immédiatement constaté que même si la technologie était pertinente pour le projet, un parrainage clair de la direction a permis à cette initiative de s’accélérer rapidement. Nous avons atteint quelques étapes clés dès le début qui ont fini par jeter les bases de l’avenir du programme.

Tout d’abord, la ville a publié son ensemble de données sur les incidents criminels. Historiquement, les données sur la criminalité étaient difficiles à obtenir à Chicago. Alors que Chicago était un chef de file dans les technologies frontales, ses données brutes n’étaient pas facilement accessibles. Le site Web CLEARpath du service de police de Chicago offrait quatre-vingt-dix jours de données historiques sur la criminalité au niveau des incidents via une interface de cartographie et constituait un excellent début en termes d’accès à l’information. Cependant, si des tiers voulaient utiliser les données, ils devaient effectuer une quantité importante de grattage.

Les données sur la criminalité sont historiquement l’un des ensembles de données les plus demandés et sont souvent trop limitatives de différentes manières: il s’agit d’un intervalle trop court pour fournir une utilité autre que la connaissance de la situation à court terme; les données sont agrégées à une unité d’analyse trop dilutive (à la circonscription, au quartier ou au quartier); et / ou les données ne sont pas lisibles par machine.

Chicago s’est efforcée de résoudre tous ces problèmes d’un seul coup. La version conçue visait à ouvrir toutes les données sur la criminalité au niveau des incidents du 1er janvier 2001 à aujourd’hui et à mettre à jour l’ensemble de données sur un cycle de vingt-quatre heures. Tenue 4.6 millions d’enregistrements, l’ensemble de données publié par Chicago serait le plus grand ensemble de mises à jour automatiques de données sur la criminalité au niveau des incidents jamais publié.

La technologie derrière la version n’était pas complexe, mais elle n’était pas non plus triviale. Les données sur la criminalité sont enregistrées dans le système transactionnel du service de police de Chicago, puis répliquées dans leur entrepôt de données. Notre approche consistait à déclencher une ETL (un ensemble de fonctions de base de données permettant de déplacer des données d’un endroit à un autre) à partir d’un serveur de services publics interne pour extraire les données de l’entrepôt de police et les charger dans le portail de données de la ville via l’API de Socrata.

Cependant, en cours de route, quelques éléments critiques devaient se produire afin de garantir que les données étaient sécurisées et pouvaient être rendues sous une forme libérable:

  • Les adresses devaient être bloquées pour protéger la confidentialité.
  • Les coordonnées spatiales ont également dû être dispersées pour aider à la protection de la vie privée.
  • Les mises à jour devaient être capturées et répliquées dans l’ensemble de données lorsque les enregistrements du système source étaient mis à jour.
  • Étant donné que l’ensemble de données sur les crimes devait être l’un de leurs premiers grands ensembles de données, la plate-forme Socrata devait être en mesure de gérer efficacement les téléchargements, les mises à jour et les requêtes.

Nous avons réussi toutes ces étapes, éprouvant quelques douleurs en cours de route, mais le processus a finalement abouti. En avril 2013, l’ensemble de données comprend près de 5,2 millions d’enregistrements, continue d’être mis à jour automatiquement quotidiennement et constitue un bon exemple de la mise en œuvre des données ouvertes.

Cette publication de données a attiré une attention considérable sur le programme de données ouvertes de Chicago, en grande partie grâce à la presse autour de cette publication. Sophia Tareen, journaliste à l’Associated Press, a couvert l’histoire. Elle a écrit un article réfléchi sur l’énormité de la sortie et a noté que c’était un tournant clair pour Chicago (Tareen, 2011). Bien qu’écrit localement, l’article a été envoyé en masse par l’AP et, en quelques heures, est devenu une histoire internationale. En conséquence, le programme de données ouvertes de Chicago est devenu très réel et a été validé par la communauté au sens large. Nous avons appris très tôt qu’une publication très médiatisée d’un ensemble de données présentant un intérêt élevé présente d’énormes avantages. Je considère cela comme un autre moment fondateur pour le programme, fournissant une base solide à partir de laquelle lancer. Cette version a très bien fonctionné pour Chicago, et je soupçonne que cela fonctionnerait également pour d’autres juridictions.

Deuxièmement, le concours Apps for Metro Chicago a fourni un cadre pour engager la communauté de Chicago. Le concours a démontré que de nombreux Chicagoans étaient profondément enthousiasmés par les données ouvertes et voulaient vraiment s’engager avec le gouvernement pour créer des outils pour aider leurs voisins. Pour atteindre ce dernier objectif, nous devions fournir des données dans des formats lisibles par machine et les actualiser constamment. Avant la relance du portail de données de Chicago, les données étaient disponibles, mais généralement sous la forme d’un fichier PDF, ce que les technologues savent peut-être un peu moins qu’amical.

Notre publication de données de balayage de rue pendant la fenêtre du concours Apps for Metro Chicago illustre ce changement. Lors d’un hackathon de données ouvertes hébergé par Google en 2011, Scott Robbin a approché DuMerer et moi pour poser des questions sur l’ensemble de données de balayeuses de rues de la ville. Il était intéressé par la création d’une application qui informerait les utilisateurs la veille du balayage de leur rue. J’ai pensé que c’était une idée fabuleuse, car j’avais personnellement reçu une série de billets pour ne pas avoir déplacé ma voiture. Cependant, le chemin de l’idée à la mise en œuvre nécessitait certaines données de la ville. Le programme de balayage des rues existait, mais il n’était pas publié dans un format facilement utilisé par les ingénieurs en logiciels ou les technologues. Le département des rues et de l’Assainissement avait pris une feuille de calcul Excel et créé un calendrier, en utilisant les outils de formatage du logiciel. La feuille de calcul résultante a ensuite été imprimée au format PDF et publiée sur le site Web de la Ville de Chicago. Ce format rendait impossible l’ingénierie inverse. Heureusement, dans de telles situations, les stagiaires sont excellents pour aider au travail fastidieux, mais critique, de convertir un fichier inutilisable en un fichier pouvant servir de source de données. Nous avons posté le fichier résultant sur data.cityofchicago.org . À partir de là, Scott a produit un excellent site, sweeparound.us , ce qui a aidé beaucoup d’entre nous à être conscients du calendrier de nettoyage de la ville.

Le contournement.l’histoire américaine illustre quelques leçons clés qui continuent de s’appliquer. Premièrement, en tant que ville, nous devions apprendre à produire des données dans des formats lisibles par machine dans le cadre de nos pratiques commerciales standard. Deuxièmement, diverses communautés ont démontré un énorme appétit pour les données gouvernementales, y compris les développeurs civiques, les chercheurs et les journalistes. Nous avons vu l’émergence de la communauté des développeurs civiques à la fois dans les modèles philanthropiques et à but lucratif. Des endroits comme Chapin Hall à l’Université de Chicago luttaient depuis des années pour extraire des données administratives à des fins de recherche. Les programmes de données ouvertes facilitent considérablement la tâche, éliminant la nécessité de négocier des accords de non-divulgation ou d’autres types d’accords. Les données ouvertes ont également stimulé de nouvelles recherches. Une candidate au doctorat a tweeté sa gratitude d’avoir enfin pu terminer sa thèse, et des organisations plus traditionnelles se sont maintenant lancées dans des études pluriannuelles, sur la base de ce qui a été publié sur le portail de données de la ville de Chicago.

La dernière leçon est celle inventée par Tim O’Reilly (2010): « Le gouvernement en tant que plate-forme. »Je n’ai pas complètement compris cette idée depuis un certain temps, mais maintenant, c’est une idée que j’apprécie beaucoup. Le portail de données de Chicago est conçu pour fournir des données brutes dans des formats lisibles par machine. En fournissant une API à ces données, tout développeur peut accéder, utiliser ou intégrer l’ensemble de cette matière première dans tous les buts qu’il peut imaginer. En tant que directeur de l’information et CDO de la Ville, j’ai délibérément essayé d’éviter de me lancer dans le développement d’applications et, au lieu de cela, j’ai préféré développer le portail pour offrir à la fois diversité et profondeur. Cette stratégie nous empêche d’être dans l’entreprise de maintenir des applications qui nécessitent divers ensembles de compétences en programmation et des ressources financières continues. Au lieu de cela, un portail de données basé sur des normes nous permet d’être la plate-forme, comme le suggère O’Reilly, et de soutenir les idées innovantes cultivées par diverses communautés.

Mise en œuvre réussie d’un programme de données ouvertes

Après deux ans de construction d’un programme réussi dans la ville de Chicago, une série de points critiques peuvent être mis à profit lorsque d’autres villes envisagent de mettre en œuvre ou d’étendre les données ouvertes.

Architecture

Construire un portail de données volumineux, utile, lisible par machine et significatif est une tâche technique non triviale. D’abord, bien sûr, vient la question de la plate-forme. Vous devrez réfléchir aux capacités de votre personnel et aux fonds disponibles pour prendre cette décision. Voici quelques points à considérer.

Si vous avez besoin d’une solution clé en main, peu d’options sont disponibles. Socrata est la plate-forme dominante, et ils sont bons dans ce qu’ils font. Ils fournissent un portail de données prêt à l’emploi. Pour les organisations qui craquent à l’idée de construire leurs propres serveurs et d’utiliser l’open source, c’est la méthode qui vous conviendra le mieux. Cependant, comme nous le verrons plus loin, afin d’avoir une plate-forme de données ouvertes durable, vous devrez effectuer un travail assez avancé.

Au-delà de la plate-forme vient la source des données. Pour les programmes qui en sont encore à leur stade le plus élémentaire, l’utilisation d’une approche clé en main peut rendre ce travail incroyablement facile. Vos données peuvent résider dans quelque chose d’aussi simple qu’une feuille de calcul. Vous pouvez télécharger ces informations directement dans Socrata et être prêt à partir en quelques secondes, mais cela reste rarement aussi simple une fois que vous dépassez les bases.

Une grande partie des données dont vous disposez proviendront de systèmes transactionnels ou d’entrepôts, et si votre monde est comme le mien, beaucoup d’entre eux sont assez âgés et quelque peu cryptiques. Vous devrez trouver des moyens d’extraire les données, de comprendre ce que cela signifie et de les charger sur la plate-forme. C’est un peu moins clé en main que ce que vous pourriez penser à l’origine.

Vous devez également prendre en compte la quantité de données que vous allez déplacer et l’impact que cela aura sur le réseau, le stockage et les systèmes de votre entreprise. Si vous avez simplement affaire à quelque chose comme une liste de salaires, qui est de petites données, le problème est trivial. Cependant, que se passe-t-il si vous souhaitez charger quelque chose comme les coordonnées GPS de vos actifs? À Chicago, ce serait environ dix millions de lignes par jour. Cela stresserait la plupart des environnements.

Durabilité

Il peut sembler étrange d’appeler ce point très spécifique, mais je soupçonne que c’est l’un des plus critiques: la durabilité de la conception globale. Un programme de données ouvertes qui s’appuie sur un humain pour le tenir à jour est fondamentalement défectueux. Considérant que l’un des objectifs des données ouvertes est la transparence, il est important de réfléchir au rôle de l’intermédiaire. J’aime plaisanter sur le fait que les gens sont souvent choqués lorsque je leur dis que nous ne vérifions pas les données avant qu’elles ne soient publiées sur le portail. En fait, il n’y a pas de petit mec au sous-sol de l’Hôtel de ville qui vérifie chaque rangée de données avant qu’elles ne sortent. C’est la belle partie du design derrière le portail.

Quatre-vingt-dix-neuf pour cent des données qui vont sur data.cityofchicago.org il y arrive automatiquement. Chacun des ensembles de données a un travail ETL qui se connecte au système source, prend les données, les transforme selon les besoins et les charge dans la plate-forme. Cela se produit quotidiennement ou plus fréquemment. Dans certains cas, nous écrasons l’ensemble entier. Pour d’autres, comme les incidents criminels, nous procédons à une mise à jour progressive qui ajoute de nouveaux enregistrements et capture des changements aux enregistrements existants. Ce type d’architecture accomplit une série de points critiques.

Tout d’abord, il est évolutif. Il est impossible d’avoir des millions de lignes de données disponibles en fonction des actualisations manuelles. Cela n’a guère de sens et ne sera pas opportun. Deuxièmement, comme mentionné précédemment, cela maintient la plate-forme honnête. Enfin, cela crée la durabilité. Le programme cesse de devenir un seul individu et devient plutôt un domaine programmatique au sein de l’organisation technologique.

Peur

Il existe une forte peur institutionnelle des données ouvertes. Dans une culture du journalisme « gotcha », l’idée que quelque chose soit divulgué qui pourrait embarrasser une administration est une préoccupation courante et, par conséquent, un obstacle. C’est souvent une raison de ne pas publier de données. Mon expérience avec cela met en évidence quelques points critiques.

Nous avons publié des millions de lignes de données à ce jour, et jusqu’à présent, cela s’est très bien passé. Chaque fois que la circonscription interne s’est inquiétée d’une libération, nous avons pu la faire avancer et la rendre publique sans incident.

Il est essentiel que vous développiez une relation solide avec votre communauté de gouvernement ouvert. En favorisant cette dynamique, vous êtes en mesure de créer une philosophie « faisons en sorte que cela fonctionne ensemble ». J’ai expliqué que si chaque erreur que j’ai commise était entraînée dans un incident majeur, cela entraverait nos objectifs de collaboration. À Chicago, ils ont pris cela à cœur. Nous avons créé un travail d’équipe, en collaboration avec Joe Germuska du Laboratoire Knight de l’Université Northwestern, et anciennement du Chicago Tribune, ainsi que Daniel X. O’Neil du Smart Chicago Collaborative. Nous nous réunissions régulièrement via Twitter, e-mail, téléphone ou lors de réunions. Cela a particulièrement bien fonctionné car nous nous sommes efforcés de conquérir des ensembles de données volumineux et complexes. Ce sont les types d’ensembles de données qui sont très difficiles à libérer parfaitement la première fois.

Souvent, vous verrez une dynamique entre le gouvernement, la presse et la communauté du gouvernement ouvert qui peut être moins qu’agréable à cause de ce concept de « gotcha » que j’ai mentionné précédemment. Le gouvernement publie quelque chose qui comporte une erreur, et cela devient une « chose. »Peut-être qu’il y a une presse importante autour de l’erreur ou, pire encore, elle est considérée comme trompeuse. Dans ce cadre, le gouvernement ne peut généralement adopter que deux stratégies. La première est de ne divulguer aucune donnée, ce qui n’est pas la piste optimale pour l’un de nos intérêts. La seconde consiste à s’assurer que les données sont parfaites à cent pour cent avant qu’elles ne sortent.

Le modèle parfait à cent pour cent convient lorsque les données sont petites. Si vous publiez une feuille de calcul avec cent lignes et qu’elle n’est pas très large, vous pouvez parcourir chaque ligne pour vous assurer qu’elle est parfaite. Vous pouvez même adapter l’exercice à des milliers de lignes à l’aide de divers mécanismes. Cependant, que se passe-t-il lorsque l’ensemble de données comprend des millions de lignes et couvre une décennie ? Même avec des scripts et des techniques d’audit, vous ne pouvez pas atteindre la marque de confiance à cent pour cent. Cela laisse la plupart des gens dans un dilemme. Lorsque vous souhaitez publier des données volumineuses et importantes et que vous ne pouvez pas vous assurer qu’elles sont correctes à cent pour cent, cela conduit à toutes sortes de drames. Cela devient une situation sans victoire.

C’est là que nous avons changé la dynamique à Chicago afin de pouvoir faire passer le programme de données ouvertes à la vitesse supérieure. Il m’est arrivé de développer personnellement une série de relations au sein de la communauté et d’investir du temps pour que les gens comprennent et croient en ce que nous essayons de faire. Historiquement, un membre de haut niveau de l’administration ne se présente pas à une réunion de gouvernement ouvert pour discuter des données ouvertes, mais c’est ce qui m’a finalement permis d’établir la confiance entre ces entités. Cela a également aidé à avoir des contacts comme Joe, au sein de l’organisation de presse, qui ont permis l’établissement de relations. Ces personnes croyaient que notre plan de données ouvertes était plus grand que la seule histoire et que nous étions en train de construire un système plus large.

Faire partie des opérations quotidiennes

Alors que le programme de données ouvertes de Chicago est devenu une plate-forme robuste et utile, la question s’est posée de savoir comment nous devrions le faire passer au niveau supérieur. Au début de l’année 2013, le maire a décidé qu’il souhaitait prendre un engagement politique pour assurer la pérennité du programme. Il a publié un Décret sur les Données Ouvertes (2012-2) qui obligeait chaque département à désigner un Coordonnateur des Données ouvertes, la ville créerait et maintiendrait le poste de Directeur des données, et il y aurait une responsabilité annuelle quant à la publication de données ouvertes pour la transparence et la durabilité (Emanuel, 2013).

La publication et la diffusion de ce décret ont renforcé le travail acharné qui avait été consacré à la création du programme. L’ordonnancement est celui qui resterait une question ouverte pour les administrations qui cherchent à avancer dans le domaine des données ouvertes. Est-il logique de publier le décret ou la législation avant le début de l’initiative, ou est-il logique de permettre une certaine traction et de créer ensuite ce cadre autour de celle-ci?

Ma préférence porte sur ce dernier, mais, de toute évidence, je suis partial. Mes pensées se concentrent sur la capacité d’itérer et de se développer dans un environnement d’incubateur avant qu’il ne fasse partie du système. Les programmes de données ouvertes devront évoluer et se développer de différentes manières dans différentes villes. Les leçons qui s’appliquent à Chicago peuvent ne pas être pertinentes pour une ville différente. L’autonomie d’essayer, d’explorer et de s’adapter a beaucoup de sens et est certainement un modèle qui peut être propice au succès. Il est essentiel de créer un programme viable avant de devenir trop prescriptif quant à ses fonctions.

Le strict minimum pour réussir

Pour qu’un programme de données ouvertes réussisse vraiment, il nécessite deux éléments clés qui sont, en fait, également une leçon plus large pour de nombreuses initiatives gouvernementales. Le premier est le soutien clair et vocal du sponsor exécutif — qu’il s’agisse du président du programme fédéral ou, dans le cas de Chicago, du maire. Avec le soutien sans équivoque du maire, les barrages routiers ont disparu car il est devenu clair que toutes les parties seraient responsables du succès — ou de l’absence — du programme.

Le second est le soutien financier. Un mandat avec un manque de financement de soutien au gouvernement n’est pas, en fait, un mandat. Il y a un dicton courant dans le gouvernement municipal: « Le contrôle est basé sur une ligne budgétaire. »Celui qui contrôle la ligne budgétaire contrôle le projet. Chicago a engagé un financement (pas un montant important, mais néanmoins un financement) et des ressources pour garantir le succès de cette opération. Dans le cas de Chicago, cela a permis de financer la plate-forme Socrata en tant que fondation et le travail en cours requis pour le développement d’ETL. Sans une plate-forme de données et une sorte de moyen automatisé de continuer à le garder frais, ce n’est pas un véritable programme qui sera durable au-delà de l’individu.

Je noterai cependant le cas de coin qui invalide mon deuxième point, et c’est bien sûr un modèle que j’admire: le magasin de bricolage décousu. Dans ce scénario, le programme est basé sur le modèle CKAN open source. L’entité peut construire son système de données ouvertes au-dessus de cette plate-forme. Voyant qu’ils ont déjà montré l’innovation de travailler avec des logiciels open source, il se peut qu’ils aient la possibilité d’écrire leurs propres ETL ou de tirer parti de certains des grands outils ETL open source disponibles sur Internet. À partir de là, ce serait fonction du type d’infrastructure qui pourrait être construite. Il n’y a absolument aucune raison pour qu’une solution cloud à faible coût ne puisse pas être mise en œuvre. Ce type de présence ne nécessite pas une sécurité substantielle, car vous n’êtes pas vraiment inquiet d’accéder aux données. Au contraire, vous voulez simplement préserver son intégrité.

Ce cas de coin est quelque peu intéressant, car on peut envisager un scénario où l’on associe un parrain exécutif solide à un technologue déconcertant. Compte tenu de l’accès et du mandat, il serait extraordinairement peu coûteux pour une première incursion réussie dans l’espace des données ouvertes. C’est un domaine sur lequel nous devrions être attentifs et trouver des moyens de soutenir.

Chicago est un excellent cas pour montrer comment on peut construire un programme de données ouvertes là où on ne l’attend pas. Le rôle du parrain exécutif solide est essentiel au succès d’un programme, et le maire Emanuel a joué ce rôle. L’établissement de partenariats étroits avec la communauté et l’attention stratégique des médias ont également été des éléments clés de notre succès. Grâce à la ténacité et à l’exécution durable de l’équipe, Chicago a pu mettre en place une initiative qui est devenue l’étalon-or en matière de données ouvertes. Ces leçons tirées de la mise à l’échelle rapide de notre programme par Chicago aideront à éclairer la prochaine génération d’initiatives de données ouvertes, à mesure que de nouveaux modèles de croissance et de durabilité des données ouvertes émergeront.

À propos de l’auteur

Brett Goldstein est l’ancien Directeur des Données et de l’information de la Ville de Chicago. En 2013, il a été nommé le premier récipiendaire de la bourse de recherche en sciences urbaines de la Harris School of Public Policy de l’Université de Chicago. Avant sa nomination en tant que premier Responsable des données de Chicago, il a fondé le Groupe d’analyse prédictive du Département de la police de Chicago. Auparavant, il a passé sept ans dans le monde des startups à créer un service de réservation de restaurant en ligne en temps réel OpenTable. Goldstein poursuit actuellement son doctorat en criminologie, Droit et justice à l’Université de l’Illinois à Chicago.

O’Reilly, Tim. (2010). Le gouvernement comme plateforme. Dans Un Gouvernement Ouvert. Extrait de http://ofps.oreilly.com/titles/9780596804350/defining_government_2_0_lessons_learned_.htmlEmanuel, Rahm, Ville de Chicago. (2013). Décret Exécutif sur les données ouvertes (No 2012-2). Extrait de http://www.cityofchicago.org/city/en/narr/foia/open_data_executiveorder.htmlTareen, S. (2011, 14 septembre). Chicago publiera des statistiques sur la criminalité en ligne. Le Washington Times. Extrait de http://www.washingtontimes.com/news/2011/sep/14/apnewsbreak-chicago-to-publish-crime-stats-online/?page=all

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.