Open Data in Chicago: Game On

Bevor ich mich der Chicagoer Regierungsverwaltung anschloss, wusste ich sehr wenig über Open Data. Ich war sicherlich schon einige Zeit in die Welt der Daten und Analysen eingetaucht, aber ich habe das Konzept von „offen“ in diesem Kontext nicht wirklich verstanden. In der Tat, weil ich bei der Chicagoer Polizeibehörde in der Abteilung für Terrorismusbekämpfung und Geheimdienste gearbeitet hatte, schienen offene Daten völlig kontraintuitiv zu sein. Als sich das Übergangsteam des designierten Bürgermeisters Rahm Emanuel an mich wandte, um die Einführung eines Open-Data-Programms in der Stadt Chicago zu besprechen, musste ich schnell und hastig im Internet recherchieren, um richtig vorbereitet zu sein.

Während der Bürgermeisterwahlkampagne hatte Bürgermeister Emanuel eine Veranstaltung bei Microsoft abgehalten, die die Bedeutung von Open Government hervorhob und offene Daten als Herzstück seiner Vision für ein transparenteres Chicago anführte. Der Bürgermeister bat mich dann, als erster Chief Data Officer (CDO) der Stadt zu fungieren und seine Vision einer transparenteren Regierung umzusetzen, die ihre Daten nicht nur der Öffentlichkeit zur Verfügung stellt, sondern auch die Datenanalyse als Instrument zur Information der Politik und zur Verbesserung der Dienstleistungen einsetzt.

Die neue Administration startete am 16.Mai 2011 mit Open Data als oberste Priorität vom ersten Tag an. Am Wochenende zuvor hatte sich die Policy Group versammelt, um die Strategie für die ersten hundert Tage zu diskutieren, und Open Data wurde als frühes Ziel aufgeführt. Meine Mission war es, die Knochen des bestehenden Programms der Stadt zu einem Eckpfeiler der Transparenzinitiativen der Stadt zu machen. Mein erster Schritt bestand darin, zu beurteilen, was existierte, und dann zu entscheiden, wohin ich die Vision und Richtung als CDO für die Stadt Chicago bringen wollte.

Bevor wir in die Details dessen eintauchen, was folgte, lohnt es sich, den einfachen Punkt zu diskutieren, dass Chicago die erste große Gemeinde war, die einen CDO ernannte. Dies war eine klare und unmittelbare Aussage über die Bedeutung dieser Initiativen für die neue Verwaltung. Bürgermeister Emanuel hatte früh entschieden, dass er ein Team wollte, das die riesigen und reichen Datenressourcen der Stadt als Werkzeug nutzte und dass Empirismus die Politik informieren würde. Um dieses Ziel zu erreichen, schuf er eine leitende Position in seinem Büro, die sich genau darauf konzentrieren sollte. Durch die Schaffung eines CDO als Stellvertreter für eine datengesteuerte und transparente Regierung legte Bürgermeister Emanuel den Grundstein dafür, dass Chicago nicht mehr hinter anderen Regierungen zurückblieb, sondern an der Spitze offener Bürgerdaten und Transparenz stand.

Die Stadt Chicago hatte ein bestehendes Open-Data-Programm, also fing ich nicht bei Null an. Vor der neuen Verwaltung wurde es von Danielle DuMerer, einer Projektmanagerin im Department of Innovation and Technology (DoIT), geleitet. Die Stadt hatte sich bereits die Socrata-Plattform gesichert und einige grundlegende Datensatzprojekte gestartet — insbesondere die Veröffentlichung von Protokollen der von der Öffentlichkeit eingereichten Anfragen des Freedom of Information Act (FOIA) sowie eine Reihe von Einrichtungen und geografischen Datensätzen.

DuMerer hatte die lokale Open Government Community maßgeblich mit den offenen Daten der Stadt beschäftigt. Die vorherige Regierung hatte das Open-Data-Programm jedoch nicht als oberste Priorität unter anderen konkurrierenden Themen identifiziert, und selbst mit den Bemühungen von DuMerer hatte das Programm Mühe, erhebliche Zugkraft zu gewinnen. Aber sobald die neue Verwaltung mit einem klaren Mandat von Bürgermeister Emanuel an Bord kam, offene Daten zu einer Priorität zu machen, begann sich das Open-Data-Programm der Stadt sofort zu ändern.

In den ersten zwei Wochen als Chief Data Officer der Stadt habe ich mein Bestes gegeben, um die Besonderheiten des Programms kennenzulernen, das ich geerbt hatte. Ich fand es frustrierend, dass die Datenplattform bereits ausgewählt worden war. Während ich die schlüsselfertige Effizienz der Socrata-Plattform zu schätzen wusste, wusste ich, dass eine proprietäre Anwendung eine langfristige finanzielle Investition werden würde. Ich bin auch fest davon überzeugt, Open-Source-Technologien zu nutzen, und war enttäuscht, dass wir wenig getan haben, um die Community rund um CKAN, einen weit verbreiteten Open-Source-Open-Data-Katalog, zu unterstützen. Aber weil ich sofort Ergebnisse liefern musste, war ich nicht in der Lage, einen scharfen Pivot zu machen. Es war zu diesem Zeitpunkt nicht praktikabel, andere alternative Plattformen in Betracht zu ziehen.

Es gab auch die kommenden Apps für Metro Chicago Wettbewerbe, für die Pläne während der vorherigen Verwaltung initiiert worden waren. Die John D. und Catherine T. MacArthur Foundation finanzierte drei thematische Wettbewerbe, um Unternehmen und Softwareingenieure zu ermutigen, offene Daten der Stadt Chicago und des Cook County zu verwenden, um nützliche Anwendungen für die Bewohner zu erstellen. Wir haben die philanthropische Unterstützung dieser Initiative sehr geschätzt, aber der Wettbewerb hat uns einen harten Zeitplan für die Einführung unseres Programms auferlegt.

Es wäre einfach gewesen, ihm gerade genug Aufmerksamkeit zu schenken, um die Anforderungen des Projekts zu erfüllen und die unterstützende Stiftung nicht zu beleidigen, so dass wir uns auf die Ideen der neuen Verwaltung konzentrieren konnten. Am Ende sahen wir diesen Wettbewerb jedoch als eine großartige Möglichkeit, das neue Open Data-Programm in Chicago zu starten, und er half uns, schnell an Dynamik zu gewinnen. (MacArthur ist weiterhin ein fantastischer Unterstützer dieser zukunftsorientierten Programme.) Der Start des Wettbewerbs für Apps für Metro Chicago so bald nach dem Start der neuen Verwaltung stand im Einklang mit der Strategie, das bestehende Open-Data-Programm schnell auszubauen.

Wir stellten sofort fest, dass die Technologie zwar für das Projekt relevant war, diese Initiative jedoch durch klares Sponsoring der Geschäftsleitung schnell beschleunigt werden konnte. Wir haben schon früh einige wichtige Meilensteine erreicht, die den Grundstein für die Zukunft des Programms legten.

Zunächst veröffentlichte die Stadt ihren Datensatz zu Kriminalfällen. Historisch gesehen waren Kriminalitätsdaten in Chicago schwer zu erhalten. Während Chicago führend bei Front-Facing-Technologien war, waren seine Rohdaten nicht leicht zugänglich. Die ClearPath-Website des Chicago Police Department bot neunzig Tage lang historische Kriminalitätsdaten auf Ereignisebene über eine Mapping-Schnittstelle und war ein guter Anfang für den Informationszugriff. Wenn jedoch Dritte die Daten verwenden wollten, mussten sie eine erhebliche Menge an Scraping durchführen.

Kriminalitätsdaten gehören historisch gesehen zu den gefragtesten Datensätzen und sind auf verschiedene Arten oft zu einschränkend: sie haben ein zu kurzes Intervall, um für etwas anderes als das kurzfristige Situationsbewusstsein von Nutzen zu sein; die Daten werden an einer zu verwässernden Analyseeinheit aggregiert (à la Distrikt, Bezirk oder Bezirk); und / oder die Daten sind nicht maschinenlesbar.

Chicago bemühte sich, all diese Probleme in einem schnellen Zug zu lösen. Die entworfene Version zielte darauf ab, alle Kriminalitätsdaten auf Vorfallsebene vom 1. Januar 2001 bis heute zu öffnen und den Datensatz in einem vierundzwanzigstündigen Zyklus zu aktualisieren. Halten 4.Mit 6 Millionen Datensätzen wäre Chicagos veröffentlichter Datensatz der größte automatisch aktualisierte Satz von Kriminalitätsdaten auf Vorfallsebene, der jemals veröffentlicht wurde.

Die Technologie hinter der Veröffentlichung war nicht komplex, aber auch nicht trivial. Kriminalitätsdaten werden im Transaktionssystem des Chicago Police Department aufgezeichnet und dann in ihr Data Warehouse repliziert. Unser Ansatz bestand darin, eine ETL (eine Reihe von Datenbankfunktionen zum Verschieben von Daten von einem Ort zum anderen) von einem internen Versorgungsserver auszulösen, um Daten aus dem Polizeilager abzurufen und über die API von Socrata in das Datenportal der Stadt zu laden.

Auf dem Weg dorthin mussten jedoch einige kritische Elemente geschehen, um sicherzustellen, dass die Daten sicher waren und in eine freigabefähige Form gebracht werden konnten:

  • Die Adressen mussten zum Schutz der Privatsphäre blockreduziert werden.
  • Räumliche Koordinaten mussten ebenfalls verstreut werden, um den Schutz der Privatsphäre zu unterstützen.
  • Aktualisierungen mussten erfasst und in das Dataset repliziert werden, wenn die Quellsystemdatensätze aktualisiert wurden.
  • Da der Crimes-Datensatz einer der ersten großen Datensätze sein sollte, musste die Socrata-Plattform in der Lage sein, Uploads, Updates und Abfragen effizient zu verarbeiten.

Wir haben alle diese Schritte erfolgreich abgeschlossen und dabei einige Schmerzen verspürt, aber der Prozess kam schließlich zusammen. Ab April 2013 umfasst der Datensatz fast 5,2 Millionen Datensätze, wird weiterhin täglich automatisch aktualisiert und ist ein gutes Beispiel für die Implementierung offener Daten.

Diese Datenveröffentlichung lenkte die Aufmerksamkeit auf Chicagos Open-Data-Programm, von dem ein Großteil auf die Presse um diese Veröffentlichung zurückzuführen war. Sophia Tareen, eine Reporterin der Associated Press, berichtete über die Geschichte. Sie schrieb ein nachdenkliches Stück über die Ungeheuerlichkeit der Veröffentlichung und stellte fest, dass es ein klarer Wendepunkt für Chicago war (Tareen, 2011). Während lokal geschrieben, Der Artikel wurde von der AP massenhaft verschickt und, innerhalb weniger Stunden, wurde eine internationale Geschichte. Infolgedessen wurde Chicagos Open-Data-Programm sehr real und wurde von der breiteren Gemeinschaft validiert. Wir haben frühzeitig gelernt, dass eine hochkarätige Veröffentlichung eines hochinteressanten Datensatzes von enormem Nutzen ist. Ich betrachte dies als einen weiteren wegweisenden Moment für das Programm, der eine solide Grundlage für den Start bietet. Diese Version funktionierte sehr gut für Chicago, und ich vermute, es würde auch für andere Gerichtsbarkeiten funktionieren.

Zweitens, die Apps für Metro Chicago Wettbewerb bot einen Rahmen, um die Chicago-Community zu engagieren. Der Wettbewerb zeigte, dass viele Chicagoer von offenen Daten zutiefst begeistert waren und wirklich mit der Regierung zusammenarbeiten wollten, um Werkzeuge zu entwickeln, die ihren Nachbarn helfen. Um letzteres zu erreichen, mussten wir Daten in maschinenlesbaren Formaten bereitstellen und diese konsequent aktualisieren. Vor dem Neustart von Chicagos Datenportal wurden Daten zur Verfügung gestellt, jedoch normalerweise in Form eines PDFs, von dem Technologen wissen, dass es etwas weniger als freundlich sein kann.

Unsere Veröffentlichung von Straßenkehrdaten während des Wettbewerbsfensters Apps für Metro Chicago veranschaulicht diese Änderung. Während eines von Google veranstalteten Open Data Hackathons im Jahr 2011 wandte sich Scott Robbin an DuMerer und mich, um nach dem Straßenkehrer-Datensatz der Stadt zu fragen. Er war daran interessiert, eine Anwendung zu erstellen, die Benutzer in der Nacht benachrichtigt, bevor ihre Straße gefegt wird. Ich fand das eine fabelhafte Idee, da ich persönlich eine Reihe von Tickets erhalten hatte, weil ich mein Auto nicht bewegt hatte. Der Weg von der Idee zur Umsetzung erforderte jedoch einige Daten der Stadt. Der Straßenkehrplan existierte, wurde jedoch nicht in einem Format veröffentlicht, das von Softwareingenieuren oder Technologen leicht verwendet werden konnte. Das Department of Streets and Sanitation hatte eine Excel-Tabelle genommen und einen Kalender erstellt, mit den Formatierungswerkzeugen der Software. Die resultierende Tabelle wurde dann als PDF gedruckt und auf der Website der Stadt Chicago veröffentlicht. Dieses Format machte es unmöglich, Reverse Engineering. Glücklicherweise sind Praktikanten in solchen Situationen großartig darin, bei der mühsamen, aber kritischen Arbeit zu helfen, eine unbrauchbare Datei in eine Datei zu konvertieren, die als Datenquelle dienen kann. Wir haben die resultierende Datei auf gepostet data.cityofchicago.org . Von dort, Scott produziert eine hervorragende website, sweeparound.us , der vielen von uns geholfen hat, auf den Reinigungsplan der Stadt zu achten.

Der Sweeparound.diese Geschichte veranschaulicht ein paar wichtige Lektionen, die weiterhin wahr sind. Zunächst mussten wir als Stadt lernen, Daten in maschinenlesbaren Formaten als Teil unserer Standardgeschäftspraktiken zu produzieren. Zweitens zeigte eine Vielzahl von Gemeinschaften einen enormen Appetit auf Regierungsdaten, darunter Bürgerentwickler, Forscher und Journalisten. Wir sahen die Entstehung der Civic Developer Community sowohl im philanthropischen als auch im gewinnorientierten Modell. Orte wie Chapin Hall an der University of Chicago hatten jahrelang Schwierigkeiten, administrative Daten für Forschungszwecke zu extrahieren. Open-Data-Programme erleichtern dies erheblich und machen Vertraulichkeitsvereinbarungen oder andere Arten von Vereinbarungen überflüssig. Offene Daten haben auch neue Forschungen angeregt. Ein Ph.D. Kandidat twitterte ihre Dankbarkeit, endlich in der Lage zu sein, ihre Dissertation zu beenden, und traditionellere Organisationen haben nun mehrjährige Studien begonnen, basierend auf dem, was auf dem Datenportal der Stadt Chicago veröffentlicht wurde.

Die letzte Lektion wurde von Tim O’Reilly (2010) geprägt: „Regierung als Plattform.“ Ich habe diese Idee einige Zeit nicht vollständig verstanden, aber jetzt schätze ich sie sehr. Das Datenportal von Chicago wurde entwickelt, um Rohdaten in maschinenlesbaren Formaten bereitzustellen. Durch die Bereitstellung einer API für diese Daten kann jeder Entwickler auf dieses Rohmaterial zugreifen, es verwenden oder für jeden erdenklichen Zweck integrieren. Als Chief Information Officer und CDO der Stadt, Ich habe absichtlich versucht, nicht in das App-Entwicklungsgeschäft einzusteigen, und, stattdessen, Zog es vor, das Portal so auszubauen, dass es sowohl Vielfalt als auch Tiefe bietet. Diese Strategie hindert uns daran, Apps zu warten, die verschiedene Programmierkenntnisse und laufende finanzielle Ressourcen erfordern. Stattdessen ermöglicht uns ein standardbasiertes Datenportal, die Plattform zu sein, wie O’Reilly vorschlägt, und die innovativen Ideen zu unterstützen, die von verschiedenen Communities gepflegt werden.

Erfolgreiche Implementierung eines Open-Data-Programms

Nach zwei Jahren Aufbau eines erfolgreichen Programms in der Stadt Chicago gibt es eine Reihe kritischer Punkte, die genutzt werden können, wenn andere Städte die Implementierung oder Erweiterung von Open Data in Betracht ziehen.

Architektur

Der Aufbau eines großen, nützlichen, maschinenlesbaren und aussagekräftigen Datenportals ist eine nicht triviale technische Aufgabe. Zuerst kommt natürlich die Frage der Plattform. Sie müssen über die Fähigkeiten Ihrer Mitarbeiter nachdenken, zusammen mit der verfügbaren Finanzierung, um diese Entscheidung zu treffen. Hier sind einige Punkte zu beachten.

Wenn Sie eine schlüsselfertige Lösung benötigen, stehen Ihnen nur wenige Optionen zur Verfügung. Socrata ist die dominierende Plattform, und sie sind gut in dem, was sie tun. Sie bieten ein Ready-to-Go-Datenportal. Für Organisationen, die vor der Idee zurückschrecken, ihre eigenen Server zu erstellen und Open Source zu verwenden, ist dies die Methode, die für Sie am besten geeignet ist. Wie wir jedoch später besprechen werden, müssen Sie einige ziemlich fortgeschrittene Arbeiten ausführen, um eine nachhaltige offene Datenplattform zu haben.

Jenseits der Plattform liegt die Quelle der Daten. Für Programme, die sich noch in ihrer grundlegendsten Phase befinden, kann die Verwendung eines schlüsselfertigen Ansatzes diese Arbeit unglaublich einfach machen. Ihre Daten können sich in etwas so Einfachem wie einer Tabelle befinden. Sie können diese Informationen direkt in Socrata hochladen und in Sekundenschnelle einsatzbereit sein, aber es bleibt selten so einfach, wenn Sie über die Grundlagen hinausgehen.

Viele der Daten, die Sie haben, stammen aus Transaktions- oder Lagersystemen, und wenn Ihre Welt wie meine ist, sind viele von ihnen ziemlich alt und etwas kryptisch. Sie müssen Wege finden, um die Daten zu extrahieren, zu verstehen, was sie bedeuten, und sie in die Plattform zu laden. Dies ist etwas weniger schlüsselfertig, als Sie ursprünglich denken könnten.

Sie müssen auch berücksichtigen, wie viele Daten Sie verschieben und wie sich dies auf Ihr Unternehmensnetzwerk, Ihren Speicher und Ihre Systeme auswirkt. Wenn Sie es einfach mit einer Gehaltsliste zu tun haben, bei der es sich um kleine Daten handelt, ist das Problem trivial. Was ist jedoch, wenn Sie so etwas wie GPS-Koordinaten Ihres Vermögens laden möchten? In Chicago wären das ungefähr zehn Millionen Zeilen pro Tag. Das würde die meisten Umgebungen belasten.

Nachhaltigkeit

Es mag seltsam erscheinen, diesen sehr spezifischen Punkt zu nennen, aber ich vermute, es ist einer der kritischsten: die Nachhaltigkeit des Gesamtdesigns. Ein Open-Data-Programm, das auf einen Menschen angewiesen ist, um es auf dem neuesten Stand zu halten, ist grundlegend fehlerhaft. Wenn man bedenkt, dass eines der Ziele von Open Data Transparenz ist, ist es wichtig, über die Rolle des Zwischenhändlers nachzudenken. Ich scherze gerne, dass die Leute oft schockiert sind, wenn ich ihnen sage, dass wir die Daten nicht überprüfen, bevor sie auf dem Portal veröffentlicht werden. Es gibt tatsächlich keinen kleinen Kerl im Keller des Rathauses, der jede Datenzeile überprüft, bevor sie aus der Tür geht. Das ist der schöne Teil des Designs hinter dem Portal.

Neunundneunzig Prozent der Daten, die auf data.cityofchicago.org kommt dort automatisch an. Jeder der Datensätze verfügt über einen ETL-Job, der eine Verbindung zum Quellsystem herstellt, die Daten aufnimmt, sie entsprechend transformiert und in die Plattform lädt. Dies geschieht täglich oder häufiger. In einigen Fällen überschreiben wir den gesamten Satz. Für andere, wie Kriminalfälle, führen wir ein inkrementelles Update durch, das neue Datensätze hinzufügt und Änderungen an vorhandenen Datensätzen festhält. Diese Art von Architektur erfüllt eine Reihe kritischer Punkte.

Erstens ist es skalierbar. Es ist unmöglich, Millionen von Datenzeilen basierend auf manuellen Aktualisierungen zur Verfügung zu haben. Dies macht wenig Sinn und wird nicht rechtzeitig sein. Zweitens, wie bereits erwähnt, hält es die Plattform ehrlich. Schließlich schafft es Nachhaltigkeit. Das Programm hört auf, sich um eine einzelne Person zu drehen, und wird stattdessen zu einem programmatischen Bereich innerhalb der technologischen Organisation.

Angst

Es gibt eine starke institutionelle Angst vor offenen Daten. In einer Kultur des „Gotcha“ -Journalismus ist die Vorstellung, dass etwas offengelegt wird, das eine Verwaltung in Verlegenheit bringen könnte, eine häufige Sorge und daher ein Hindernis. Es ist oft ein Grund, keine Daten freizugeben. Meine Erfahrung damit hebt einige kritische Punkte hervor.

Wir haben bisher Millionen von Datenzeilen veröffentlicht, und bisher ist es sehr gut gelaufen. Jedes Mal, wenn der interne Wahlkreis über eine Freilassung besorgt war, konnten wir sie vorantreiben und ohne Zwischenfälle an die Öffentlichkeit gehen.

Es ist wichtig, dass Sie eine starke Beziehung zu Ihrer Open Government-Community aufbauen. Indem Sie diese Dynamik fördern, können Sie ein „Lass es uns zusammenarbeiten“ -Ethos schaffen. Ich erklärte, dass, wenn jeder Fehler, den ich gemacht habe, zu einem größeren Vorfall führen würde, dies unsere gemeinsamen Ziele beeinträchtigen würde. In Chicago hat man sich das zu Herzen genommen. Wir haben eine Teamarbeit mit Joe Germuska vom Knight Lab der Northwestern University und früher von der Chicago Tribune zusammen mit Daniel X. O’Neil von der Smart Chicago Collaborative erstellt. Wir würden regelmäßig über Twitter einberufen, Email, Telefon, oder bei Meet-ups. Dies hat besonders gut geklappt, da wir große und komplizierte Datensätze erobern wollten. Dies sind die Arten von Datensätzen, die beim ersten Mal nur sehr schwer perfekt freigegeben werden können.

Oft werden Sie eine Dynamik zwischen Regierung, Presse und der Open Government Community sehen, die aufgrund dieses „Gotcha“ -Konzepts, das ich zuvor erwähnt habe, weniger als angenehm sein kann. Die Regierung gibt etwas frei, das einen Fehler enthält, und es wird zu einem „Ding“.“ Vielleicht gibt es erhebliche Presse um den Fehler oder, noch schlimmer, es wird als betrügerisch angesehen. In diesem Rahmen gibt es normalerweise nur zwei Strategien, die von der Regierung ergriffen werden können. Die erste besteht darin, keine Daten freizugeben, was für keines unserer Interessen der optimale Weg ist. Die zweite besteht darin, sicherzustellen, dass die Daten hundertprozentig perfekt sind, bevor sie aus der Tür gehen.

Das hundertprozentig perfekte Modell ist in Ordnung, wenn die Daten klein sind. Wenn Sie eine Tabelle mit einhundert Zeilen veröffentlichen und diese nicht besonders breit ist, können Sie jede einzelne Zeile durchgehen, um sicherzustellen, dass sie perfekt ist. Sie können die Übung sogar mit einer Vielzahl von Mechanismen auf Tausende von Zeilen skalieren. Was passiert jedoch, wenn der Datensatz Millionen von Zeilen enthält und ein Jahrzehnt abdeckt? Selbst mit Skripten und Audit-Techniken können Sie die hundertprozentige Vertrauensmarke nicht erreichen. Dies lässt die meisten Menschen in einem Dilemma. Wenn Sie große und wichtige Daten freigeben möchten und nicht sicherstellen können, dass sie hundertprozentig korrekt sind, führt dies zu allerlei Drama. Es wird eine No-Win-Situation.

Hier haben wir die Dynamik in Chicago geändert, damit wir das Open-Data-Programm auf Hochtouren bringen können. Es kam darauf an, dass ich persönlich eine Reihe von Beziehungen innerhalb der Community aufbaute und die Zeit investierte, um sicherzustellen, dass die Leute verstanden und an das glaubten, was wir versuchten. Historisch gesehen taucht ein hochrangiges Mitglied der Verwaltung nicht bei einem Open Government-Treffen auf, um offene Daten zu diskutieren, aber dies ermöglichte es mir letztendlich, Vertrauen zwischen diesen Entitäten aufzubauen. Es half auch, Kontakte wie Joe innerhalb der Nachrichtenorganisation zu haben, die den Aufbau von Beziehungen ermöglichten. Diese Leute glaubten, dass unser Open-Data-Plan größer war als die einzige Geschichte und dass wir ein breiteres System bauten.

Teil des täglichen Betriebs werden

Als das Open Data-Programm in Chicago zu einer robusten und nützlichen Plattform wurde, stellte sich die Frage, wie wir es auf die nächste Stufe bringen sollten. Anfang 2013 beschloss der Bürgermeister, sich politisch zu engagieren, um die Nachhaltigkeit des Programms sicherzustellen. Er gab eine Open Data Executive Order (2012-2) heraus, die vorsah, dass jede Abteilung einen Open Data-Koordinator benennen würde, die Stadt die Position des Chief Data Officers schaffen und aufrechterhalten würde und es eine jährliche Rechenschaftspflicht für die Veröffentlichung von Open Data für Transparenz und Nachhaltigkeit geben würde (Emanuel, 2013).

Die Veröffentlichung und Enthüllung dieser Executive Order diente dazu, die harte Arbeit zu verstärken, die in die Erstellung des Programms geflossen war. Die Reihenfolge bleibt eine offene Frage für Verwaltungen, die im Bereich der offenen Daten vorankommen möchten. Ist es sinnvoll, die Durchführungsverordnung oder Gesetzgebung vor Beginn der Initiative zu erlassen, oder ist es sinnvoll, eine gewisse Traktion zuzulassen und dann diesen Rahmen zu schaffen?

Ich bevorzuge Letzteres, aber ich bin eindeutig voreingenommen. Meine Gedanken konzentrieren sich auf die Fähigkeit, in einer Inkubatorumgebung zu iterieren und sich zu entwickeln, bevor sie Teil des Systems wird. Open-Data-Programme müssen sich in verschiedenen Städten auf unterschiedliche Weise entwickeln und wachsen. Lektionen, die für Chicago gelten, sind für eine andere Stadt möglicherweise nicht relevant. Die Autonomie zu versuchen, zu erforschen und anzupassen, macht sehr viel Sinn und ist sicherlich ein Modell, das dem Erfolg förderlich sein kann. Es ist wichtig, ein tragfähiges Programm zu erstellen, bevor es seine Funktionen übermäßig vorschreibt.

Das absolute Minimum, um erfolgreich zu sein

Damit ein Open-Data-Programm wirklich erfolgreich sein kann, sind zwei Schlüsselelemente erforderlich, die in der Tat auch eine umfassendere Lektion für viele Regierungsinitiativen sind. Die erste ist die klare und lautstarke Unterstützung des Executive Sponsors – ob dies der Präsident für das Bundesprogramm oder, im Fall von Chicago, der Bürgermeister ist. Mit der unmissverständlichen Unterstützung des Bürgermeisters verschwanden die Straßensperren, als klar wurde, dass alle Parteien für den Erfolg — oder das Fehlen — des Programms verantwortlich sein würden.

Die zweite ist die finanzielle Unterstützung. Ein Mandat mit einem Mangel an unterstützenden Mitteln in der Regierung ist in der Tat kein Mandat. In der Stadtverwaltung gibt es ein gemeinsames Sprichwort: „Die Kontrolle basiert auf einer Haushaltslinie.“ Wer die Haushaltslinie kontrolliert, kontrolliert das Projekt. Chicago hat Mittel (nicht viel, aber dennoch) und Ressourcen bereitgestellt, um sicherzustellen, dass dies erfolgreich sein kann. Im Fall von Chicago konnte dies die Socrata-Plattform als Grundlage und die laufenden Arbeiten finanzieren, die für die ETL-Entwicklung erforderlich waren. Ohne eine Datenplattform und eine Art automatisierter Methode, um sie weiterhin auf dem neuesten Stand zu halten, ist es kein echtes Programm, das über den Einzelnen hinaus nachhaltig ist.

Ich werde jedoch den Eckfall beachten, der meinen zweiten Punkt ungültig macht, und dies ist natürlich ein Modell, das ich bewundere: der scrappy Do-it-yourself-Shop. In diesem Szenario basiert das Programm auf dem Open-Source-CKAN-Modell. Das Unternehmen kann sein offenes Datensystem auf dieser Plattform aufbauen. Da sie bereits die Innovation gezeigt haben, mit Open-Source-Software zu arbeiten, können sie möglicherweise ihre eigenen ETLs schreiben oder einige der großartigen Open-Source-ETL-Tools nutzen, die im Internet verfügbar sind. Von dort aus wäre es eine Funktion, welche Art von Infrastruktur aufgebaut werden könnte. Es gibt absolut keinen Grund, warum eine kostengünstige Cloud-Lösung nicht implementiert werden könnte. Diese Art der Präsenz erfordert kein erhebliches Maß an Sicherheit, da Sie sich nicht wirklich Gedanken über den Zugriff auf die Daten machen. Vielmehr möchten Sie einfach seine Integrität bewahren.

Dieser Eckfall ist etwas interessant, da man sich ein Szenario vorstellen kann, in dem man einen starken Executive Sponsor mit einem scrappy Technologen zusammenbringt. Angesichts des Zugangs und des Mandats wäre dies für einen erfolgreichen ersten Ausflug in den offenen Datenraum außerordentlich kostengünstig. Dies ist ein Bereich, den wir berücksichtigen und Wege finden sollten, ihn zu unterstützen.

Chicago ist ein ausgezeichneter Fall, um zu zeigen, wie man ein Open-Data-Programm erstellen kann, wo es nicht erwartet wird. Die Rolle des starken Executive Sponsors ist entscheidend für den Erfolg eines Programms, und Bürgermeister Emanuel spielte diese Rolle. Der Aufbau enger Partnerschaften mit der Community und die strategische Aufmerksamkeit der Medien waren ebenfalls Schlüsselkomponenten unseres Erfolgs. Durch Hartnäckigkeit und nachhaltige Umsetzung durch das Team konnte Chicago eine Initiative auf den Weg bringen, die zum Goldstandard für offene Daten geworden ist. Diese Lehren aus Chicagos raschem Ausbau unseres Programms werden dazu beitragen, die nächste Generation von Open-Data-Initiativen zu informieren, da neue Modelle für Wachstum und Nachhaltigkeit von Open Data entstehen.

Über den Autor

Brett Goldstein ist der ehemalige Chief Data and Information Officer für die Stadt Chicago. 2013 wurde er zum ersten Empfänger des Fellowship in Urban Science an der Harris School of Public Policy der University of Chicago ernannt. Vor seiner Ernennung zum ersten Chief Data Officer von Chicago gründete er die Chicago Police Department Predictive Analytics Group. Zuvor war er sieben Jahre in der Startup-Welt tätig und baute den Online-Echtzeit-Restaurantreservierungsservice OpenTable auf. Goldstein promoviert derzeit in Kriminologie, Recht und Justiz an der University of Illinois-Chicago.

O’Reilly, Tim. (2010). Regierung als Plattform. In: Open Government. Abgerufen von http://ofps.oreilly.com/titles/9780596804350/defining_government_2_0_lessons_learned_.htmlEmanuel, Rahm, Stadt Chicago. (2013). Open Data Executive Order (Nr. 2012-2). Abgerufen von http://www.cityofchicago.org/city/en/narr/foia/open_data_executiveorder.htmlTareen, S. (2011, September 14). Chicago, um Kriminalitätsstatistiken online zu veröffentlichen. Die Washington Times. Abgerufen von http://www.washingtontimes.com/news/2011/sep/14/apnewsbreak-chicago-to-publish-crime-stats-online/?page=all

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.