voordat ik lid werd van de overheid van Chicago, wist ik heel weinig over open data. Ik was zeker al enige tijd ondergedompeld in de wereld van data en analytics, maar ik begreep het concept van “open” niet substantieel toen het op deze context werd toegepast. Omdat ik bij de politie van Chicago had gewerkt op het gebied van terrorismebestrijding en inlichtingen, leken open data volledig contra-intuïtief. Dus toen burgemeester-elect Rahm Emanuel ‘ s overgangsteam contact met me opnam om het opzetten van een open data-programma in de stad Chicago te bespreken, moest ik snel en haastig internetonderzoek doen om goed voorbereid te zijn.Tijdens de burgemeesterscampagne had burgemeester Emanuel een evenement bij Microsoft gehouden dat het belang van open Overheid benadrukte, waarbij open data centraal stond in zijn visie op een transparanter Chicago. De burgemeester vroeg me toen om te dienen als de eerste Chief Data Officer van de stad (CDO) en om zijn visie van een transparantere overheid uit te voeren die niet alleen haar gegevens beschikbaar maakt voor het publiek, maar ook data-analyse gebruikt als een hulpmiddel om beleid te informeren en diensten te verbeteren.
de nieuwe administratie begon op 16 mei 2011, met open data als topprioriteit vanaf dag één. Het weekend daarvoor was de beleidsgroep samengekomen om de strategie voor de eerste honderd dagen te bespreken en open data werd als vroeg doel vermeld. Mijn missie was om de botten van het bestaande programma van de stad te nemen en het een hoeksteen te maken van de transparantie-initiatieven van de stad. Mijn eerste stap was om te beoordelen wat er bestond en dan beslissen waar ik wilde de visie en richting als de CDO voor de stad Chicago te nemen.Voordat we ingaan op de details van wat er volgde, is het de moeite waard om het simpele punt te bespreken dat Chicago de eerste grote gemeente was die een CDO aanstelde. Dit was een duidelijke en onmiddellijke verklaring over het belang van deze initiatieven voor de nieuwe regering. Burgemeester Emanuel had al vroeg besloten dat hij een team wilde dat de enorme en rijke gegevensbronnen van de stad als een hulpmiddel gebruikte en dat empirisme het beleid zou informeren. Om dat doel te bereiken, creëerde hij een senior-level post binnen zijn kantoor die zich precies daarop zou richten. Door het creëren van een CDO als zijn proxy voor een data-driven en transparante overheid, burgemeester Emanuel legde de basis voor Chicago om te gaan van het achterblijven achter andere regeringen om in de voorhoede van open civic data en transparantie.
de stad Chicago had een bestaand open data programma, dus ik begon niet helemaal opnieuw. Voorafgaand aan de nieuwe administratie werd het geleid door Danielle DuMerer, een projectmanager bij de afdeling innovatie en technologie (DoIT). De stad had al het Socrata-platform beveiligd en een aantal fundamentele datasetprojecten afgetrapt-met name het publiceren van logs van de Freedom of Information Act (FOIA) verzoeken die door het publiek zijn ingediend, evenals een assortiment van faciliteiten en geografische datasets.DuMerer had de lokale overheid in belangrijke mate betrokken bij de open data van de stad. Echter, de voorafgaande administratie had het open data-programma niet geïdentificeerd als een topprioriteit onder andere concurrerende problemen, en zelfs met DuMerer ‘ s inspanningen het programma moeite om aanzienlijke tractie te krijgen. Maar toen de nieuwe regering aan boord kwam met een duidelijk mandaat van Burgemeester Emanuel om van open data een prioriteit te maken, begon het Open data-programma van de stad onmiddellijk te veranderen.
in de eerste twee weken als Chief Data Officer van de stad, deed ik mijn best om de ins en outs van het programma dat ik had geërfd te leren. Ik vond het frustrerend dat de data platform al was gekozen. Hoewel ik de turnkey-efficiëntie van Socrata ‘ s platform waardeer, wist ik dat een eigen applicatie een financiële investering op lange termijn zou worden. Ik ben ook een sterke gelovige in het gebruik van open source technologieën en was teleurgesteld dat we weinig doen om de gemeenschap rond CKAN, een veel gebruikte open source open data catalogus te ondersteunen. Maar omdat ik onmiddellijk resultaten moest leveren, was ik niet in de positie om een scherpe draai te maken. Het was niet praktisch om andere alternatieve platforms te overwegen op dat moment.
er waren ook de komende apps voor Metro Chicago wedstrijden, plannen voor die waren gestart tijdens de vorige administratie. De John D. en Catherine T. MacArthur Foundation financierden drie thematische wedstrijden om bedrijven en software-ingenieurs aan te moedigen om City of Chicago en Cook County open data te gebruiken om nuttige toepassingen voor bewoners te creëren. We waardeerden de filantropische steun van dit initiatief zeer, maar de wedstrijd legde een harde tijdlijn op om ons programma uit te rollen.
het zou eenvoudig zijn geweest om het net genoeg aandacht te geven om aan de eisen van het project te voldoen en de ondersteunende stichting niet te beledigen, zodat we ons konden concentreren op de ideeën van de nieuwe administratie. Uiteindelijk zagen we deze wedstrijd echter als een geweldige manier om het nieuwe open data-programma in Chicago te lanceren en het hielp ons snel momentum te krijgen. (MacArthur blijft een fantastische supporter van deze vooruitstrevende programma ‘ s.) Kick-off van de apps voor Metro Chicago concurrentie zo snel na de start van de nieuwe administratie was in overeenstemming met de strategie van het snel uitbreiden van de bestaande open data-programma.
we stelden onmiddellijk vast dat, hoewel technologie relevant was voor het project, duidelijke sponsoring van leidinggevenden het mogelijk maakte om dit initiatief snel te versnellen. We hebben al vroeg een aantal belangrijke mijlpalen bereikt die uiteindelijk de basis vormden voor de toekomst van het programma.
eerst bracht de stad haar dataset van misdaadincidenten uit. Historisch gezien waren misdaadgegevens moeilijk te verkrijgen in Chicago. Terwijl Chicago een leider in front-facing technologieën was geweest, de ruwe data was niet gemakkelijk toegankelijk. De CLEARpath website van de Chicago Police Department bood negentig dagen aan historische incident-niveau misdaadgegevens via een mapping interface en was een geweldige start in termen van toegang tot informatie. Als derden de gegevens echter wilden gebruiken, moesten zij een aanzienlijke hoeveelheid schrapen.
Misdaadgegevens zijn historisch gezien een van de meest gevraagde datasets en zijn vaak op enkele verschillende manieren te beperkend: het interval is te kort om nut te bieden voor iets anders dan situationeel bewustzijn op korte termijn; de gegevens worden geaggregeerd op een eenheid van analyse die te dilutief is (à la district, ward, of district); en/of de gegevens zijn niet machinaal leesbaar.
Chicago trachtte al deze problemen snel op te lossen. De ontworpen release was bedoeld om alle incident-niveau misdaad gegevens te openen vanaf januari 1, 2001, tot het heden en de dataset bij te werken op een 24-uurs cyclus. Wacht 4.6 miljoen records, Chicago ‘ s gepubliceerde dataset zou de grootste automatisch updaten set van incident-niveau misdaad gegevens ooit vrijgegeven.
de technologie achter de release was niet complex, maar ook niet triviaal. Misdaadgegevens worden opgenomen in het transactionele systeem van de politie van Chicago en vervolgens gerepliceerd in hun datawarehouse. Onze aanpak was om een ETL (een set van databasefuncties voor het verplaatsen van gegevens van de ene plaats naar de andere) van een interne utility server af te vuren om gegevens uit het politiemagazijn te halen en deze via Socrata ‘ s API in het dataportaal van de stad te laden.
onderweg moesten echter een aantal kritische items plaatsvinden om ervoor te zorgen dat de gegevens veilig waren en in een vrij te geven vorm konden worden weergegeven:
- de adressen moesten worden geblokkeerd-gereduceerd om de privacy te beschermen.
- ruimtelijke coördinaten moesten ook worden verspreid om de bescherming van de persoonlijke levenssfeer te bevorderen.
- Updates moesten worden vastgelegd en gerepliceerd in de dataset toen de bronsysteemrecords werden bijgewerkt.
- omdat de crimes-dataset een van hun eerste grote datasets moest zijn, moest het Socrata-platform efficiënt kunnen omgaan met uploads, updates en queries.
we hebben al deze stappen met succes voltooid, waarbij we onderweg wat pijn ondervonden, maar het proces kwam uiteindelijk samen. Vanaf April 2013 bevat de dataset bijna 5,2 miljoen records, wordt deze nog steeds dagelijks automatisch bijgewerkt en dient als een goed voorbeeld van de implementatie van open data.
deze data release bracht aanzienlijke aandacht voor het Open data programma van Chicago, waarvan een groot deel te danken was aan de pers rond die release. Sophia Tareen, een verslaggever van de Associated Press, coverde het verhaal. Ze schreef een doordacht stuk over de enorme omvang van de release en merkte op dat het een duidelijk keerpunt was voor Chicago (Tareen, 2011). Hoewel het lokaal werd geschreven, werd het artikel massaal door de AP verzonden en werd het binnen een paar uur een internationaal verhaal. Als gevolg daarvan werd het Open data-programma van Chicago zeer reëel en werd het gevalideerd door de bredere gemeenschap. We leerden dat er een enorm voordeel is aan een high-profile release van een high-interest dataset in een vroeg stadium. Ik zie dit als een ander belangrijk moment voor het programma, het verstrekken van een solide basis van waaruit te lanceren. Deze release werkte heel goed voor Chicago, en ik vermoed dat het zou werken voor andere jurisdicties ook.
ten tweede bood de apps for Metro Chicago-competitie een kader om de Chicago-gemeenschap te betrekken. De wedstrijd toonde aan dat veel Chicagoans erg enthousiast waren over open data en echt met de overheid wilden samenwerken om tools te bouwen om hun buren te helpen. Om dit laatste te bereiken, moesten we gegevens in machineleesbare formaten leveren en deze moesten consequent worden vernieuwd. Voorafgaand aan de herlancering van Chicago ‘ s data portal, data was beschikbaar gesteld, maar meestal in de vorm van een PDF, waarvan technologen weten dat kan iets minder dan vriendelijk.
onze release van street sweeping data tijdens de apps for Metro Chicago wedstrijd venster illustreert deze verandering. Terwijl op een Google-hosted open data hackathon in 2011, Scott Robbin benaderde DuMerer en ik om te vragen over de straatveger dataset van de stad. Hij was geïnteresseerd in het bouwen van een applicatie die gebruikers zou Informeren de nacht voordat hun straat zou worden geveegd. Ik dacht dat dit een geweldig idee was, omdat ik persoonlijk een reeks tickets had ontvangen omdat ik mijn auto niet had verplaatst. De weg van idee naar implementatie vereiste echter enkele gegevens van de stad. Het straatvegenschema bestond, maar het werd niet gepubliceerd in een formaat dat gemakkelijk werd gebruikt door software-ingenieurs of technologen. Het Department of Streets and Sanitation had een Excel-spreadsheet genomen en een kalender gemaakt, met behulp van de opmaaktools van de software. De resulterende spreadsheet werd vervolgens afgedrukt naar een PDF en gepost op de website van de stad Chicago. Dit formaat maakte het onmogelijk om te reverse engineeren. Gelukkig, in situaties als deze, stagiaires zijn geweldig in het helpen met de vervelende, maar kritische, werk van het omzetten van een onbruikbaar bestand in een die kan dienen als een gegevensbron. We postten het resulterende bestand op data.cityofchicago.org. vanaf daar, Scott produceerde een uitstekende site, sweeparound.us, die velen van ons heeft geholpen om zich bewust te zijn van het schoonmaakschema van de stad.
de Sweeper.us story illustreert een paar belangrijke lessen die waar blijven. Ten eerste moesten we als stad leren om gegevens te produceren in machineleesbare formaten als onderdeel van onze standaard business practices. Ten tweede toonden verschillende gemeenschappen een enorme eetlust voor overheidsdata, waaronder burgerontwikkelaars, onderzoekers en journalisten. We zagen de opkomst van de civic developer community, zowel in de filantropische als profit modellen. Plaatsen als Chapin Hall aan de Universiteit van Chicago hadden jarenlang moeite om administratieve gegevens te extraheren ten behoeve van onderzoek. Open Data programma ‘ s maken het aanzienlijk gemakkelijker, waardoor de noodzaak om non-disclosure of andere soorten overeenkomsten te onderhandelen. Open data heeft ook nieuw onderzoek gestimuleerd. Een Ph. D. kandidaat tweette haar dankbaarheid voor eindelijk in staat om haar proefschrift af te maken, en meer traditionele organisaties zijn nu begonnen met meerjarige studies, op basis van Wat is vrijgegeven op de City of Chicago ‘ s data portal.
The last lesson is one coined by Tim O ‘Reilly (2010):” Government as a Platform.”Ik heb dit idee enige tijd niet helemaal begrepen, maar nu waardeer ik het enorm. Chicago ‘ s Data portal is ontworpen om ruwe data te leveren in machineleesbare formaten. Door het verstrekken van een API aan deze gegevens, elke ontwikkelaar kan toegang krijgen tot, gebruiken, of integreren van al deze grondstof voor welk doel ze zich maar kunnen voorstellen. Als Chief Information Officer van de stad en CDO, heb ik doelbewust geprobeerd om te voorkomen dat je in de app-ontwikkeling business en, in plaats daarvan, de voorkeur aan de portal te laten groeien om zowel diversiteit en diepte te bieden. Deze strategie voorkomt dat we in de business van het onderhouden van apps die verschillende programmering vaardigheden en voortdurende financiële middelen vereisen. In plaats daarvan stelt een op standaarden gebaseerd Dataportaal ons in staat om het platform te zijn, zoals O ‘ Reilly suggereert, en de innovatieve ideeën te ondersteunen die door verschillende gemeenschappen worden gecultiveerd.
succesvolle implementatie van een Open Data programma
na twee jaar van het bouwen van een succesvol programma in de stad Chicago, zijn er een aantal kritieke punten die kunnen worden benut als andere steden overwegen het implementeren of uitbreiden van open data.
architectuur
het bouwen van een groot, nuttig, machineleesbaar en betekenisvol Dataportaal is een niet-triviale technische taak. Ten eerste, natuurlijk, komt de kwestie van het platform. U moet nadenken over de mogelijkheden van uw medewerkers, samen met de beschikbare financiering om deze beslissing te nemen. Hier zijn enkele punten om te overwegen.
Als u een kant-en-klare oplossing nodig hebt, zijn er weinig opties beschikbaar. Socrata is het dominante platform, en ze zijn goed in wat ze doen. Ze bieden een kant-en-klare Dataportaal. Voor organisaties die krimpen bij het idee van het bouwen van hun eigen servers en het gebruik van open source, Dit is de methode die gaat het beste werken voor u. Echter, zoals we later zullen bespreken, om een duurzaam open data platform te hebben, zul je wat vrij geavanceerd werk moeten doen.
voorbij het platform komt de bron van de gegevens. Voor programma ‘ s die nog steeds in hun meest elementaire fase, met behulp van een turnkey aanpak kan dit werk ongelooflijk eenvoudig te maken. Uw gegevens kunnen zich bevinden in iets simpels als een spreadsheet. U kunt die informatie direct uploaden naar Socrata en klaar zijn om te gaan in seconden, maar het blijft zelden zo eenvoudig als je eenmaal voorbij de basis.
veel van de gegevens die u hebt zullen afkomstig zijn van transactionele of warehouse systemen, en als uw wereld zoals de mijne is, zijn veel van hen behoorlijk verouderd en enigszins cryptisch. U moet manieren vinden om de gegevens te extraheren, begrijpen wat het betekent, en laad het in het platform. Dit is iets minder turnkey dan je oorspronkelijk zou denken.
u moet ook overwegen hoeveel gegevens u zult verplaatsen en hoe dat uw bedrijfsnetwerk, opslag en systemen zal beïnvloeden. Als je gewoon te maken hebt met iets als een salarislijst, dat is Kleine gegevens, de kwestie is triviaal. Maar wat als u iets als GPS-coördinaten van uw activa wilt laden? In Chicago zou dat ongeveer tien miljoen rijen per dag zijn. Dat zou de meeste omgevingen belasten.
duurzaamheid
het lijkt misschien vreemd om dit zeer specifieke punt te noemen, maar ik vermoed dat het een van de meest kritische is: de duurzaamheid van het totale ontwerp. Een open data programma dat afhankelijk is van een mens om het bijgewerkt te houden is fundamenteel gebrekkig. Gezien het feit dat een van de doelstellingen van open data transparantie is, is het belangrijk om na te denken over de rol van de tussenpersoon. Ik maak graag grapjes dat mensen vaak geschokt zijn als ik hen vertel dat we de gegevens niet doorlichten voordat ze op het portaal worden vrijgegeven. Er is in feite geen klein mannetje in de kelder van het stadhuis dat elke rij gegevens controleert voordat het de deur uit gaat. Dat is het mooie deel van het ontwerp achter het portaal.
negenennegentig procent van de gegevens die data.cityofchicago.org komt daar automatisch aan. Elk van de datasets heeft een ETL-taak die verbinding maakt met het bronsysteem, de gegevens neemt, transformeert, en laadt het in het platform. Dit gebeurt dagelijks of vaker. In sommige gevallen overschrijven we de hele set. Voor anderen, zoals misdaadincidenten, doen we een incrementele update die nieuwe records toevoegt en wijzigingen in bestaande records vangt. Dit type architectuur bereikt een reeks kritische punten.
eerst is het schaalbaar. Het is onmogelijk om miljoenen rijen gegevens beschikbaar te hebben op basis van handmatige verversingen. Dit heeft weinig zin en komt niet op het juiste moment. Ten tweede, zoals eerder vermeld, het houdt het platform eerlijk. Tot slot zorgt het voor duurzaamheid. Het programma houdt op om over een enkel individu te gaan en, in plaats daarvan, wordt het een programmatisch gebied binnen de technologische organisatie.
angst
er is een sterke institutionele angst voor open data. In een cultuur van” gotcha ” journalistiek, is het idee dat er iets wordt onthuld dat een administratie in verlegenheid zou kunnen brengen een veel voorkomende zorg en daarom een barrière. Het is vaak een reden om geen gegevens vrij te geven. Mijn ervaring hiermee benadrukt een paar kritische punten.
we hebben tot nu toe miljoenen rijen met gegevens vrijgegeven, en tot nu toe is het heel goed gegaan. Elke keer dat de interne kieskring zich zorgen maakte over een vrijlating, zijn we erin geslaagd om het naar voren te brengen en zonder incidenten openbaar te maken.
het is van cruciaal belang dat u een sterke relatie ontwikkelt met uw open overheidsgemeenschap. Door het bevorderen van deze dynamiek, bent u in staat om een “Laten we maken het samen te werken” ethos te creëren. Ik legde uit dat als elke fout die ik maakte werd opgeblazen in een groot incident, het onze gezamenlijke doelen zou dwarsbomen. In Chicago namen ze dit ter harte. We werkten samen met Joe Germuska van het Northwestern University Knight Lab, en voorheen van de Chicago Tribune, samen met Daniel X. O ‘ Neil van de Smart Chicago Collaborative. We zouden regelmatig bijeenkomen via Twitter, e-mail, telefoon of meet-ups. Dit werkte vooral goed omdat we ernaar streefden om grote en ingewikkelde datasets te veroveren. Dit zijn de soorten datasets die erg moeilijk zijn om de eerste keer perfect vrij te geven.
vaak zult u een dynamiek zien tussen de overheid, de pers en de open overheidsgemeenschap die minder prettig kan zijn vanwege dit “gotcha” concept dat ik eerder noemde. De overheid geeft iets vrij dat een fout bevat, en het wordt een ” ding.”Misschien is er substantiële pers rond de fout of, erger nog, het wordt gezien als bedrieglijk. Binnen dit kader zijn er doorgaans slechts twee strategieën die door de overheid kunnen worden genomen. De eerste is om geen gegevens vrij te geven, wat niet de optimale track is voor een van onze interesses. De tweede is om ervoor te zorgen dat de gegevens honderd procent perfect zijn voordat ze de deur uit gaan.
het honderd procent perfecte model is prima wanneer de gegevens klein zijn. Als u het plaatsen van een spreadsheet met honderd rijen en het is niet erg breed, U kunt gaan door elke regel om ervoor te zorgen dat het perfect is. Je kunt de oefening zelfs opschalen tot duizenden lijnen met behulp van een verscheidenheid aan mechanismen. Wat gebeurt er echter als de dataset miljoenen rijen bevat en een decennium bestrijkt? Zelfs met scripts en audit technieken, kunt u niet het honderd procent vertrouwen merk te bereiken. Dit laat de meeste mensen in een dilemma. Als je grote en belangrijke gegevens wilt vrijgeven en je kunt er niet voor zorgen dat ze honderd procent correct zijn, leidt dat tot allerlei drama ‘ s. Het wordt een no-win situatie.
hier veranderden we de dynamiek in Chicago zodat we het open data programma in een hogere versnelling konden zetten. Het kwam erop neer dat ik persoonlijk een reeks relaties binnen de gemeenschap ontwikkelde en de tijd investeerde om ervoor te zorgen dat mensen begrepen en geloofden in wat we probeerden te doen. Historisch gezien komt een hoog bestuurslid niet opdagen op een open bijeenkomst van de overheid om open data te bespreken, maar dit was wat me uiteindelijk in staat stelde om vertrouwen op te bouwen tussen deze entiteiten. Het hielp ook om contacten te hebben zoals Joe, binnen de nieuwsorganisatie, die het mogelijk maakte om de relatie op te bouwen. Deze mensen geloofden dat ons open data-plan groter was dan het ene verhaal en dat we een breder systeem bouwden.
onderdeel worden van de dagelijkse werkzaamheden
naarmate het open data-programma in Chicago een robuust en nuttig platform werd, kwam de vraag hoe we het naar het volgende niveau moesten tillen. Begin 2013 besloot de burgemeester dat hij een politieke verbintenis wilde aangaan om de duurzaamheid van het programma te waarborgen. Hij vaardigde een open Data Executive Order uit (2012-2) waarin werd bepaald dat elke afdeling een open Data-coördinator zou aanwijzen, de stad de positie van Chief Data Officer zou creëren en ondersteunen en er jaarlijks verantwoording zou worden afgelegd over de vrijgave van open data voor transparantie en duurzaamheid (Emanuel, 2013).
de release en blootstelling van deze executive order diende om het harde werk dat was gegaan in de oprichting van het programma te versterken. De volgorde is er een die een open vraag blijft voor administraties die op zoek zijn naar vooruitgang op het gebied van open data. Is het zinvol om vóór het begin van het initiatief het uitvoeringsbesluit of de wetgeving uit te vaardigen, of is het zinvol om enige tractie toe te staan en vervolgens dat kader eromheen te creëren?
mijn voorkeur gaat uit naar het laatste, maar ik ben duidelijk bevooroordeeld. Mijn gedachten richten zich op het vermogen om te herhalen en te ontwikkelen in een incubator omgeving voordat het deel wordt van het systeem. Open data programma ‘ s zullen in verschillende steden op verschillende manieren moeten evolueren en groeien. Lessen die van toepassing zijn op Chicago zijn misschien niet relevant voor een andere stad. De autonomie om te proberen, te verkennen en aan te passen heeft veel zin en is zeker een model dat bevorderlijk kan zijn voor succes. Het is van cruciaal belang om een levensvatbaar programma te maken voordat ze overdreven prescriptief over de functies.
het absolute Minimum om succesvol te zijn
om een open data-programma echt succesvol te laten zijn, zijn twee belangrijke punten vereist die in feite ook een bredere les zijn voor veel overheidsinitiatieven. De eerste is de duidelijke en vocale steun van de uitvoerende sponsor—of dit nu de president is voor het federale programma of, in het geval van Chicago, de burgemeester. Met de ondubbelzinnige steun van de burgemeester verdwenen wegversperringen toen duidelijk werd dat alle partijen verantwoordelijk zouden zijn voor het succes—of het gebrek daaraan—van het programma.
de tweede is financiële steun. Een mandaat met een gebrek aan ondersteunende financiering in de regering is in feite geen mandaat. Er is een gemeenschappelijk gezegde in de gemeente: “controle is gebaseerd op een begrotingslijn.”Wie de budgetlijn beheert, controleert het project. Chicago heeft financiering toegezegd (niet een groot bedrag, maar financiering niettemin) en middelen om ervoor te zorgen dat dit succesvol zou kunnen zijn. In het geval van Chicago was dit in staat om het Socrata platform als stichting te financieren en het lopende werk dat nodig was voor de ontwikkeling van ETL. Zonder een data platform en een soort van geautomatiseerde manier om te blijven om het vers te houden, het is niet een echt programma dat duurzaam zal zijn buiten het individu.
Ik zal echter het hoekje noteren dat mijn tweede punt ontkracht, en dit is natuurlijk een model dat ik bewonder: de scrappy Doe-het-zelf winkel. In dit scenario, het programma is gebaseerd op de open source CKAN model. De entiteit kan hun open data systeem op de top van dat platform uit te bouwen. Aangezien ze al de innovatie hebben laten zien om te werken met open source software, kan het zo zijn dat ze de mogelijkheid hebben om hun eigen ETLs te schrijven of gebruik te maken van een aantal van de grote open source ETL-tools die beschikbaar zijn op het internet. Van daaruit zou het een functie zijn van wat voor soort infrastructuur zou kunnen worden gebouwd. Er is absoluut geen reden waarom een low-cost cloud-oplossing niet kan worden geïmplementeerd. Dit type aanwezigheid vereist geen aanzienlijke hoeveelheid beveiliging, omdat u zich niet echt zorgen maakt over de toegang tot de gegevens. Integendeel, je wilt gewoon zijn integriteit te behouden.
deze hoekcase is enigszins interessant, omdat men een scenario kan voorstellen waarin men een sterke uitvoerend sponsor samenbrengt met een scrappy technoloog. Gegeven toegang en mandaat, zou het buitengewoon goedkoop zijn voor een succesvolle eerste uitstap in de open data ruimte. Dit is een gebied waar we ons bewust van moeten zijn en manieren moeten vinden om dit te ondersteunen.
Chicago is een uitstekend voorbeeld om te laten zien hoe men een open data programma kan bouwen waar het niet wordt verwacht. De rol van de sterke uitvoerende sponsor is van cruciaal belang voor het succes van een programma, en burgemeester Emanuel speelde die rol. Het opbouwen van nauwe partnerschappen met de Gemeenschap en strategische media-aandacht waren ook belangrijke onderdelen van ons succes. Door vasthoudendheid en duurzame uitvoering door het team is Chicago in staat geweest om een initiatief naar voren te brengen dat de gouden standaard is geworden in open data. Deze lessen uit Chicago ‘ s snelle opschaling van ons programma zullen de volgende generatie van open data-initiatieven helpen informeren, naarmate nieuwe modellen voor groei en duurzaamheid van open data ontstaan.Brett Goldstein is de voormalige Chief Data and Information Officer van de stad Chicago. In 2013 werd hij benoemd tot de eerste ontvanger van de Fellowship in Urban Science aan de University Of Chicago Harris School of Public Policy. Voor zijn benoeming als Chicago ‘ s eerste Chief Data Officer, richtte hij de Chicago Police Department Predictive Analytics Group op. Eerder, hij bracht zeven jaar in de startup world building online real-time restaurant reserveringsservice OpenTable. Goldstein is momenteel bezig met zijn doctoraat in criminologie, recht en Justitie aan de Universiteit van Illinois-Chicago.
O ‘ Reilly, Tim. (2010). Overheid als Platform. In Open Overheid. Retrieved from http://ofps.oreilly.com/titles/9780596804350/defining_government_2_0_lessons_learned_.htmlEmanuel, Rahm, City of Chicago. (2013). Open Data Executive Order (Nr. 2012-2). Geraadpleegd op http://www.cityofchicago.org/city/en/narr/foia/open_data_executiveorder.htmlTareen, S. (2011, 14 September). Chicago om misdaad statistieken online te publiceren. The Washington Times. Verkregen uit http://www.washingtontimes.com/news/2011/sep/14/apnewsbreak-chicago-to-publish-crime-stats-online/?page=all