Öppna Data i Chicago: spel på

innan jag gick med i Chicagos regeringsförvaltning visste jag väldigt lite om öppna data. Jag hade verkligen varit nedsänkt i data-och analysvärlden under en tid, men jag förstod inte begreppet ”Öppet” som det gällde i detta sammanhang. Faktum är att eftersom jag hade arbetat på Chicago Police Department i Avdelningen mot terrorism och intelligens, verkade öppna data helt kontraintuitiva. Så när borgmästare-elect Rahm Emanuel övergång laget nått ut till mig för att diskutera ramp upp ett öppet dataprogram i staden Chicago, jag var tvungen att göra några snabba och förhastade internet forskning för att vara ordentligt förberedd.

under borgmästarkampanjen hade borgmästare Emanuel hållit ett evenemang på Microsoft som lyfte fram vikten av öppen regering och citerade öppna data i hjärtat av hans vision för ett mer transparent Chicago. Borgmästaren bad mig sedan att fungera som stadens första Chief Data Officer (CDO) och att genomföra sin vision om en mer transparent regering som inte bara gör sina uppgifter tillgängliga för allmänheten utan också använder dataanalys som ett verktyg för att informera politik och förbättra tjänster.

den nya administrationen startade den 16 maj 2011, med öppna data som högsta prioritet från dag ett. Helgen innan hade policygruppen samlats för att diskutera strategin för de första hundra dagarna och öppna data listades som ett tidigt mål. Mitt uppdrag var att ta benen i stadens befintliga program och göra det till en hörnsten i stadens öppenhetsinitiativ. Mitt första steg var att bedöma vad som fanns och sedan bestämma var jag ville ta visionen och riktningen som CDO för staden Chicago.

innan vi dyker in i detaljerna om vad som följde är det värt att diskutera den enkla punkten att Chicago var den första stora kommunen som utsåg en CDO. Detta var ett tydligt och omedelbart uttalande om vikten av dessa initiativ för den nya administrationen. Borgmästare Emanuel hade tidigt beslutat att han ville ha ett team som använde stadens stora och rika dataresurser som ett verktyg och att empirism skulle informera politik. För att uppnå det målet skapade han en post på seniornivå inom sitt kontor som skulle fokusera på exakt det. Genom att skapa en CDO som sin proxy för en datadriven och transparent regering lade borgmästare Emanuel grunden för Chicago att gå från att ligga bakom andra regeringar för att vara i framkant av öppen medborgerlig data och öppenhet.

staden Chicago hade ett befintligt open data-program så jag började inte från början. Före den nya administrationen leddes den av Danielle DuMerer, projektledare vid Institutionen för Innovation och teknik (DoIT). Staden hade redan säkrat Socrata-plattformen och startat några grundläggande datasetprojekt—specifikt publicering av loggar av Foia-begäran från allmänheten, samt ett sortiment av anläggningar och geografiska dataset.

DuMerer hade väsentligt engagerat det lokala öppna regeringsgemenskapen med stadens öppna data. Den tidigare administrationen hade dock inte identifierat open data-programmet som högsta prioritet bland andra konkurrerande problem, och även med Dumerers ansträngningar kämpade programmet för att få betydande dragkraft. Men när den nya administrationen Kom ombord med ett tydligt mandat från Mayoral Emanuel att prioritera öppna data började stadens öppna dataprogram omedelbart förändras.

under de första två veckorna som stadens Chief Data Officer, jag gjorde mitt bästa för att lära sig alla detaljer i programmet jag hade ärvt. Jag fann det frustrerande att dataplattformen redan hade valts. Medan jag uppskattar den nyckelfärdiga effektiviteten hos Socratas plattform visste jag att en proprietär applikation skulle bli en långsiktig finansiell investering. Jag tror också starkt på att använda öppen källkodsteknik och blev besviken över att vi gjorde lite för att stödja samhället runt CKAN, en allmänt använd öppen källkodskatalog. Men eftersom jag behövde leverera resultat omedelbart var jag inte i stånd att göra en skarp pivot. Det var inte praktiskt att överväga andra alternativa plattformar vid den tiden.

det fanns också de kommande apparna för Metro Chicago-tävlingar, planer för vilka hade initierats under den tidigare administrationen. John D. och Catherine T. MacArthur Foundation finansierade tre tematävlingar för att uppmuntra företag och mjukvaruingenjörer att använda City of Chicago och Cook County open data för att skapa användbara applikationer för invånarna. Vi uppskattade mycket det filantropiska stödet för detta initiativ, men tävlingen införde en hård tidslinje för att rulla ut vårt program.

det hade varit enkelt att ge det tillräckligt med uppmärksamhet för att uppfylla projektets krav och inte förolämpa den stödjande grunden, så att vi kunde fokusera på de tankar som kommer från den nya administrationen. Men vi slutade se denna tävling som ett bra sätt att hjälpa till att starta det nya open data-programmet i Chicago och det hjälpte oss att få fart snabbt. (MacArthur har fortsatt att vara en fantastisk anhängare av dessa framåtblickande program.) Att starta apparna för Metro Chicago-tävlingen så snart efter starten av den nya administrationen överensstämde med strategin att snabbt utöka det befintliga öppna dataprogrammet.

vi fann omedelbart att medan tekniken var relevant för projektet, möjliggjorde tydlig verkställande sponsring för att detta initiativ snabbt skulle accelerera. Vi uppnådde ett par viktiga milstolpar tidigt som slutade lägga grunden för programmets framtid.

först släppte staden sitt dataset för brottsincidenter. Historiskt sett var brottsdata svåra att få i Chicago. Medan Chicago hade varit ledande inom framåtriktad teknik var dess rådata inte lättillgänglig. Chicago Police Department CLEARpath webbplats erbjöd nittio dagar av historisk incidentnivå brottsdata via ett kartläggningsgränssnitt och var en bra start när det gäller informationsåtkomst. Men om tredje part ville använda uppgifterna, var de tvungna att göra en betydande skrapning.

brottsdata är historiskt en av de mest efterfrågade datamängderna och är ofta för begränsande på några olika sätt: det är för kort ett intervall för att ge nytta för något annat än omedelbar lägesmedvetenhet; data aggregeras vid en analysenhet som är för utspädningsbar (distriktet, avdelningen eller distriktet); och/eller data är inte maskinläsbara.

Chicago försökte lösa alla dessa problem i ett snabbt drag. Den utformade utgåvan försökte öppna alla brottsdata på incidentnivå från 1 januari 2001 till idag och uppdatera datauppsättningen på en tjugofyra timmars cykel. Håller 4.6 miljoner poster, Chicagos publicerade dataset skulle vara den största automatiskt uppdaterade uppsättningen brottsdata på incidentnivå som någonsin släppts.

tekniken bakom utgåvan var inte komplex, men det var inte heller trivialt. Brottsdata registreras i Chicago Police Department transaktionssystem och replikeras sedan till deras datalager. Vårt tillvägagångssätt var att avfyra en ETL (en uppsättning databasfunktioner för att flytta data från en plats till en annan) från en intern verktygsserver för att hämta data från polislager och ladda den till stadens dataportal via Socratas API.

men längs vägen behövde ett par kritiska objekt hända för att säkerställa att data var säkra och kunde återges till en frigörbar form:

  • adresserna behövde blockreduceras för att skydda integriteten.
  • rumsliga koordinater måste också spridas för att hjälpa till med integritetsskydd.
  • uppdateringar behövde fångas och replikeras i datauppsättningen när källsystemposterna uppdaterades.
  • eftersom crimes dataset skulle vara en av deras första stora dataset, behövde Socrata-plattformen effektivt kunna hantera uppladdningar, uppdateringar och frågor.

vi slutförde framgångsrikt alla dessa steg och upplevde lite smärta under vägen, men processen kom så småningom samman. Från och med April 2013 innehåller datasetet nästan 5,2 miljoner poster, fortsätter att uppdateras automatiskt dagligen och fungerar som ett bra exempel på implementeringen av öppna data.

denna datautgivning väckte stor uppmärksamhet åt Chicagos öppna dataprogram, varav mycket berodde på pressen kring den utgåvan. Sophia Tareen, en reporter med Associated Press, täckte historien. Hon skrev ett tankeväckande stycke om släppets enormitet och noterade att det var en tydlig vändpunkt för Chicago (Tareen, 2011). Medan skriven lokalt, artikeln skickades ut en masse av AP och, inom några timmar, blev en internationell historia. Som ett resultat blev Chicagos öppna dataprogram mycket verkligt och validerades av det bredare samhället. Vi lärde oss att det finns en enorm fördel för en högprofilerad release av ett högintresse dataset tidigt. Jag ser detta som ett annat viktigt ögonblick för programmet, vilket ger en solid grund för att starta. Den här versionen fungerade mycket bra för Chicago, och jag misstänker att det skulle fungera för andra jurisdiktioner samt.

för det andra tillhandahöll apparna för Metro Chicago-tävlingen ett ramverk för att engagera Chicago-samhället. Tävlingen visade att många Chicagoans var djupt glada över öppna data och verkligen ville samarbeta med regeringen för att bygga verktyg för att hjälpa sina grannar. För att uppnå det senare var vi tvungna att tillhandahålla data i maskinläsbara format, och det behövde uppdateras konsekvent. Före lanseringen av Chicagos dataportal hade data gjorts tillgängliga, men vanligtvis i form av en PDF, som tekniker vet kan vara något mindre än vänliga.

vår release av street svepande data under Apps för Metro Chicago tävling fönster exemplifierar denna förändring. Under en Google-värd open data hackathon 2011 kontaktade Scott Robbin DuMerer och jag för att fråga om stadens street sweeper-dataset. Han var intresserad av att bygga en applikation som skulle meddela användare natten innan deras gata skulle svepas. Jag tyckte att det här var en fantastisk ide, eftersom jag personligen hade fått en serie biljetter för att inte flytta min bil. Vägen från ide till implementering krävde dock en del av stadens data. Gatans svepande schema fanns, men det publicerades inte i ett format som enkelt användes av mjukvaruingenjörer eller tekniker. Institutionen för gator och sanitet hade tagit ett Excel-kalkylblad och skapat en kalender med hjälp av Programvarans formateringsverktyg. Det resulterande kalkylbladet trycktes sedan till en PDF och publicerades på City of Chicagos webbplats. Detta format gjorde det omöjligt att omvända ingenjör. Lyckligtvis, i situationer som dessa, praktikanter är bra på att hjälpa till med det tråkiga, men kritiska, arbetet med att konvertera en oanvändbar fil till en som kan fungera som en datakälla. Vi publicerade den resulterande filen på data.cityofchicago.org. därifrån producerade Scott en utmärkt webbplats, sweeparound.us, som har hjälpt många av oss att vara medvetna om stadens städschema.

den sweeparound.us story exemplifierar ett par viktiga lektioner som fortsätter att hålla sant. För det första behövde vi som Stad lära oss att producera data i maskinläsbara format som en del av våra vanliga affärsmetoder. För det andra visade en mängd olika samhällen en enorm aptit för regeringsdata, inklusive medborgerliga utvecklare, forskare och journalister. Vi såg framväxten av civic developer community både i filantropiska och vinstdrivande modeller. Platser som Chapin Hall vid University of Chicago hade kämpat i flera år för att extrahera administrativa data för forskningsändamål. Öppna dataprogram gör det väsentligt enklare, vilket eliminerar behovet av att förhandla om icke-avslöjande eller andra typer av avtal. Öppna data har också stimulerat ny forskning. En doktorand tweeted hennes tacksamhet för att äntligen kunna avsluta sin avhandling, och mer traditionella organisationer har nu börjat i fleråriga studier, baserat på vad som har släppts på City of Chicagos dataportal.

den sista lektionen är en myntad av Tim O ’ Reilly (2010): ”regeringen som en plattform.”Jag förstod inte helt den här tanken på en tid, men nu är det en jag uppskattar mycket. Chicagos dataportal är utformad för att tillhandahålla rådata i maskinläsbara format. Genom att tillhandahålla ett API till dessa data kan alla utvecklare komma åt, använda eller integrera allt detta råmaterial för vilket ändamål de kan föreställa sig. Som stadens Chief Information Officer och CDO försökte jag medvetet undvika att komma in i apputvecklingsbranschen och föredrog istället att växa portalen för att erbjuda både mångfald och djup. Denna strategi hindrar oss från att vara i branschen för att underhålla appar som kräver olika programmeringsfärdigheter och pågående ekonomiska resurser. Istället tillåter en standardbaserad dataportal oss att vara plattformen, som O ’ Reilly föreslår, och stödja de innovativa ideer som odlas av olika samhällen.

framgångsrikt genomförande av ett öppet dataprogram

efter två år med att bygga ett framgångsrikt program i staden Chicago finns det en serie kritiska punkter som kan utnyttjas när andra städer överväger att implementera eller utöka öppna data.

arkitektur

att bygga en stor, användbar, maskinläsbar och meningsfull dataportal är en icke-trivial teknisk uppgift. Först kommer naturligtvis frågan om plattform. Du måste reflektera över din personal kapacitet, tillsammans med tillgängliga medel för att fatta detta beslut. Här är några punkter att tänka på.

om du behöver en nyckelfärdig lösning finns det få alternativ tillgängliga. Socrata är den dominerande plattformen, och de är bra på vad de gör. De tillhandahåller en färdig dataportal. För organisationer som krypa på tanken på att bygga sina egna servrar och använda öppen källkod, detta är den metod som kommer att fungera bäst för dig. Men som vi kommer att diskutera senare, för att få en hållbar öppen dataplattform, kommer du att behöva göra något ganska avancerat arbete.

utöver plattformen kommer källan till data. För program som fortfarande befinner sig i sitt mest grundläggande skede kan det med hjälp av ett nyckelfärdigt tillvägagångssätt göra detta arbete otroligt enkelt. Dina data kan finnas i något så enkelt som ett kalkylblad. Du kan ladda upp den informationen direkt till Socrata och vara redo att gå på några sekunder, men det är sällan så enkelt när du kommer bortom grunderna.

mycket av de data som du har kommer från Transaktions-eller lagersystem, och om din värld är som min, är många av dem ganska åldrade och något kryptiska. Du måste hitta sätt att extrahera data, förstå vad det betyder och ladda det i plattformen. Detta är något mindre Nyckelfärdigt än du kanske ursprungligen tror.

du måste också överväga hur mycket data du kommer att flytta och hur det kommer att påverka ditt företagsnätverk, lagring och system. Om du helt enkelt har att göra med något som en Lönelista, som är liten data, är frågan trivial. Men vad händer om du vill ladda något som GPS-koordinater för dina tillgångar? I Chicago skulle det vara cirka tio miljoner rader om dagen. Det skulle betona de flesta miljöer.

hållbarhet

det kan tyckas konstigt att kalla ut denna mycket specifika punkt, men jag misstänker att det är en av de mest kritiska: hållbarheten i den övergripande designen. Ett öppet dataprogram som bygger på en människa för att hålla den uppdaterad är fundamentalt bristfällig. Med tanke på att ett av målen med öppna data är öppenhet är det viktigt att fundera över mellanhandens Roll. Jag gillar att skämta om att människor ofta är chockade när jag säger till dem att vi inte vet uppgifterna innan de släpps ut på portalen. Det finns faktiskt ingen liten kille i källaren i Stadshuset som kontrollerar varje rad data innan den går ut genom dörren. Det är den vackra delen av designen bakom portalen.

nittionio procent av de data som går på data.cityofchicago.org kommer dit automatiskt. Var och en av datamängderna har ett ETL-jobb som ansluter till källsystemet, tar data, omvandlar det efter behov och laddar det till plattformen. Detta händer dagligen eller oftare. I vissa fall skriver vi över hela uppsättningen. För andra, som brottsincidenter, gör vi en stegvis uppdatering som lägger till nya poster och fångar ändringar i befintliga poster. Denna typ av arkitektur åstadkommer en rad kritiska punkter.

för det första är det skalbart. Det är omöjligt att ha miljontals rader med data tillgängliga baserat på manuella uppdateringar. Detta är lite meningsfullt och kommer inte att vara aktuellt. För det andra, som nämnts tidigare, håller det plattformen ärlig. Slutligen skapar det hållbarhet. Programmet upphör att handla om en enskild individ och blir istället ett programmatiskt område inom den tekniska organisationen.

rädsla

det finns en stark institutionell rädsla för öppna data. I en kultur av ”gotcha” journalistik, tanken på något avslöjas som kan genera en administration är en vanlig oro och, därför, barriär. Det är ofta en anledning att inte släppa data. Min erfarenhet av detta belyser ett par kritiska punkter.

vi har släppt miljontals rader av data hittills, och hittills har det gått mycket bra. Varje gång den interna valkretsen har varit oroad över en release, har vi kunnat driva den framåt och gå offentligt utan incidenter.

det är viktigt att du utvecklar en stark relation med din öppna regeringsgemenskap. Genom att främja denna dynamik kan du skapa en ”låt oss få det att fungera tillsammans” ethos. Jag förklarade att om varje misstag jag gjorde blåses in i en stor incident, skulle det stymie våra samarbetsmål. I Chicago tog de detta till hjärta. Vi skapade en laginsats, som arbetar med Joe Germuska från Northwestern University Knight Lab, och tidigare i Chicago Tribune, tillsammans med Daniel X. O ’ Neil från Smart Chicago Collaborative. Vi skulle regelbundet sammankalla via Twitter, e-post, telefon, eller vid möten. Detta fungerade särskilt bra när vi strävade efter att erövra stora och komplicerade datamängder. Det här är de typer av dataset som är mycket svåra att släppa perfekt första gången.

ofta ser du en dynamik mellan regeringen, pressen och den öppna regeringsgemenskapen som kan vara mindre än trevlig på grund av detta ”gotcha” – koncept som jag nämnde tidigare. Regeringen släpper något som har ett fel i det, och det blir en ”sak.”Kanske finns det betydande press kring felet eller, ännu värre, det ses som bedrägligt. Inom denna ram Finns det vanligtvis bara två strategier som kan tas av regeringen. Den första är att inte släppa några data, vilket inte är det optimala spåret för något av våra intressen. Den andra är att se till att uppgifterna är hundra procent perfekta innan de går ut genom dörren.

den hundra procent perfekta modellen är bra när data är små. Om du lägger upp ett kalkylblad med hundra rader och det inte är fruktansvärt brett kan du gå igenom varje rad för att säkerställa att den är perfekt. Du kan till och med skala övningen till tusentals linjer med olika mekanismer. Men vad händer när datasetet innehåller miljontals rader och täcker ett decennium? Även med skript och revisionstekniker kan du inte nå hundra procent förtroende. Detta lämnar de flesta människor i ett dilemma. När du vill släppa stora och viktiga data och du inte kan se till att det är hundra procent korrekt leder det till alla slags drama. Det blir en no-win situation.

det är här vi ändrade dynamiken i Chicago så att vi skulle kunna flytta open data-programmet till hög växel. Det kom till mig personligen att utveckla en serie relationer inom samhället och investera tid för att se till att människor förstod och trodde på vad vi försökte göra. Historiskt sett dyker inte en högnivåmedlem i administrationen upp vid ett öppet regeringsmöte för att diskutera öppna data, men det var det som i slutändan gjorde det möjligt för mig att bygga förtroende mellan dessa enheter. Det bidrog också till att ha kontakter som Joe, inom nyhetsorganisationen, som möjliggjorde relationsbyggandet. Dessa människor trodde att vår öppna dataplan var större än den enda berättelsen och att vi byggde ett bredare system.

att bli en del av den dagliga verksamheten

eftersom open data-programmet i Chicago blev en robust och användbar plattform kom frågan om hur vi skulle ta det till nästa nivå. I början av 2013 beslutade borgmästaren att han ville göra ett politiskt åtagande för att säkerställa programmets hållbarhet. Han utfärdade en Open Data Executive Order (2012-2) som gav mandat att varje avdelning skulle utse en Open Data-koordinator, staden skulle skapa och upprätthålla positionen som Chief Data Officer, och det skulle finnas årlig ansvarighet för frisläppandet av öppna data för öppenhet och hållbarhet (Emanuel, 2013).

frisläppandet och exponeringen av denna verkställande order tjänade till att förstärka det hårda arbetet som hade gått in i skapandet av programmet. Beställningen är en som skulle förbli en öppen Fråga för förvaltningar som vill gå vidare inom området för öppna data. Är det vettigt att utfärda verkställande order eller lagstiftning före initiativets början, eller är det vettigt att tillåta viss dragkraft och sedan skapa den ramen kring den?

min preferens är runt den senare, men klart är jag partisk. Mina tankar fokuserar på förmågan att iterera och utvecklas i en inkubatormiljö innan den blir en del av systemet. Öppna dataprogram måste utvecklas och växa på olika sätt i olika städer. Lektioner som gäller för Chicago kanske inte är relevanta för en annan stad. Autonomin att försöka, utforska och anpassa sig ger mycket mening och är verkligen en modell som kan bidra till framgång. Det är viktigt att skapa ett livskraftigt program innan det blir alltför föreskrivande om dess funktioner.

det minsta minimumet för att lyckas

för att ett öppet dataprogram ska bli riktigt framgångsrikt krävs det två viktiga punkter som faktiskt också är en bredare lektion för många regeringsinitiativ. Den första är det tydliga och högljudda stödet från den verkställande sponsorn—oavsett om det här är presidenten för det federala programmet eller, när det gäller Chicago, borgmästaren. Med borgmästarens otvetydiga stöd försvann vägspärrarna när det blev klart att alla parter skulle vara ansvariga för framgången—eller bristen på det—av programmet.

den andra är ekonomiskt stöd. Ett mandat med brist på stödfinansiering i regeringen är faktiskt inte ett mandat. Det finns ett vanligt ordstäv i kommunstyrelsen: ”kontrollen är baserad på en budgetpost.”Den som kontrollerar budgetposten kontrollerar projektet. Chicago åtagit sig finansiering (inte ett stort belopp, men finansiering ändå) och resurser för att säkerställa att detta skulle kunna lyckas. När det gäller Chicago kunde detta finansiera Socrata-plattformen som grund och det pågående arbetet som krävdes för ETL-utveckling. Utan en dataplattform och något slags automatiserat sätt att fortsätta hålla det friskt är det inte ett riktigt program som kommer att vara hållbart utöver individen.

jag kommer dock att notera hörnfallet som ogiltigförklarar min andra punkt, och det här är naturligtvis en modell som jag beundrar: scrappy gör-det-själv-butiken. I detta scenario är programmet baserat på öppen källkod CKAN-modellen. Företaget kan bygga ut sitt öppna datasystem ovanpå den plattformen. Eftersom de redan har visat innovationen att arbeta med programvara med öppen källkod kan det vara så att de har förmågan att skriva sina egna ETL eller utnyttja några av de stora ETL-verktygen med öppen källkod som finns tillgängliga på internet. Därifrån skulle det vara en funktion av vilken typ av infrastruktur som skulle kunna byggas ut. Det finns absolut ingen anledning till att en billig molnlösning inte kunde implementeras. Denna typ av närvaro kräver inte en betydande mängd säkerhet, eftersom du inte är orolig för att få tillgång till data. Snarare vill du helt enkelt bevara dess integritet.

detta hörnfall är något intressant, eftersom man kan föreställa sig ett scenario där man samarbetar med en stark verkställande sponsor med en scrappy-tekniker. Med tanke på tillgång och mandat skulle det vara utomordentligt billigt för en framgångsrik initial razzia i det öppna datautrymmet. Detta är ett område som vi bör vara uppmärksamma på och hitta sätt att stödja.

Chicago är ett utmärkt fall för att visa hur man kan bygga ett öppet dataprogram där det inte förväntas. Den starka verkställande sponsorns roll är avgörande för ett programs framgång, och borgmästare Emanuel spelade den rollen. Att bygga nära partnerskap med samhället och strategisk medieuppmärksamhet var också viktiga komponenter i vår framgång. Genom uthållighet och hållbart utförande av teamet har Chicago kunnat lägga fram ett initiativ som har blivit guldstandarden i öppna data. Dessa lärdomar från Chicagos snabba uppskalning av vårt program kommer att bidra till att informera nästa generation av öppna datainitiativ, när nya modeller för tillväxt och hållbarhet av öppna data dyker upp.

om författaren

Brett Goldstein är den tidigare Chief Data and Information Officer för staden Chicago. År 2013 utsågs han till den inledande mottagaren av Fellowship in Urban Science vid University of Chicago Harris School of Public Policy. Innan han utnämndes till Chicagos första Chief Data Officer grundade han Chicago Police Department Predictive Analytics Group. Tidigare tillbringade han sju år i startup world bygga online realtid restaurang bokningstjänst OpenTable. Goldstein bedriver för närvarande sin doktorsexamen i kriminologi, lag och rättvisa vid University of Illinois-Chicago.

O ’ Reilly, Tim. (2010). Regeringen som plattform. I Öppen Regering. Hämtad från http://ofps.oreilly.com/titles/9780596804350/defining_government_2_0_lessons_learned_.htmlEmanuel, Rahm, City of Chicago. (2013). Open Data Executive Order (Nr 2012-2). Hämtad från http://www.cityofchicago.org/city/en/narr/foia/open_data_executiveorder.htmlTareen, S. (2011, 14 September). Chicago för att publicera brottsstatistik online. Washington Times. Hämtad från http://www.washingtontimes.com/news/2011/sep/14/apnewsbreak-chicago-to-publish-crime-stats-online/?page=all

Lämna ett svar

Din e-postadress kommer inte publiceras.