Urban canyon classification speelt een belangrijke rol in het analyseren van de impact van urban canyon geometry op stedelijke morfologie en microklimaten. Bestaande classificatiemethoden met behulp van aspectratio ‘ s vereisen een groot aantal veldonderzoeken, die vaak duur en moeizaam zijn. Bovendien is het voor deze methoden moeilijk om de complexe geometrie van straatkanyons te hanteren, die vaak vereist is voor specifieke toepassingen. Om deze problemen op te lossen, ontwikkelen we een street canyon-classificatieaanpak met behulp van publiek beschikbare Google Street View (GSV) – afbeeldingen. Onze methode is geà nspireerd op de nieuwste ontwikkelingen in diep multitasken leren op basis van dicht verbonden convolutionele netwerken (DenseNets) en op maat gemaakt voor meerdere street canyon classificatie, dat wil zeggen, h/W-gebaseerde (niveau 1), symmetrie-gebaseerde (niveau 2), en complex-geometrie-gebaseerde (niveau 3) classificaties. We hebben een reeks experimenten uitgevoerd om de voorgestelde methode te verifiëren. Ten eerste, met het gebied van Hongkong als voorbeeld, bereikte de methode een nauwkeurigheid van respectievelijk 89,3%, 86,6% en 86,1% voor de drie niveaus. Zelfs met behulp van de veldonderzoek gegevens als de grond waarheid, het opgedaan ongeveer 80% voor verschillende niveaus. Vervolgens hebben we ons voorbewerkte model in vijf andere steden getest en de resultaten vergeleken met traditionele methoden. De overdraagbaarheid en doeltreffendheid van de regeling werden aangetoond. Ten slotte kan de benadering, om de weergave van meer gecompliceerde straatgeometrie te verrijken, afzonderlijk thematische kaarten genereren van straatkanyons op meerdere niveaus om microklimaatstudies in gebouwde omgevingen met hoge dichtheid beter te vergemakkelijken. De ontwikkelde technieken voor het classificeren en in kaart brengen van straat canyons bieden een kosteneffectief hulpmiddel voor het bestuderen van de impact van complexe en evoluerende stedelijke canyongeometrie op veranderingen in het microklimaat.