Les promesses de l’apprentissage automatique pour la rénovation urbaine

GettyImages - urbanisme Young bearded male road construction worker on his job. Bright sunny day. Strong light.
● Dans les années 2010, avec l’exemple de New York, le big data a gagné en crédibilité comme outil au service de l’action publique.
● Les progrès de l’apprentissage automatique permettent aujourd’hui d’aller très loin dans l’analyse de données.
● Un projet de vision par ordinateur (computer vision) montre qu’il est notamment possible de suivre la dégradation de l’espace urbain en exploitant des images de Google Street View.

Le projet a fait sensation au début des années 2010. A New York, tout un pan de l’action publique a été réorganisé par l’analyse des données détenues par l’administration locale. Les services publics optimisent ainsi des interventions aussi diverses que l’élagage des arbres dans les rues, la détection d’immeubles exposés au risque d’incendie, la lutte contre les « marchands de sommeil », l’inspection de restaurants déversant illégalement leurs huiles de cuisson dans les égouts. Désormais, les progrès de l’apprentissage automatique élargissent les possibilités. C’est le constat de deux chercheurs des universités Stanford (Californie) et de Notre-Dame (Indiana), qui présentent une nouvelle approche dans Scientific Reports, focalisée sur le suivi de la dégradation de l’espace urbain.

Nous voulions mettre en évidence la flexibilité de notre approche plutôt que proposer une méthode et un éventail de critères figés.

Huit variables de la dégradation urbaine

L’algorithme développé par les chercheurs repère huit variables sur des images : les nids de poule, les fenêtres condamnées ou cassées, les façades décrépites, les tentes de sans-abris , les herbes folles, les graffitis , les ordures et les marquages de couleurs indiquant l’emplacement de câbles électriques ou de canalisations. Jusque-là, note l’article, l’observation du changement urbain passait essentiellement par l’étude de la croissance d’une ville ou de l’évolution de ses infrastructures.

L’idée du projet est moins de démontrer tout ce que l’on peut faire via des données que de tester l’usage d’un même algorithme entraîné sur les mêmes données pour plusieurs villes. Ou le réentraîner sans fondamentalement modifier le logiciel. Surtout, les données utilisées ne sont plus celles détenues par les administrations : « Le Big data et l’apprentissage automatique sont de plus en plus utilisés pour l’action publique, estime Yong Suk Lee, enseignant à Notre-Dame, spécialiste en technologie et en économie urbaine. La méthode que nous proposons est complémentaire et notre article souligne tout le potentiel qu’il y a à intégrer les images de Google Street View dans la boîte à outils de l’analyse de données urbaines. »

Un algorithme entraîné deux fois

Cela simplifie grandement ce genre de projet, explique l’article : « Mener des observations de l’environnement urbain sur le terrain est souvent coûteux, et il peut parfois s’avérer difficile, voire dangereux, de le faire dans certaines zones délabrées d’une ville. »

Le travail présenté concerne trois villes : les quartiers du Tenderloin et de Mission à San Francisco, la Colonia Doctores et le centre historique de Mexico, et l’ouest de South Bend dans l’Indiana, un contexte de ville moyenne américaine, voire un cadre rural.

Un même algorithme (YOLO) a été entraîné deux fois, sur deux corpus différents. Le premier compte des images prises manuellement de rues de San Francisco et des images de graffitis dans Athènes (Grèce) tirés du corpus STORM. De Google Street View, il intègre d’autres vues de San Francisco, Los Angeles et Oakland, comprenant des campements de sans-abris, et des images de Mexico, le tout sur plusieurs années pour mesurer l’évolution. Le contenu concernant Mexico a ensuite été retiré pour créer le second jeu d’entrainement.

« Nous avons travaillé initialement avec des données relatives aux États-Unis, mais nous avons décidé de voir quelle différence cela ferait d’ajouter des données sur Mexico, continue Yong Suk Lee. Sans surprise, le plus gros jeu de données était meilleur. Nous avons aussi essayé différentes tailles de modèles pour voir les avantages et inconvénients entre rapidité et performance. » Par exemple, l’algorithme détecte mieux les nids de poule et les fenêtres abîmées à San Francisco quand l’entraînement intègre les images de Mexico.

La pertinence des façades et des herbes folles

Par contre, les performances sont nettement dégradées quand l’algorithme est testé sur South Bend. Et pour cause : aucune image de ce type de ville ne figure dans les corpus d’entraînement. Si le modèle s’est montré plutôt pertinent pour suivre le changement du cadre urbain au travers des façades et des herbes folles, l’expérience montre que ce type de ville nécessite un corpus d’entrainement plus adapté. « Les marqueurs du délabrement diffèrent d’un endroit à l’autre. C’est ce que nous voulions illustrer en comparant des villes différentes, note encore le chercheur de Notre-Dame. Nous voulions mettre en évidence la flexibilité de notre approche plutôt que proposer une méthode et un éventail de critères figés. » Flexible et, grâce à Google Street View, quasiment à portée de main.

A lire aussi sur Hello Future

GettyImages - Osmo

Osmo : quand l’intelligence artificielle apprend à reconnaître les odeurs

Découvrir
Getty Images - measure AI and carbon - mesure IA et carbone

Un outil pour limiter l’empreinte carbone de l’IA

Découvrir
GettyImages - machine learning research - recherche en apprentissage automatique

Prise de décisions précoces basée sur le Machine Learning (ML-EDM)

Découvrir
GettyImages - machine learning and energy

Une empreinte carbone sous surveillance pour l’apprentissage automatique

Découvrir
GettyImages - micro plastique - micro plastic

L’apprentissage automatique pour réduire les déchets plastiques en mer

Découvrir

ChatGPT est-il un agent conversationnel de type humain ?

Découvrir
Une femme en blouse devant un écran avec une spirale ADN

L’analyse automatisée de comptes-rendus cliniques au service du diagnostic génétique

Découvrir
Un homme se faisant scanner le visage par une tablette pour une meilleure reconnaissance audiovisuelle

Regarder pour mieux entendre : séparation des voix dans un flux audio-visuel

Découvrir