La Chaire UNESCO ITEN en collaboration avec la FMSH et FUTUR.E.S, organise son premier séminaire / atelier de travail Numérique et Société :
« Territoire(s) et Numérique(s) :
Données, Intelligence Artificielle et dynamiques d’intérêt public pour le développement durable des territoires «
Télécharger le programme de la journée
Le Séminaire aura lieu le mercredi 19 Juin de 9h30 à 17h à la Maison Suger 16/18 rue Suger, 75006 Paris, dans le cadre du Off du festival Futur en Seine (FUTUR.E.S) organisé par le pôle de competitivité Cap Digital.
Construire une strategie multi-acteurs pour orienter les transformations numeriques et accompagner structurellement les dynamiques sociale, economique, environnementale vers un developpement territorial durable.
Quelles données, pour quels usages ? Quels modèles de gouvernance, de traitement et de gestion ? Quel est le rôle de l’usager dans l’univers des «big datas» ? Quel rôle donner à l’IA dans le traitement des données ? Enjeux d’une gouvernance algorithmique ? Quelle maîtrise de ses données personnelles ? Quelles conditions d’appropriation par le grand public de ces données ? Quels types d’interfaces sont a créer pour faciliter leur accès, leur intelligibilite, mais aussi leur interfacage (moissonnage et re-éditorialisation), comment les transformer en matériau de débat, d’argumentation et générer de nouveaux services d’interet public ?
Les grands enjeux liés aux Objectifs du Développement Durables (climat, biodiversité, pollution, nouveaux modèles de développement socio-économiques etc…) définis dans un cadre onusien à échelle mondiale se présentent d’un point de vue paradigmatique comme des hyper-objets. Les saisir dans leur intégralité est quasi impossible même aidés de puissants outils de calcul et de modèles numériques. A chaque tentative d’appréhension à échelle globale, chacun de ces objectifs nous dépasse dans ses dimensions, dans la multitude de ses événements et de ses processus constitutifs infiniment complexes. S’ajoute une très forte interdépendance syntagmatique des ODD qui implique une approche écosystémique (tout est lié). Pris à une échelle territoriale locale, les ODD redeviennent appréhendables par leur mise en perspective historique, leur contextualisation géographique, socio-économique, politique, et peuvent ainsi être priorisés. En situation, pris dans un scénario référentiel, ils se chargent collectivement de sens et de valeur partagés, deviennent compréhensibles et appropriables.
Ainsi à l’agenda 21 Global succédent les agendas 21 Locaux, invitations faites aux territoires de se saisir de ces grands enjeux : « où on va et comment on y va ? » (gouvernance, partcipation citoyenne, évaluation etc.). Les Agendas 21 locaux s’inscrivent néanmoins dans une dynamique glocale, articulant en pair à pair, comparativement et complémentairement, leurs politiques et leurs pratiques locales à échelle globale, notamment grâce aux réseaux de territoires ou de villes, comme celui des « Cités et Gouvernements Locaux Unis » (CGLU) fondé en 2004, qui regroupe plus de 240 000 membres. En 2019, les réponses techniques et opérationnelles à apporter sont en partie connues et face à l’urgence, la nouvelle question se formule dorénavant en terme de : « est-ce que l’on y va vraiment ? ». Les territoires doivent alors répondre, non plus en terme d’amélioration continue (ou « comment faire moins pire ») mais en terme de rupture, d’innovation et de transformation.
Les solutions proposées en terme de modèles de développement, de nouvelles formes de production, d’échange ou de consommation sont alors susceptibles de produire les technologies qui accompagnent et soutiennent structurellement ces transformations sociales, économiques et environnementales. Les systèmes techniques numériques qui articulent aujourd’hui Big Data, IA, Objets Connectés, Plateformes, accompagnent la métabolisation de ces politiques de développement durable portées à grande échelle par l’UE, relayées à échelle locale et prises dans des boucles de rétroaction : mises en œuvre, analyses, évaluations, améliorations et ce, au plus près des filières professionnelles, des métiers, des conduites et des comportements de notre vie quotidienne. Si cette métabolisation opère selon une dynamique de numérisation du politique (et donc aussi du socio-économique) elle opère aussi selon une dynamique de politisation du numérique. Ces deux dynamiques articulent chacune un double mouvement top-down et plus ou moins bottom-up, en traversant plusieurs échelles territoriales, de l’individu au Monde en passant par le foyer, la ville, la région, l’Etat, le continent Européen.
Cette politisation du numérique est prise dans un jeu permanent de rapports de force multiscalaires, soumise aux lois du marché international. Les grands rapports ou livres blancs Etatiques, de la Commission Européenne, fixent des caps stratégiques ambitieux pour nos systèmes techniques, accompagnés de financements sur des plans quinquénaux ou décénaux (H2020, H2030…). De leur côté les organismes de normalisation et de standardisation internationaux (ISO, CEI, IEEE, IETF, UIT, W3C, OASIS…) jouent un rôle essentiel et nécessaire d’harmonisation et d’interopérabilité de ces systèmes techniques à échelle globale. Ces systèmes techniques numériques, comme l’industrie, étant de plus en plus intégrés dans des chaînes de valeur mondiales interopérables à forte composante de services, la puissance publique se confronte à de nouveaux défis. En effet, les données territoriales, l’Intelligence Artificielle deviennent des infrastructures essentielles (1) en terme de souveraineté, c’est à dire de capacité à agir de manière indépendante et à exercer l’autorité dont les pouvoirs publics sont démocratiquement investis, notamment face à des acteurs internationaux dont la puissance croissante réside dans la maîtrise et l’exploitation de quantités considérables de données (GAFAM, BATX).
Si les démarches d’ouverture sont déjà largement engagées en terme de données publiques, l’Etat français encourage dès 2015 l’ouverture de données d’intérêt général détenues par des acteurs privés (2). Ces données doivent concourir à l’intérêt général en terme de conduite des politiques publiques sectorielles, d’information citoyenne, de recherche scientifique et de développement durable. Si un régime unique des données d’intérêt général est extrêmement complexe à mettre en place juridiquement, il convient d’en retenir une approche sectorielle. Dans certains secteurs, la puissance publique peut en effet contraindre les opérateurs privés à « ouvrir » leurs données, pour les besoins de la conduite des politiques publiques et du développement durable (transports, environnement, énergie), dans d’autres les acteurs privés ouvrent volontairement une sélection de données (par exemple verticalement entre acteurs de chaines de sous-traitance, horizontalement pour des services écosystémiques) et en formalisent la stratégie (périmètre des données accessibles, méthodes d’interrogation de la BDD, etc.).
Le potentiel généré par l’explosion des données territoriales reste encore largement sous-exploité. En 2016, l’Agence de l’Environnement et de la Maîtrise de l’Energie (ADEME), plaide alors pour une approche intégrée et multicritère des données territoriales (3), afin de pouvoir répondre aux besoins locaux de comprendre et d’intégrer localement les interrelations, les phénomènes de rétroaction entre les comportements, les impacts énergétiques et environnementaux, leur environnement, afin que les collectivités territoriales et les acteurs socio-économiques soient en mesure de déployer des actions adaptées. Il s’agit alors de développer sectoriellement une meilleure maitrise de l’ensemble des informations propres à renseigner et nourrir cette compréhension, par la diversification des sources notamment les savoirs experts, les savoirs contextuels (4), ainsi que par la mobilisation des nouvelles possibilités offertes par l’Intelligence Artificielle.
Dans le prolongement du rapport Cytermann et des travaux de l’ADEME, le Rapport Villani (5) identifie la Mutualisation des Données Sectorielles comme le véritable enjeu d’un second acte international de la bataille de l’Intelligence Artificielle, sur lequel la France et l’Europe peuvent se différencier, après un premier acte sur les données personnelles notamment perdu au profit des grandes plateformes. Simultanément, l’Etat français lance un double Appel à Manifestation d’Intérêt « Mutualisation des données sectorielles et Intelligence artificielle » l’une en direction de l’Administration Publique l’autre des Entreprises. La numérisation des filières professionnelles et des métiers nécessite aujourd’hui d’articuler harmonieusement les gisements de données aux compétences humaines, elles-mêmes devenues progressivement expertes dans l’utilisation de la donnée à échelle intermédiaire. Cette articulation des savoirs algorithmiques et des savoirs humains implique des médiations en terme d’explicabilité et d’acceptabilité de ces nouveaux régimes de savoirs algorithmiques. Ces médiations auront un impact direct sur la fiabilité du cycle de vie d’un système d’Intelligence Artificielle (6), notamment au niveau des acteurs qui participent, mais aussi au niveau de la co-constitution, dans une logique multi-acteur, des jeux de données afin d’alimenter les méthodes d’apprentissage. Cette co-constitution est également nécessaire à évaluer les algorithmes d’Intelligence Artificielle en terme de performance, de contrôle de conformité de fonctionnement en regard de leur finalité, mais aussi de sécurité. Il est à noter que des algorithmes d’intelligence artificielle entrainés à partir d’un jeu de données hautement qualifié par co-constitution multi-acteur dans un contexte territorial donné afin de répondre à une finalité identifiée, seront difficilement exportables dans d’autres territoires. Les référentiels de scénario étant déterminés par les contextes, géographiques, climatiques, biologiques, historiques, culturels, socio-économiques, politiques, constituent autant de variables qui rendent complexe l’anticipation de tous les scénarios par un seul opérateur de système technique.
Dès lors réfléchir aux différentes strates de mutualisation constitue un premier enjeu pour les Etats et pour l’Europe : données, logiciel, API, calcul, interopérabilité des formats de données, plateformes sectorielles, devient un enjeu essentiel pour les Etats Européens. Le second enjeu est de parvenir à coordonner, les réseaux humains, la formation, la capacité de comprendre et d’utiliser, l’analyse des process, le choix des informations pertinentes entre le niveau local et le niveau national afin de réaliser des économies d’échelle, atteindre des effets de seuil en terme de performance et de compétitivité de nos systèmes techniques.
Renan Mouren
1_Administrateur Général des Données, « La donnée comme infrastructure essentielle », Paris, La documentation française, 2018, p.40.
URL : https://www.etalab.gouv.fr/wp-content/uploads/2018/04/RapportAGD_2016-2017_web.pdf
2_Rapport du Conseil d’Etat / CGE / IGF, « Les données d’intérêt général (dit rapport CYTERMANN), 2015.
URL : https://www.economie.gouv.fr/files/files/PDF/DIG-Rapport-final2015-09.pdf
3_ADEME, Rapport d’étude « Approche intégrée et multicritère de la modélisation territoriale. Elements de cadrage pour la gestion des données territoriales », Paris, 2016.
URL : https://www.ademe.fr/sites/default/files/assets/documents/modelisation-territoriales-gestions-donnees-201606.pdf
4 _le savoir contextuel comprend des dimensions procédurale, matérielle, organisationnelle et sociale.
5_Mission Parlementaire coordonnée par Cédric Villani « Donner un sens à l’Intelligence Artificielle. Pour une stratégie Nationale et Européenne », Paris, Mars 2018. Voir notamment pp.29-34
URL : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf
6_Le cycle de vie d’un système d’IA comprend sa phase de développement (y compris la recherche, la conception, la fourniture de données et les essais limités), de déploiement (y compris la mise en œuvre) et la phase d’utilisation.