Réponse CADA sur les projets en cours à Marseille



  • L'idée de cette demande CADA envoyée début juin était de voir s'il y avait de nouveaux documents sortis sur les projets marseillais (six mois après nos dernières demandes), et aussi de faire valoir les dispositions sur la transparence des algorithmes publics.

    Les deux documents sont sur data.technopolice.fr. Petite analyse :

    Aucun document nouveau

    À part une convention d'échange de données avec le ministère de l'Intérieur pour leur observatoire Big Data, qu'on avait déjà sous la main mais qui est désormais signé. L'annexe confirme que les « manifestations revendicatives » sont centrales dans ce projet, et au cœur des échanges de données entre la ville et l'État.

    La réponse de la direction des affaires juridiques de la ville est quand même assez intéressante.

    La VSA suspendue à l'avis de la CNIL

    Sur la VSA, on apprend que le projet est suspendu au retour de la CNIL sur l'étude d'impact (« L’étude d’impact concernant la protection des données personnelles a été envoyé à la CNIL le 17 juin dernier » -- soit six mois après que l'expérimentation ait été annoncée publiquement), et il a pris du retard en raison du confinement (« le contexte de crise sanitaire n’a pas permis l’avancée de ce dossier, d’autre sujets plus critiques devant être assumés par ailleurs »).

    « La fonctionnalité de vidéoprotection intelligente n’ayant pas été mise en œuvre, nous ne pouvons pas vous fournir les plans d’implantation des caméras utilisant cette fonctionnalité car aucune décision n’a été prise. »

    Ainsi, contrairement à ce que laissait entendre la CADA dans le courrier sur Rennes, la ville de @Marseille pourrait se montrer encline à donner l'emplacement des caméras utilisées pour la VSA, mais en l'occurrence, il n'y en a pas (encore). Mais comme l'a relevé le groupe @carto à Marseille lors de ses maraudes, toutes les caméras sur Marseille, en tout cas les plus fraîchement installées, permettent de faire de la détection automatisée...

    Obervatoire Big Data : « pas de données personnelles » et pas d'étude d'impact

    La directrice des affaires juridiques semble s'agacer de nos demandes répétées, alors même que, comme elle ne cesse de le prétendre, « la Ville de Marseille est respectueuse du cadre réglementaire de la protection des données », et notamment les données personnelles dont elle prétend toujours qu'elles sont exclues de l'Observatoire Big Data. Ce qui justifie par ailleurs selon elle l'absence d'étude d'impact :

    « (...) nous ne pouvons toujours pas vous fournir d’étude d’impact car comme cela vous avait déjà été indiqué en octobre 2019, ce traitement ne présente pas de risque élevé pour les droits et libertés des personnes et n'entre pas dans la liste des types de traitements pour lesquels la CNIL a estimé obligatoire de réaliser une analyse d’impact. »

    Et ce alors qu'en 2018, la CNIL avait estimé que cela était nécessaire. Je cite le courrier dont nous avait fait part la présidente de la CNIL à l'époque :

    « (...) après un entretien téléphonique entre mes services et le correspondant informatique et libertés de la collectivité, s uivi d'une première lecture du CCTP communiqué par celui-ci à notre demande, j'ai adressé au maire de Marseille un courrier soulignant l'impérieuse nécessité de tenir compte du nouveau cadre juridique relatif à la protection des données personnelles (...). S'agissant d'un projet visant à exploiter à grande échelle des données potentiellement identifiantes et à la sensibilité particulière (infractions, santé, situation sociale, localisation, opinions, etc.), au moyen d'un outil technologique innovant axé sur une mécanique de combinaison d'informations issues de sources diverses et collectées à des fins différentes, intégrant également des activités de surveillance, d'évaluation et de prédiction, j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées. j'ai tout particulièrement attiré son attention sur l'obligation lui incombant de procéder à une analyse de l'impact du traitement projeté sur la vie privée et les libertés des personnes concernées. »

    Les données agrégées et autre statistiques échapperaient donc à tout vrai contrôle de la CNIL ? L'avis des juristes qui traînent par ici serait précieux... Mais vu que des systèmes de prédiction spatio-temporelle type PredPol ont dans le passé pu être examiné par la CNIL, je ne suis pas convaincu. Ça vaudrait le coup d'en reparler à la CNIL lors d'un prochain rendez-vous, non ? @Martin

    L'opacité des algorithmes publics

    C'était l'enjeu principal -- en tout cas le plus original -- de cette demande, car la transparence des algorithmes publics est un droit nouveau (créé par une loi de 2016 (on en parlait ici).

    Le résultat est très décevant :

    • Sur l'Observatoire Big Data :

    Nous vous fournissons également un document répondant à vos interrogations concernant les algorithmes utilisés dans le projet [note: pas de document reçu sur ce point - j'ai relancé la DAJ], ce qui confirmera également pour la troisième fois qu’aucune donnée personnelle n’est collectée. Dans le détail, les données suivantes sont utilisées comme axes factoriels pour identifier les événements similaires dans le passé:

    • Localisation

    • Nombre de participants

    • Nature

    • Secteur

    • Est en semaine / Est en week-end

    • Est en hiver / Est en été

    • Emprise

    • Durée

    L’algorithme utilisé pour le modèle d’apprentissage est basé sur des arbres de décision. Ces arbres sont construits par l’algorithme des «forêts aléatoires ». A partir du moment ou les événements passés similaires sont interpolés, les faits constatés aux alentours de ces événements passés sont « transférés » à l’événement prévu ou plus exactement la note élaborée pour chaque événement passé à partir de la combinaison des faits constatés est transférée au fait prévu.

    • Sur la VSA, circulez, il n'y a rien à voir :

    Concernant les algorithmes utilisés pour ce sujet, ils ne contribuent pas à la prise de décision, celle ci étant entièrement réalisée par les opérateurs du Centre de Supervision Urbain habilités. L'algorithme détecte et alerte ce pour quoi il a été programmé : ces éléments vous ont été fournis dans la réponse du mois d’octobre 2019. Cet algorithme alerte l'opérateur qui juge alors lui-même et prend les décisions comme s'il avait détecté lui même l'événement (...).
    En ce qui concerne les paramètres du traitement et la pondération, nous vous avons déjà fourni des éléments lors de nos deux premières réponses. Nous n’avons pas d’autres éléments à vous communiquer, conformément à ce que vous avez pu obtenir lors de vos précédents courriers.

    Donc il y a une conception très restrictive de ce droit sur la transparence des algorithmes (peu d'information utile). Et sur la notion même de décision (en gros si un humain intervient, le droit à la transparence des algorithmes est nul et non avenu).

    J'aimerais bien l'avis de @bastien sur tout ça.

    Proposition de rendez-vous

    Ça se termine par une proposition de rendez-vous, auquel il faudra donner suite (peut être avec des élus fraîchement arrivés ?) :

    « (...) afin de répondre a vos nombreux questionnements, les services opérationnels de la Ville de Marseille sont disponibles pour échanger avec vous, et répondre aux questions amenées par des sources d’informations manifestement erronées ».

    Drôle de conception de la transparence administrative

    Au passage, l'agacement que l'on sent en filigrane tout au long du courrier trahit une vision là encore très restrictive de la transparence administrative. Comme si nos demandes CADA visaient uniquement à les prendre en faute et à lancer des contentieux. Comme si les forme de surveillance à partir de données anonymisées ne posaient pas de problèmes de libertés publiques. Comme s'il n'était légitime de demander l'accès à ces informations d'intérêt public. Comme s'il ne serait pas légitime que la mairie les publie in extenso sans qu'on les leur demande...

    Sur les drones policiers utilisés à Marseille

    La ville me renvoie vers le ministère de l'intérieur :

    « La Police Municipale ne recourt pas aux drones pour surveiller l’espace public urbain. Nous n'avons donc aucun document à vous fournir, aucune décision administrative, aucun document, aucune analyse d’impact n’ayant été produite. Nous vous invitons à vous rapprocher du Ministère de l'Intérieur pour le questionner sur l’utilisation des drones par la Police Nationale sur l’espace public urbain marseillais ».

    J'ai envoyé une demande CADA au ministère sur ce point.



  • Merci Félix pour ces informations. Tu fais bien de me @, parce que je ne suis pas très assidu sur le forum Technopolice.

    @felix a dit dans Réponse CADA sur les projets en cours à Marseille :

    Concernant les algorithmes utilisés pour ce sujet, ils ne contribuent pas à la prise de décision, celle ci étant entièrement réalisée par les opérateurs du Centre de Supervision Urbain habilités. L'algorithme détecte et alerte ce pour quoi il a été programmé : ces éléments vous ont été fournis dans la réponse du mois d’octobre 2019. Cet algorithme alerte l'opérateur qui juge alors lui-même et prend les décisions comme s'il avait détecté lui même l'événement (...).
    En ce qui concerne les paramètres du traitement et la pondération, nous vous avons déjà fourni des éléments lors de nos deux premières réponses. Nous n’avons pas d’autres éléments à vous communiquer, conformément à ce que vous avez pu obtenir lors de vos précédents courriers.

    Cette interprétation n'est pas conforme à la décision du CC Parcoursup. Dans cette décision, le CC relevait que les algorithmes locaux de Parcoursup ne participaient pas à la prise de décision, mais les incluait quand même dans le champ de l'article 15 DDHC. À partir du moment où l'administration établit des documents pour s'aider (un algorithme étant entendu comme un document administratif), ceux-ci doivent être en principe communiqués. Il peut y avoir des exceptions prévues par le droit, mais le fait qu'un algo ne participe pas à une prise de décision ne permet pas à lui seul d'écarter le droit à sa communication.

    @felix a dit dans Réponse CADA sur les projets en cours à Marseille :

    Ça se termine par une proposition de rendez-vous, auquel il faudra donner suite (peut être avec des élus fraîchement arrivés ?) :

    Je peux venir épauler si besoin. Je ne suis pas si loin que ça de Marseille. En revanche, pour l'instant, je ne sais pas bien ce qu'on pourrait demander (autre que revenir sur leur interprétation erronée du droit à communication d'un document administratif et de la nécessité d'une étude d'impact pour l'observatoire Big Data).