Face à la technopolice. Entretien avec félix tréguer

feature-image

Play all audios:

Loading...

DEPUIS LES JO, LA SURVEILLANCE ALGORITHMIQUE S’EST NORMALISÉE DANS L’ESPACE PUBLIC. COMMENT SE SONT DÉPLOYÉES CES TECHNOLOGIES ? QUELS SONT LES ACTEURS À L’OEUVRE ET LEURS OBJECTIFS ? ET


COMMENT FAIRE FACE À LA TECHNOPOLICE ? RPD S’EST ENTRETENU AVEC FÉLIX TRÉGUER, AUTEUR DE _TECHNOPOLICE, LA SURVEILLANCE POLICIÈRE À L’ÈRE DE L’INTELLIGENCE ARTIFICIELLE_ ET MILITANT À LA


QUADRATURE DU NET. RÉVOLUTION PERMANENTE : Dans ton livre, tu inscris la généalogie de la vidéosurveillance et de la surveillance algorithmique dans la longue histoire du contrôle et de la


répression des populations « dangereuses » dans les grandes villes, en détaillant comment un « solutionnisme technosécuritaire » a réussi à s’imposer. Est-ce que tu peux définir ce


paradigme, et revenir sur sa genèse ? FÉLIX TRÉGUER : J’essaie en effet de proposer une rapide généalogie de ce que j’appelle le « solutionnisme technosécuritaire ». Par ces termes,


j’entends le couplage entre, d’une part, le cadrage policier des formes de déviance, des illégalismes populaires, qui s’est installé depuis plusieurs décennies dans les États occidentaux et,


de l’autre, la manière dont la surveillance informatisée s’est instituée comme un corollaire logique des pratiques qui en découlent, de l’ordre du réflexe gouvernemental. Je reviens ainsi


sur deux moments charnières. Le premier est l’expérimentation de l’informatique naissante à des fins policières aux États Unis dans les années 1960, notamment dans le contexte d’une


extension de l’appareil policier suite aux révoltes raciales dans les grandes villes étatsuniennes. C’est une période où se déroulent des contestations plus larges de la Nouvelle-Gauche et


d’autres groupes, et où l’on voit s’imposer l’idée que l’informatique va permettre à la police d’être plus efficace. Évidemment, ce mouvement s’inscrit dans une histoire plus longue – celles


des technologies policières –, mais pour la première fois, des usages concrets de l’informatique sont encouragés par les élites, avec à la clé des financements massifs pour ces premières


expérimentations. On y voit déjà en germe la plupart des axes des technologies sur lesquelles on a pu travailler dans le cadre de la campagne _Technopolice_, notamment l’automatisation de


l’identification et des formes de croisement de données pour suivre des profils dits « à risques ». Le second moment charnière, dans le contexte français, prend place à la fin des années


1980. A cette période, le Parti socialiste s’aligne sur cette idée que la sécurité serait la première des libertés, notamment suite à un rapport de Julien Dray. Ce moment symbolise une forme


de renoncement de la gauche de gouvernement en France à penser ces illégalismes populaires autrement que par le prisme étriqué de la rationalité policière. Là encore, cette focale se double


rapidement d’une volonté d’investir dans des technologies pour permettre d’optimiser l’action de la police, notamment la vidéosurveillance, et les différentes modalités de la surveillance


numérique. Le contexte lié aux attentats du 11 septembre 2001 accélérera ensuite cette tendance. RP : Dans ton livre, on découvre tout un arsenal de technologies qui sont progressivement


expérimentées et mises en place. Pour celles et ceux qui ne connaissent pas encore très bien en quoi elles consistent, peux-tu revenir sur la vidéosurveillance algorithmique ? FT : C’est une


technologie qui s’appuie sur la vision par ordinateur ou _computer vision_, le domaine de recherche en intelligence artificielle le plus important avec les grands modèles de langage. Cela


consiste à entraîner des algorithmes à reconnaître tel ou tel agencement de pixels sur une image numérisée, pour éventuellement suivre son évolution sur une séquence vidéo et reconnaître un


« objet » : distinguer un vélo d’une voiture, un humain d’un chien – mais aussi des événements ou des comportements, comme compter des piétons sur un axe de circulation, repérer un individu


qui circulerait à contresens dans un mouvement de foule, un attroupement de cinq personnes dans l’espace public, etc. Les domaines d’application de la VSA vont jusqu’à l’identification


d’individus par des critères d’âge, de genre, de vêtements, ou par reconnaissance faciale. La VSA et la reconnaissance faciale font l’objet de recherches depuis les années 1960 au moins,


donc depuis les tout débuts de l’informatique et de la recherche en IA. Mais depuis 10 à 15 ans, la hausse de la puissance de calcul et une plus grande disponibilité des données


d’entraînement font qu’on est ont permis des déploiements massifs « en conditions réelles » dans le champ policier. RP : Tu décris dans l’ouvrage quelques expérimentations locales, comme à


la mairie de Nice, également un peu à Marseille, mais on a l’impression qu’avec les JO, c’est devenu quelque chose de normalisé. Où est-on dans ce déploiement de cette technologie ? FT : Si


les usages sécuritaires de la VSA se développent partout en Europe, la France fait figure de pays avancé de ce mouvement à l’échelle européenne. On y voit deux logiques. La première, ce sont


des déploiements à l’échelle des communes qui, en France, gèrent les parcs de vidéosurveillance. Il y a environ 100 000 caméras aujourd’hui sur la voie publique. Et dans le cadre de marchés


publics liés à la maintenance ou à l’extension de ces parcs de vidéosurveillance, des intégrateurs de vidéosurveillance – qui peuvent être des grosses boîtes comme la SNEF ou des petites


PME qui rachètent du matériel pour le vendre à des petites communes – vont refourguer les algorithmes des boîtes spécialisées en VSA. Parfois, on voit aussi ces dernières approcher


directement les communes On sait notamment que la société BriefCam s’est targuée d’équiper près de 300 communes françaises. Or, ces déploiements se font depuis des années hors de tout cadre


juridique, ce qui les rend totalement illégaux. Il s’agit à la fois d’analyser les flux en temps réel pour générer des alertes, mais aussi d’usage « a posteriori » en lançant des requêtes


sur les archives vidéo. On peut par exemple demander au système de remonter les images où un individu correspondant à certains critères – mettons un homme d’une quarantaine d’année avec un


manteau rouge – est présent dans les séquences vidéo de telle ou telle zone. Sur ces systèmes de VSA, on a obtenu un premier jugement important du tribunal administratif de Grenoble pointant


l’illégalité. Mais c’est une victoire amère : il nous a fallu près de cinq ans de combat juridique pour obtenir une jurisprudence pointant cette illégalité, alors qu’un étudiant en droit en


deuxième année serait capable de l’établir, et que le ministère de l’Intérieur la reconnaissait lui-même dès fin 2022. Les responsables de ces déploiements illégaux sont passibles de prison


en vertu des dispositions du code pénale qui réprime la surveillance illégale de la population. Elles ne sont jamais appliquées. La deuxième logique, c’est celle de l’adoption de la VSA par


les forces de police nationale ou de gendarmerie nationale. Là encore, ça s’est d’abord développé en toute illégalité. Le média Disclose a révélé fin 2023 que, dans le cadre d’enquêtes


pénales, les services du ministère de l’Intérieur recourraient depuis 2015 au logiciel Briefcam, en toute opacité, en utilisant des crédits liés à un fonds de lutte contre la drogue. Se


sachant hors des clous juridiques, le gouvernement a donc poussé, en lien avec l’industrie, et avec l’accompagnement très complice de la CNIL, une légalisation de la VSA. Cette stratégie a


pris la forme de l’expérimentation de la loi JO qui s’est concentrée sur huit cas d’usages (départ de feu, individu ou véhicule à contre-sens, personne au sol, mouvement de foule, etc.). En


2019, leur but était de légaliser la reconnaissance faciale en temps réel, et ils ont dû se rabattre sur des cas d’usage relativement peu sensibles du point de vue des libertés publiques.


C’est ça qui est mis en œuvre légalement depuis à peu près un an. Alors que le dispositif arrivait à échéance, en dépit d’un rapport d’évaluation montrant la faible efficacité opérationnelle


de l’expérimentation, le gouvernement tente de le prolonger pour trois années supplémentaires en mars 2025, . RP : Donc, si j’ai bien compris, on est dans un cadre d’expérimentation pour


les trois prochaines années de certains cas d’usage de vidéosurveillance algorithmique. FT : Les JO n’étaient qu’un prétexte, une espèce de moment exceptionnel qui a permis une stratégie du


choc, festif en l’occurrence. En raison des enjeux importants en termes sécuritaires, le gouvernement français a prétendu qu’il devait mobiliser tout l’arsenal technologique possible pour


assurer la sécurité lors de ces événements. L’argument des JO a d’ailleurs servi à la France pour peser sur les discussions au niveau de l’Union européenne sur le règlement IA qui a été


adopté en 2024, et qui prévoit des exceptions très larges pour les applications policières de l’IA, notamment en matière de vidéosurveillance algorithmique et de reconnaissance faciale. Ça a


été montré par le consortium Investigate Europe fin janvier et relayé avec l’aide de Disclose. Ils ont analysé tous les documents de négociation au Conseil de l’Union Européenne et constaté


à quel point la France a, auprès de ses partenaires, invoqué les Jeux Olympiques comme un prétexte pour justifier des positions très agressives, pour prévoir des exceptions très larges aux


obligations prévues par le réglement, formes de transparence, etc. Au final, le règlement IA s’assimile, sur le front des IA policières, à un texte de dérégulation permettant de faire des


choses qui étaient proscrites par le RGPD et d’autres textes de protection des données personnelles. RP : Quelque chose qui m’a choqué à la lecture de ton livre est le mariage entre la


recherche publique et le développement de la vidéo surveillance algorithmique. Je pense qu’on n’est pas encore suffisamment conscient à quel point la recherche publique elle-même a contribué


au développement de cette technologie. FT : C’est là aussi qu’on peut vraiment parler de solutionnisme technosécuritaire et d’une sécurité qui a été réduite à un problème technique que les


technologies informatiques allaient permettre de résoudre, avec l’aide de l’industrie. C’est vrai que l’Union européenne, depuis la fin des années 1990 environ, a accru énormément la part de


ses programmes dévolus à la recherche technosécuritaire, dans le cadre des programmes de recherche publique. On a vu se consolider des lobbies de l’industrie proches des institutions


scientifiques ou du gouvernement qui définissent les programmes de recherche pluriannuels, que ce soit au niveau national ou au niveau européen. Une sorte de champ social peu structuré s’est


organisé pour relayer les intérêts industriels au sein des politiques de recherche et accaparer une grande partie des financements publics. C’est très clair lorsqu’on mesure que, par


exemple, l’Union européenne finance près de 60 % de la recherche sur les drones. Des acteurs industriels comme Thalès, par exemple, ont reçu des dizaines et des dizaines de millions d’euros


d’argent public, sans même considérer d’autres mécanismes fiscaux comme le crédit impôt recherche en France, qui depuis 2008 a dû rapporter de l’ordre de 2 milliards d’euros à l’entreprise.


La recherche publique a clairement été inféodée aux intérêts industriels et policiers, sans vrai débat public. Les orientations de recherche ne font jamais, ou presque jamais, l’objet de


controverses. Sur le plan politique, y a vraiment cette idée aussi que la sécurité, comme la défense d’ailleurs, n’est pas un marché solvable sans un appui résolu de l’État. C’est


typiquement un secteur de l’économie qui ne tient qu’à grand renfort de subsides publiques. Lorsqu’on a commencé à La Quadrature du Net à travailler et à enquêter sur ces déploiements, ça a


été un gros choc de prendre la mesure de la quantité d’argent public qui était mis au service de la recherche et développement sur ces technologies. Aujourd’hui, avec le retour en force des


politiques militaristes, la situation risque fort de s’aggraver. RP : Il y a une chose qui revient souvent dans ton texte et que je trouve assez intéressant, c’est que souvent on a


l’impression que de nombreuses technologies qui sont développées dans le cadre de la vidéosurveillance algorithmique donnent, somme toute, assez peu de résultats. Ceci va à l’encontre de


l’idée que l’on s’achemine inexorablement vers 1984 ou vers une « dictature technologique ». C’est-à-dire qu’il y a quand même beaucoup de limites, notamment politiques, à cette technologie,


alors qu’elle est présentée vraiment comme très performante. FT : C’est vrai. Dans la troisième partie de mon livre, j’essaye de voir d’un point de vue plus prosaïque et empirique ce que


créent ces technologies afin de prendre de la distance avec la dénonciation simple de l’état « Big Brother ». Je pense que ces deux terrains doivent être tenus ensemble. On a, d’un côté, par


exemple, la vidéosurveillance algorithmique ou l’utilisation de la reconnaissance faciale pour sonder les fichiers de police, ce qui est pratiqué 1 600 fois par jour par la police


française. On peut considérer que ça fait gagner énormément de temps et donc ça améliore la « productivité » de l’institution policière. De ce point de vue-là, ça permet à l’institution


policière d’aller plus vite, de faire des économies de fonctionnaires, d’amplifier sa violence. Mais, d’un autre côté, dans plein d’autres cas, la technologie, effectivement, crée ce que


Jacques Ellul, le philosophe de la technique, appelait un « bluff technologique ». Du fait de couches de complexité technique ou organisationnelle, le potentiel de la technologie ne va


déboucher sur rien, ni sur des gains de productivité, si sur une meilleure information des agents ou de la hiérarchie. C’est là où, si l’on considère la surveillance non pas simplement comme


une activité dédiée au contrôle social, mais comme le produit de logique de rationalisation comme y invite le sociologue Florent Castagnino, alors on peut constater que bien loin de


permettre de « rationaliser » l’action d’une bureaucratie comme les bureaucraties policières, elle contribue en fait à produire l’irrationnel. D’ailleurs, c’est une plainte assez récurrente.


Je cite un article des années 1980 paru dans la Tribune du commissaire de police qui explique à quel point l’informatisation des fichiers n’a pas permis de mettre en ordre l’information


policière, de rationaliser les actions de la police, de mieux évaluer ses performances, etc. Un autre exemple, ce serait les bodycams dont le ministère de l’Intérieur équipe les


fonctionnaires de police à partir de 2016. Les caméras achetées à un prestataire chinois, Hikvision, ont une définition trop faible et les batteries causent à l’époque quantités de


problèmes. Donc, en fait, c’est de l’argent public dilapidé et sans doute beaucoup de prises de tête pour les agents qui ont tenté de les utiliser pendant plusieurs mois avant que le


ministère de l’Intérieur ne prenne conscience de son erreur. Bien souvent, les promesses techno-solutionnistes sont déçues, et ce n’est pas propre à la police. La technologisation, le


recours à l’informatique en particulier, met en scène ces grands chantiers de modernisation, comme une manière d’être non seulement plus efficace, mais aussi d’être plus transparent. C’était


le cas des bodycams, qui étaient censées permettre une plus grande transparence sur les violences, de dissuader les violences policières, ou simplement permettre un meilleur contrôle de


l’action policière de manière plus générale, et donc quelque part, cherchait à représenter une plus grande libéralisation de la police au sens du respect du droit, des libertés publiques. En


fait, on peut montrer en pratique comment ces promesses sont toujours trahies dans les faits. La promesse technoscientifique est là surtout pour attirer des capitaux et pour se présenter


comme à la pointe de l’innovation technologique, et donc légitimer l’institution concernée qui peut se targuer d’une démarche « modernisatrice ». C’est un enjeu central. Dans le contexte


policier, par exemple, quand la Gendarmerie nationale commence en 2018 à travailler sur des systèmes de police prédictive, alors qu’on parle beaucoup du système PredPol, qui est alors très


en vogue aux États-Unis, elle communique beaucoup auprès des médias, met en en scène son équipe de chercheurs en IA, de _data scientists_, comme une manière de montrer que la Gendarmerie


française, qui a un peu cette image archaïque, militaire, rurale, etc., est aussi à la pointe de l’innovation. Or, quelques mois plus tard, les hiérarques de la Gendarmerie se rendent compte


que la couverture médiatique liée à ces efforts de communication est plutôt négative. En pratique, les médias parlent de police prédictive, évoquent la dystopie de _minority report_, avec


un discours assez sensationaliste. En termes de communication, ce n’est pas terrible. La gendarmerie décide alors de passer complètement en sous-marin : elle continue ses recherches et ses


expérimentations dans ce domaine en partie, mais de manière beaucoup plus discrète parce qu’ils se rendent compte que ça génère l’inverse de ce qu’ils pensaient produire. RP : Une dernière


question est : que faire de tous ces outils de surveillance algorithmique, que faire de la surveillance numérique ? Et, quelle devrait être la position des forces dites « progressistes » ou


de la gauche sur cette question ? FT : Nous [à La Quadrature du Net], notre position depuis le début de cette campagne, c’est une posture de refus de ces technologies. Refuser ces


technologies, ce n’est pas seulement une manière de dénoncer le solutionnisme technosécuritaire. Lorsque l’on mise sur les approches technopolicières, c’est aussi une manière de ne pas


s’interroger sur le rôle du système politique et économique foncièrement inégalitaire et générateur de violence, sur les illégalismes et autres formes de violence que la police est censée


prendre en charge. Quelque part, la réponse technopolicière, c’est la réponse du système pour tenter de faire tenir malgré tout des sociétés qui se désintègrent à force de coups de butoirs


néolibéraux. Donc, quelque part, assumer la posture de refus vis-à-vis de ces technologies, c’est contribuer à rouvrir nos imaginaires et les alternatives émancipatrices à la possibilité de


faire sans ces technologies, sans la police et la sphère carcérale, sans le système capitaliste néolibéral qui nous asservit. Je n’en parle pas directement dans le livre, mais c’est des


choses qu’avec certaines camarades on a pu aussi explorer par ailleurs dans le cadre de la campagne Technopolice : partir du refus, c’est aussi une manière de s’ouvrir à des propositions du


féminisme pour repenser nos espaces publics, réfléchir à comment se passer de la police et de la prison, bref, de faire le lien avec tout un courant abolitionniste. Je crois que c’est ça la


responsabilité de la gauche, ce à quoi pour une bonne part elle a renoncé depuis quarante ans : lutter contre le réflexe technosécuritaire pour penser des alternatives radicales.