Le Conseil d’État, dans une décision du 30 janvier 2026 (CE 30 janv. 2026, n° 506370), trace une frontière nette entre vidéoprotection classique et vidéosurveillance algorithmique, en jugeant illégale l’analyse automatisée des images en l’absence de base légale explicite et en réaffirmant le rôle central du législateur et de la CNIL dans la protection des libertés face aux dispositifs de surveillance « intelligente ».
Par cette décision, la juridiction administrative suprême pose un jalon décisif dans l’encadrement juridique des dispositifs de vidéosurveillance algorithmique sur la voie publique.
En confirmant la délibération de la CNIL (commission nationale d’informatique et des libertés) ayant déclaré illégal un dispositif d’analyse automatisée des images destiné à repérer les intrusions autour des écoles de Nice, le Conseil d’État réaffirme un principe essentiel : de tels systèmes ne peuvent être déployés qu’en vertu d’une base légale clairement définie.
L’arrêt s’inscrit dans un contexte de montée en puissance des technologies d’« analyse intelligente » appliquées à la vidéoprotection, et il trace une frontière claire entre la vidéosurveillance classique et la vidéosurveillance « augmentée » par des algorithmes.
Une distinction structurante : vidéoprotection classique et traitement algorithmique
Au cœur de la décision, le Conseil d’État distingue la vidéoprotection classique, telle qu’autorisée par l’article L. 251-2 du code de la sécurité intérieure, de l’analyse algorithmique automatisée et systématique des images filmées sur la voie publique.
La vidéoprotection classique repose sur la captation d’images par des caméras et leur visualisation par des opérateurs humains dans un centre de supervision, conformément à une finalité de sécurité publique précisément encadrée par la loi.
En revanche, l’analyse automatisée, en temps réel, des images modifie la nature et l’intensité de la surveillance, car elle permet une détection systématique, continue et potentiellement massive de comportements ou de situations, au moyen de logiciels appliqués à l’ensemble des flux vidéo.
Pour le Conseil d’État, cette automatisation ne constitue pas une simple évolution neutre de la technique, mais un changement qualitatif qui justifie un traitement juridique distinct, et qui ne saurait être couvert par le seul régime légal de la vidéoprotection classique.
La primauté du principe de légalité des atteintes aux libertés
La décision se fonde sur un principe fondamental du droit public et du droit européen des droits de l’homme : toute atteinte aux libertés, en particulier au droit au respect de la vie privée protégé par l’article 8 de la Convention européenne des droits de l’homme, doit être prévue par la loi.
Le Conseil d’Etat précise que la base juridique doit être accessible et suffisamment précise pour permettre aux citoyens de comprendre dans quelles conditions et pour quelles finalités leurs données sont susceptibles d’être collectées et traitées.
Il ajoute que cette exigence est d’autant plus forte lorsque les technologies concernées peuvent entraîner une surveillance généralisée de l’espace public.
Il en conclut que l’usage de logiciels d’analyse automatisée d’images de vidéoprotection ne peut pas être fondé sur un simple texte général autorisant la pose de caméras et la visualisation des images par des agents humains, mais qu’il suppose un texte qui vise explicitement ce type de traitement, en définissant ses caractéristiques essentielles.
Le rôle du législateur et l’exemple des JO 2024
La haute juridiction insiste sur le rôle du législateur chaque fois qu’il s’est agi d’autoriser des traitements algorithmiques appliqués aux images de vidéoprotection.
Elle relève ainsi que, pour l’organisation des Jeux olympiques et paralympiques de 2024, une base légale spécifique a été adoptée afin d’autoriser, à titre expérimental, des dispositifs d’analyse automatisée des images, dans un cadre strict, limité dans le temps et assorti de garanties substan-tielles pour les droits et libertés.
En mettant en avant cet exemple, le Conseil d’État rappelle que l’analyse algorithmique ne peut pas être déduite implicitement du cadre général de la vidéoprotection, mais qu’elle nécessite au contraire une intervention explicite du Parlement, qui doit en fixer le périmètre, les finalités, les conditions de mise en œuvre, les durées de conservation des données, les droits des personnes concernées et les modalités de contrôle.
L’arrêt exclut que le régime actuel de la vidéoprotection soit interprété au‑delà de ce qu’il prévoit, et affirme que les options les plus sensibles en matière de surveillance doivent être arbitrées par le législateur.
Le rejet d’une vision purement technique de l’automatisation
Le Conseil d’État rejette l’idée selon laquelle l’automatisation ne serait qu’une modalité technique d’exécution d’un traitement déjà autorisé, qui n’appellerait pas de réflexion juridique particulière.
Il affirme, au contraire, que le passage d’un contrôle humain ponctuel à une analyse algorithmique systématique transforme la nature même de la surveillance, en en accroissant l’ampleur, la continuité et la capacité de traitement, ce qui renforce l’intensité de l’atteinte potentielle aux droits fondamentaux.
Cette approche consacre une vision qualitative de la technologie : ce n’est pas seulement le contenu des données – en l’occurrence des images de l’espace public – qui compte, mais la manière dont elles sont traitées, combinées et exploitées, qui peut faire basculer un dispositif dans une logique de surveillance de masse.
Une boussole juridique de la surveillance algorithmique
En définitive, l’arrêt du Conseil d’État du 30 janvier 2026 consacre plusieurs principes structurants appelés à guider l’essor des technologies de surveillance dans l’espace public.
Il opère d’abord une distinction nette entre la vidéoprotection classique et les traitements algorithmiques automatisés, en considérant que ces derniers constituent une catégorie à part, plus intrusive, qui exige un cadre juridique autonome.
Il affirme ensuite l’exigence d’une base légale explicite pour tout système d’analyse automatisée des images, en rappelant que les textes généraux sur la vidéoprotection ne suffisent pas à eux seuls à couvrir ce type d’usage, surtout lorsqu’il est massif et systématique.
Il réaffirme enfin la centralité du législateur en tant que garant de l’équilibre entre impératifs de sécurité et protection des libertés, et souligne la nécessité d’un véritable débat démocratique en amont de tout déploiement de technologies susceptibles de conduire à une surveillance généralisée de l’espace public.
Par ses apports, l’arrêt devient un véritable repère juridique pour l’ère de la vidéosurveillance « augmentée », en soulignant que l’innovation ne peut se soustraire aux exigences de l’État de droit, mais doit au contraire être conçue et encadrée à l’aune de celles‑ci.