De l’algorithme à la vision tunnel

La digitalisation devrait nous faciliter la vie : faire plus avec moins d’efforts ou avec moins de main-d’œuvre. La digitalisation est donc synonyme d’efficacité. Vous devriez vous dire que nous sommes tous gagnants. Le travail est mieux fait et l’équilibre travail-vie privée peut être amélioré.

Depuis un certain temps, l’administration cherche elle aussi à travailler plus efficacement. Les pouvoirs publics cherchent donc leur salut dans l’optimisation digitale. Il serait erroné de croire que l’administration belge le fait davantage que d’autres puissances étrangères. Nos voisins néerlandais font un usage intensif d’algorithmes dans l’administration publique. À cet égard, les Pays-Bas sont même un intéressant laboratoire et un pionnier.

Ce laboratoire foisonne d’activité. La teneur démocratique de certains algorithmes est d’ailleurs au cœur d’un débat. Les algorithmes sont développés sur la base de paramètres reliés les uns aux autres. Il convient pour cela de faire des choix. Aux Pays-Bas, un débat s’amorce sur deux points. Premièrement savoir s’il n’appartient pas aux politiques de choisir les paramètres, alors que ce sont actuellement les fonctionnaires et les techniciens qui le font. Deuxièmement à propos de la transparence : le citoyen ne devrait-il pas savoir de quelle façon il est épié ?

Il y a des algorithmes partout, mais la surveillance digitale pour détecter la fraude est probablement le cheval de bataille. Un tribunal néerlandais a pourtant récemment interdit au ministère des Affaires sociales de continuer à se servir d’un système de détection des fraudes digital parce qu’il est difficile, pour le citoyen, de savoir quelles données sont analysées, et que la transparence du système ne peut être garantie. Dans Het Financieele Dagblad, Miroko Schäfer, un scientifique spécialiste des médias de l’université d’Utrecht, a émis la critique qu’un tel modèle repose sur des stéréotypes de fraude qui confirment d’anciens préjugés. Les suspicions ne sont de ce fait pas concluantes, ce qui donne lieu à un renversement de la charge de la preuve. Les citoyens sont alors contraints de prouver leur innocence, tandis que le point de départ démocratique veut que l’autorité doive démontrer la culpabilité du citoyen. Il en va de l’essence du rapport entre l’administration et le citoyen.

« La teneur démocratique du fonctionnement des algorithmes est au cœur d’un débat »

Les services des contributions utilisent également des algorithmes pour épier les contribuables. Notre administration des finances propage l’idée que les informaticiens des Finances deviendront des Sherlock Holmes digitaux. Ils captent des données digitales et combinent des informations venant de différentes sources. Ils utilisent des applications spécialisées ou des scripts maison pour identifier les risques de fraude fiscale et sélectionner des dossiers.

Ces Sherlock Holmes digitaux analysent et établissent des liens logiques sur la base de données open source relatives à une éventuelle fraude fiscale. Les informaticiens des Finances améliorent ainsi les procédures et les logiciels. Et ils contribuent à développer de nouveaux scripts afin de permettre des analyses plus complexes ou même de les automatiser.

Nous devons donc considérer l’action de nos voisins du Nord comme une expérience qui nous apprend certaines choses. Les objections soulevées par le tribunal néerlandais jouent également dans notre système judiciaire. Mon collègue avocat fiscaliste néerlandais Roel Kerkhoffs a d’ailleurs résumé fort justement sur LinkendIn le fait que chacun doive s’inquiéter de l’utilisation d’algorithmes : « Le service des contributions utilise lui aussi des algorithmes. L’inconvénient est que les dossiers ainsi désignés peuvent facilement être source d’impartialité chez l’inspecteur. Si l’ordinateur sélectionne ce dossier, on pensera que quelque chose ne va pas. Il est important de comprendre ceci. »

Cette discussion n’en est qu’à ses débuts, même si le point de départ reste que tout le monde doit continuer à s’opposer à la fraude.

Published under