[COMPTE-RENDU MILIPOL 2] Intelligence Artificielle et analyse prédictive

Le troisième et dernier jour des conférences, les intervenants se sont penchés sur la question du Big Data – comment traiter les téraoctets de données générées tous les jours sur le territoire Français, et quelles limites appliquer au développement de l’intelligence artificielle ? Une société trop prédictive peut-elle en effet porter préjudice au bon fonctionnement de la démocratie ? C’est à ces problématiques d’envergure que se sont attaqués les intervenants à l’occasion d’une table ronde.

TABLE RONDE : L’analyse prédictive conjuguée à l’intelligence artificielle, la réponse au traitement du Big Data ?

Le préfet Renaud Vedel, coordinateur ministériel pour l’intelligence artificielle, réitère les missions du Ministère de l’Intérieur pour lequel il travaille, qui consistent à surveiller toute transgression juridique, notamment grâce aux nouvelles technologies qu’il faut apprendre à maîtriser. Selon le préfet, il faut savoir allier les règles sur lesquelles s’appuie le Ministère avec le traitement de la donnée pour pouvoir maîtriser ces nouvelles technologies. Au vu de l’hyper connectivité qui caractérise le territoire français – 92% des français sont connectés aujourd’hui – les renseignements tendent à privilégier l’usage de l’intelligence artificielle, afin de traiter le nombre de croissants de données à gérer. Un attentat par exemple, génère des téraoctets de données, ce qui représente le travail d’environ 50 personnes. L’intelligence artificielle pourrait par exemple être utilisée pour traduire les conversations entre orchestrateurs, souvent d’origines internationales. Cependant, la technologie est mal perçue par le débat public, nourrit par des concepts tels que la police prédictive à la Minority Report, qui effraient. Laurent Allais, président de l’Agora des Directeurs de la Sécurité Paris, ajoute sur ce point qu’on a tendance à prêter des propriétés « quasi-magiques » à l’IA, tandis que la réalité s’avère plus complexe : il faut savoir quelles données récupérer, comment les classer, et entraîner la technologie afin d’obtenir de meilleurs résultats. Luc Manigot, directeur des opérations chez Sinequa, renforce ce propos en rappelant que l’IA est « humaine avant d’être robotisée », puisque c’est l’humain qui écrit les programmes et fournit les données à gérer. La confiance des usagers se résume alors avant tout au traitement de la donnée et de son cycle de vie, dont la responsabilité est humaine.

Cependant, selon le député LREM Pierre-Alain Raphan, le coût caché de l’IA réside dans le fait que la technologie est en passe de remplacer les travailleurs, dont les tâches sont rendues inintéressantes car automatisées. Luc Jouve, président de GPMSE Installation, évoque à titre d’exemple le travail des télésurveilleurs du Crédit Lyonnais, dont 99% des informations traitées s’avèrent être de fausses alertes. L’IA permettrait d’aider au traitement d’un nombre incroyable de données, mais aussi « d’hyper-personnaliser » la relation client. À ce titre, la reconnaissance faciale peut assister les forces régaliennes, comme elle le fait par exemple en Suède, où elle aide à identifier les interdits de stade. Le président déplore par ailleurs la méfiance des Français à l’égard de l’IA, qui a mauvaise presse dans l’hexagone ; en témoigne les vives critiques de la CNIL, ou encore de la Quadrature du Net, à l’encontre du projet gouvernemental « AliceM », destiné à numériser les services publics en utilisant la reconnaissance faciale.