Au Royaume-Uni, de nombreux services publics s’en remettent à l’intelligence artificielle. Pas moins de huit ministères utilisent déjà des algorithmes pour les décisions administratives. Un recours à la technologie qui touche par exemple l’attribution d’allocations, la police, et qui n’est pas sans poser question.
C’est une enquête du quotidien britannique The Guardian qui révèle ce chiffre : huit ministères délèguent une partie de leurs responsabilités à l’intelligence artificielle (IA). Dans certains cas, c’est relativement pratique, et sans grande conséquence, par exemple, la vérification des passeports automatique dans les aéroports.
Mais il y a des décisions plus importantes. Le ministère du Travail utilise des algorithmes pour octroyer les allocations, afin de filtrer les demandes abusives. Les logiciels de reconnaissance faciale de la police fonctionnent de manière automatisée. Et le ministère de l’Intérieur a recours à la technologie pour valider les licences de mariage, et éviter les mariages blancs. Certaines de ces intelligences artificielles sont sophistiquées et pas toujours tout à fait comprises par les employés des ministères. Et, c’est le Guardian qui le souligne, les garde-fous n’existent pas toujours.
Problème de discrimination
Selon des juristes indépendants, le Royaume-Uni se dirigerait vers un scandale d’État à cause de ces systèmes, qui tendent à reproduire les discriminations sociales. Les systèmes d’intelligence artificielle « apprennent » à partir de jeux de données extrêmement volumineux, tirées des cas qui ont été examinés précédemment par des humains. Et l’une des conséquences de ce type d’apprentissage, c’est l’amplification des préjugés présents au sein de la société.
Pour les allocations, par exemple, une députée explique que plus d’une douzaine d’habitants de sa circonscription ont vu leurs versements suspendus, sans raison. Leur point commun, c’est que presque tous étaient de nationalité bulgare. Pour la reconnaissance faciale de la police, les visages noirs ressortent plus souvent comme « suspects » que les visages blancs, là encore sans autre raison.
Or, quand les processus sont automatisés, c’est d’autant plus difficile d’obtenir des explications : une justification de la décision. Et donc, de porter un recours. Plusieurs spécialistes du droit et de l’éthique s’inquiètent, d’autant que le gouvernement a démantelé le mois dernier le Centre d’éthique et d’innovation des données, un groupe indépendant de conseil spécialisé dans l’IA.
Rishi Sunak encourage l’intelligence artificielle
Et pourtant, l’intelligence artificielle est l’un des sujets favoris du moment pour le gouvernement. Et d’ailleurs, le Premier ministre lui-même encourage l’utilisation de l’IA dans les services publics. Selon Rishi Sunak, elle peut permettre d’améliorer la précision et la rapidité des examens médicaux ou encore, de faire gagner des heures de travail aux enseignants dans la préparation de leurs cours.
Tout cela, les experts l’acceptent et parlent d’un énorme potentiel. Mais pas dénué de risques. La semaine prochaine, Rishi Sunak organise un sommet international dans le nord de Londres, intitulé « IA et sécurité » justement. On y attend des acteurs du monde entier. Évidemment, l’initiative est bienvenue, mais les associations appellent à davantage de transparence et de régulation du secteur.
Partager