
Votre demande de crédit a été refusée, mais ce n’est pas la faute de votre banquier·ère. C’est à l’algorithme qui analyse vos données qu’il faut en vouloir. En réalité, ces demandes refusées par les robots auraient probablement été acceptées si elles avaient été traitées par un humain capable de prendre en compte votre situation dans son ensemble. Si les banquier·ère·s ont un cœur, l’intelligence artificielle, elle, discrimine simplement de façon disproportionnée les personnes âgées et seules.
Le dernier rapport de Finance Watch intitulé « Protéger les consommateur·rice·s de l'Union européenne à l'ère de la finance de détail axée sur l'intelligence artificielle » le rappelle : aujourd’hui, un algorithme décide si vous obtiendrez un prêt, à quel taux d’assurance vous aurez accès ou même si vous pouvez ouvrir un compte bancaire.
Les institutions financières y voient l’outil idéal : accélération des processus, automatisation des questionnaires, réponses rapides aux questions des client·e·s grâce à un chatbot. Mais le rapport de Finance Watch y voit une réalité bien plus gênante. Dessystèmes d’intelligence artificielles mis en place par les banques excluent des individus de services essentiels, refusent des réclamations légitimes et poussent des client·e·s à souscrire des produits inadaptés.
Pour ce qui est de l’assurance auto par exemple, les algorithmes appliquent une majoration de la prime sur des profils dit « à haut risque » sans justification claire. Il vous suffit d’habiter dans une région plus populaire ou mal desservie pour avoir droit à ce supplément. Une étude menée par l'association britannique Citizens Advice montre, par exemple, que les données postales, qui sont corrélées à l'origine ethnique, sont utilisées par les systèmes d'IA entraînant une tarification discriminatoire des assurances.
Face à ces évolutions, les cadres réglementaires européens ne suffisent pas. Ces derniers n’avaient de fait pas envisagé qu’une intelligence artificielle soit d’arbitre de l’accès aux produits financiers.
L’AI Act, adopté en 2024, devait combler ces trous. Mais dans sa version actuelle, seules quelques applications financières sont classées comme « à haut risque » comme l’évaluation de la solvabilité ou la tarification dans l’assurance santé et vie. Tout le reste (recommandation d’investissements, segmentation…) échappe au régime. Pire : le projet de directive européenne sur la responsabilité liée à l’IA, qui aurait permis aux consommateur·rices d’obtenir réparation en cas de dommage, a été abandonné au nom de la « simplification réglementaire ».
Finance Watch recommande donc l’élargir l’ « AI Act » à tous les usages financiers automatisés et un cadre juridique unique à l’échelle européenne pour que les citoyen·ne·s puissent contester et obtenir réparation en cas de dommages causé par une décision algorithmique.