En tant que co-rapporteur d’une proposition de résolution sur l’IA, je suis intervenue pour expliciter l’approche retenue : une approche fondée sur le risque qui permet de distinguer trois systèmes d’IA selon leur finalité et leurs modalités d’utilisation, et de les apprécier au regard de la protection des droits fondamentaux :
« Mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination »
La proposition de résolution affirme la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes.
J’ai ainsi plaidé en faveur de l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne, comme les systèmes de reconnaissance des émotions, de catégorisation des personnes dans l’espace public ou de notation sociale, et d’un renforcement des garanties entourant l’utilisation des systèmes d’intelligence artificielle.
L’Europe souffre d’un déficit d’investissement regrettable en matière d’intelligence artificielle, alors que cette technologie représente des gisements de croissance considérables. En parallèle des mesures de protection, il est nécessaire de demander à l’Union européenne et à ses États membres de soutenir l’innovation et les investissements dans ce secteur, afin de renforcer la compétitivité européenne.
Cette proposition de résolution européenne, adoptée par la Commission des Affaires européennes du Sénat est devenue résolution du Sénat le 9 mai 2023.