La Commission européenne veut jeter les bases d’une réglementation pour l’intelligence artificielle, conciliant entre protection des droits fondamentaux et innovation, en adoptant une approche fondée sur l’analyse des risques.
La Commission européenne a présenté, mercredi, son projet de réglementation pour l’intelligence artificielle visant un équilibre entre protection des droits fondamentaux et innovation, en adoptant une approche fondée sur l’analyse des risques.
En présentant les projets de Bruxelles pour l’intelligence artificielle (IA) en Europe, la vice-présidente exécutive de la Commission, Margrethe Vestager, a cherché à trouver un juste milieu en créant un cadre propice au déploiement des technologies de demain. Mais, à l’image des règles établies en matière de protection des données personnelles, elle cherche à le faire en sanctuarisant les droits fondamentaux des Européens.
L’intelligence artificielle, a résumé à ses côtés le commissaire au Marché intérieur, Thierry Breton, « offre un immense potentiel mais présente également un certain nombre de risques ».
Pour atteindre ce juste équilibre, la commission a raisonné à partir d’une pyramide.
Son socle est constitué des nombreuses applications de l’intelligence artificielle dépourvues de risque, qui ne devraient pas nécessiter d’encadrement particulier.
Un étage plus haut dans la pyramide figurent des applications présentant des risques faibles. Pour celles-ci, la réglementation européenne fixerait comme objectif de garantir la transparence pour les utilisateurs.
Un exemple concerne les personnages virtuels avec lesquels un internaute peut être amené à dialoguer sur un site Internet.