Intelligence artificielle (IA)

La loi sur l’IA: Comprendre les nouvelles règles de l’UE pour la transparence de l’IA : ce que vous devez savoir 2023

La Loi Sur L'Ia: Un Pas De Plus Vers La Réglementation De L'Intelligence Artificielle

Introduction

Le Parlement Européen a adopté une proposition de mandat de négociation sur la toute première réglementation de l’Intelligence Artificielle (IA) avec un vote de 84 voix pour, 7 contre et 12 abstentions. Cette proposition établit des règles pour les fournisseurs et utilisateurs d’IA en fonction du niveau de risque que celle-ci peut générer. Dans cet article, nous allons examiner les détails de cette proposition de loi sur l’IA et ses implications pour la réglementation de l’IA en Europe.

La Proposition de Loi sur l’IA

La proposition de loi sur l’IA est basée sur une approche de gestion des risques et établit des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque que l’IA peut générer. Les systèmes d’IA qui présentent un niveau de risque inacceptable pour la sécurité des personnes seraient strictement interdits, y compris les systèmes qui utilisent des techniques subliminales ou manipulatives à des fins spécifiques, qui exploitent les vulnérabilités des personnes ou qui sont utilisés pour la notation sociale (classification des personnes en fonction de leur comportement social, de leur statut socio-économique, de leurs caractéristiques personnelles).

Interdictions de l’IA à haut risque

Les députés européens ont ajouté des interdictions sur l’utilisation de l’IA qui est intrusive et discriminatoire. Ces interdictions incluent :

  • Les systèmes d’identification biométrique en temps réel dans les espaces publics accessibles;
  • Les systèmes d’identification biométrique à distance (sauf pour les forces de l’ordre pour la poursuite de crimes graves et seulement après autorisation judiciaire);
  • Les systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (genre, race, ethnicité, statut de citoyenneté, religion, orientation politique);
  • Les systèmes de police prédictive (basés sur le profilage, la localisation ou les comportements criminels passés);
  • Les systèmes de reconnaissance émotionnelle dans les forces de l’ordre, la gestion des frontières, le milieu de travail et les établissements d’enseignement; et
  • Le raclage indiscriminé de données biométriques provenant des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale (violation des droits de l’homme et du droit à la vie privée).

Règles de transparence pour l’IA à usage général

Les députés européens ont inclus des obligations pour les fournisseurs de modèles de base – un développement nouveau et rapide dans le domaine de l’IA – qui devraient garantir une protection solide des droits fondamentaux, de la santé et de la sécurité, de l’environnement, de la démocratie et de l’état de droit. Ils devraient évaluer et atténuer les risques, se conformer aux exigences de conception, d’information et d’environnement et s’inscrire dans la base de données de l’UE.

Les modèles génératifs de base, comme GPT, devraient également respecter des exigences de transparence supplémentaires. Les entreprises doivent être transparentes sur la manière dont elles ont développé ces modèles et sur les données qui ont été utilisées pour les former. Les utilisateurs doivent savoir comment les modèles ont été testés et validés et quelles mesures de sécurité ont été prises pour protéger les données personnelles.

En outre, les modèles génératifs de base devraient être utilisés de manière responsable, évitant toute utilisation malveillante ou discriminatoire. Les entreprises doivent surveiller l’utilisation de leurs modèles et prendre des mesures pour empêcher toute utilisation abusive.

Conclusion

GPT est un exemple remarquable de l’utilisation de l’IA pour la génération de texte. Cependant, il est important de comprendre les limites de la technologie et de veiller à ce que son utilisation soit transparente, responsable et éthique. Les gouvernements et les entreprises doivent travailler ensemble pour réglementer l’utilisation de l’IA, en s’assurant qu’elle ne met pas en danger les droits fondamentaux et les libertés individuelles. En fin de compte, la technologie doit servir à améliorer la vie des gens, pas à la menacer.

Pour plus d’article : https://www.moussasoft.com/tutoriels-electroniques

Twitter: Moussa Lhoussaine (@Moussasoft_com) / Twitter

AI Act: a step closer to the first rules on Artificial Intelligence | Atualidade | Parlamento Europeu (europa.eu)