Tutoriels

OpenAI utilise une « red team » pour tester GPT-4 et corriger les biais

Photo D'Une Équipe De Chercheurs Travaillant Sur Des Ordinateurs Portables Pour Tester Et Corriger Les Biais De Gpt-4, Le Dernier Modèle De Langage D'Openai.

La société de l’IA générative OpenAI a formé une « red team » pour tester son dernier modèle de langage, GPT-4. Cette équipe de 50 académiciens et experts dans de nombreux domaines de l’IA avait pour mission de trouver les potentielles failles de GPT-4 en faisant exprès de le pousser à dire des choses inappropriées, non voulues ou interdites.

La « red team » pour identifier les points faibles de GPT-4

La méthode de la « red team » est couramment utilisée dans le domaine de la cybersécurité pour identifier les points faibles des équipements. Dans le cas d’OpenAI, cette équipe de chercheurs avait pour rôle de sonder qualitativement et tester de manière contradictoire GPT-4 afin de trouver les biais, la toxicité, les préjugés, et les biais linguistiques qui pouvaient être présents.

GPT-4, un modèle de langage plus sûr

Les travaux de la « red team » ont permis à OpenAI de pallier différents problèmes tels que la toxicité, les préjugés, et les biais linguistiques. Selon les experts, les correctifs apportés ont permis à GPT-4 de devenir de plus en plus sûr. Toutefois, la société doit continuer à mettre en place des sessions d’exercice de sécurité et à surveiller l’utilisation de son modèle dans un environnement réel.

La transparence et la responsabilité dans le domaine de l’IA générative

La mise en place d’un registre public pour signaler les incidents est une initiative proposée par certains experts pour renforcer la transparence et la responsabilité dans le domaine de l’IA générative. Heather Frase, chercheuse pour le Centre de la sécurité et des technologies émergentes de l’Université de Georgetown, a souligné que les choses se comportent différemment une fois qu’elles sont utilisées dans l’environnement réel.