Microsoft Copilot censure des termes pour éviter les contenus choquants !

La récente mise à jour de l’IA de Microsoft interdit désormais certains types de suggestions, notamment celles susceptibles de produire des contenus violents, choquants ou à connotation sexuelle.

Depuis l’introduction des outils d’intelligence artificielle dans notre quotidien, il est devenu courant de constater des dysfonctionnements, voire des préoccupations chez les utilisateurs. Après les incidents impliquant ChatGPT et les controverses autour des erreurs historiques de Gemini, c’est maintenant au tour de Copilot, l’assistant de Microsoft, de susciter l’attention. Un ingénieur testeur d’IA a signalé à Microsoft, puis à la Federal Trade Commission, la présence de contenus à caractère sexuel et violent générés par Copilot, ce qui a alerté les autorités. Dans un premier temps silencieuse, l’entreprise de Redmond a finalement réagi en mettant à jour Copilot pour restreindre certaines catégories de suggestions susceptibles de provoquer la controverse.

Lire aussi :

  1. Trello change la donne : seuls 10 utilisateurs pour les espaces gratuits, les conséquences
  2. Des logiciels malveillants se cachent dans les polices de Canva, faites attention !

3 catégories de prompts sont interdites

À la suite des signalements émis par Shane Jones, responsable de l’IA chez Microsoft, l’entreprise a pris des mesures correctives en interdisant certains prompts à Copilot afin d’éviter la génération de contenus à caractère sexuel, violent ou controversé.

Ainsi, lorsque des termes tels que “pro-life” (pro-vie, mouvement anti-avortement) ou “420” (faisant référence à une date associée à la consommation de stupéfiants) sont inclus, ainsi que tout prompt impliquant des enfants manipulant des armes, un message d’avertissement est affiché.

Ce message indique que “cette invite a été bloquée” et fournit une explication plus ou moins détaillée sur la raison de la suppression. Certains messages sont plus explicites, soulignant que la génération de telles images va à l’encontre des principes éthiques de Microsoft, tandis que d’autres messages adoptent un ton plus politiquement correct.

D’autres suggestions de texte suscitant des préoccupations sont également surveillées de près par Microsoft

L’ingénieur n’a pas laissé le silence de Microsoft le décourager. Il a décidé de faire appel à la célèbre chaîne de télévision américaine CNBC pour attirer l’attention sur la situation. CNBC a mené une enquête approfondie et a découvert que même des prompts en apparence banals pouvaient entraîner la génération de contenus problématiques. Certains exemples incluent la transformation de l’IA en une personnalité despotique ou la violation des droits d’auteur.

Parmi les exemples troublants, le simple terme « accident de voiture » a provoqué la création d’images de victimes ensanglantées à l’intérieur de véhicules accidentés. De même, des termes tels que « pro-choix » ont conduit à des représentations choquantes de monstres dépeçant des nourrissons. De plus, même des personnages de films bien connus comme Elsa de « La reine des neiges » ont été impliqués dans des scénarios controversés, brandissant le drapeau palestinien devant des bâtiments détruits.

Contactée par CNBC pour commenter ces découvertes alarmantes, Microsoft a affirmé qu’elle était constamment en train de surveiller, d’ajuster et de renforcer ses filtres de sécurité pour prévenir les utilisations abusives du système. La société a assuré qu’elle prenait au sérieux ces problèmes et travaillait activement à les résoudre pour garantir une expérience sûre et respectueuse pour tous ses utilisateurs.

Des tests qui ont commencé en décembre 2023

Shane Jones a commencé ses tests sur Copilot en décembre 2023 et a alerté Microsoft sur les problèmes rencontrés, mais ses avertissements sont restés sans réponse de la part de l’entreprise. Après avoir partagé ses préoccupations dans une lettre ouverte sur LinkedIn, sur demande de son employeur, il l’a retirée.

Ce n’est qu’après avoir contacté la FTC que Microsoft a pris des mesures en bannissant certains termes et en informant les utilisateurs des possibles suspensions automatiques de leur accès en cas de violation des règles.

Microsoft cherche à éviter de nouveaux incidents, notamment avec l’approche des élections présidentielles américaines, qui risquent déjà de générer du contenu controversé.

Articles Récents