La reconnaissance émotionnelle arrive dans les prisons et entreprises chinoises
Nous avons déjà évoqué dans un article les tests de reconnaissance d'émotions ont réalisés en Chine sur des Ouïghours sous couvert de lutte contre le terrorisme islamique et de déradicalisation. Aujourd’hui, cette technologie n’est plus restreinte aux 12 millions de Ouïghours qu’abrite la province de Xinjiang, surveillés quotidiennement. Selon The Guardian, la reconnaissance émotionnelle est maintenant répandue dans de nombreux établissements pénitentiaires, mais aussi dans les entreprises, notamment pour surveiller que les employés travaillent avec le sourire.
En entreprise, la surveillance émotionnelle sous prétexte de protéger la santé mentale des employés
Grâce à la société chinoise Taigusys, le pays est en train de s'équiper d'un logiciel d'intelligence artificielle appelée “Dynamic Emotion Recognition” qui, selon elle, peut surveiller avec précision les expressions faciales et les comportements des individus. Cette technologie permet d’interpréter les mouvements du visage, le langage corporel et la biométrie d'une personne, qui sont ensuite évalués selon diverses catégories et échelles. Ce logiciel de reconnaissance des émotions peut également générer des rapports sur les individus pour recommander des “soutiens émotionnels” si besoin. Des multinationales telles que Huawei, China Mobile, China Unicom et PetroChina sont parmi ses principaux clients, et font peut-être déjà appel à cette technologie pour, comme l’affirme Taigusys sur son site Internet, “relever de nouveaux défis” et “minimiser les conflits” posés par un comportement émotionnel conflictuel.
La Chine ne veut que des salariés souriants
Des sociétés mondialement connues, comme Canon, se sont aussi lancées dans le marché de la reconnaissance émotionnelle. Dans les bureaux de Canon en Chine, des caméras permettent uniquement aux travailleurs souriants d'entrer dans les salles de réunion ou de les réserver, garantissant ainsi que chaque employé est définitivement “satisfait” à 100% tout le temps.
Le Big brother de Tagsys, aussi utilisée en prison
Le directeur général de Taigusys a expliqué au Guardian que les systèmes d'IA de son entreprise sont actuellement sous contrat avec plus de 300 prisons et centres de détention chinois. Jusqu'à 60 000 caméras installées en prison sont utilisées pour surveiller et maintenir l’ordre.
Reconnaissance émotionnelle: un problème majeur d'éthique et de violation de l'intimité
Pour Rob Reich, professeur de sciences politiques à Stanford et co-auteur d'un livre sur l'éthique et la technologie, ce type d’analyse émotionnelle est une violation systématique de la vie privée et une dégradation de l'humanité. "Il n'est jamais éthique que d'autres personnes utilisent des systèmes d'IA pour surveiller les émotions des gens, surtout pas si ceux qui font la surveillance sont en position de pouvoir par rapport à ceux qui sont surveillés, comme les employeurs, la police et le gouvernement", explique Daniel Leufer, analyste des politiques européennes chez Access Now, une organisation à but non lucratif pour les droits civiques numériques.
À LIRE AUSSI
L'article vous a plu ? Il a mobilisé notre rédaction qui ne vit que de vos dons.
L'information a un coût, d'autant plus que la concurrence des rédactions subventionnées impose un surcroît de rigueur et de professionnalisme.
Avec votre soutien, France-Soir continuera à proposer ses articles gratuitement car nous pensons que tout le monde doit avoir accès à une information libre et indépendante pour se forger sa propre opinion.
Vous êtes la condition sine qua non à notre existence, soutenez-nous pour que France-Soir demeure le média français qui fait s’exprimer les plus légitimes.
Si vous le pouvez, soutenez-nous mensuellement, à partir de seulement 1€. Votre impact en faveur d’une presse libre n’en sera que plus fort. Merci.