Produit Amazon AR/VR en préparation

Pourtant, parfois, les termes ont été utilisés de manière interchangeable, ce qui peut prêter à confusion. Par exemple, lorsque Fight for the Future a lancé la semaine dernière une campagne exhortant Zoom à ne pas adopter l’IA émotionnelle dans son logiciel de visioconférence, l’organisation a fait référence aux deux termes comme synonymes.

“L’analyse des sentiments, comme la reconnaissance faciale en général, est intrinsèquement biaisée”, a écrit le groupe. “Ces outils supposent que toutes les personnes utilisent les mêmes expressions faciales, modèles de voix et langage corporel, mais ce n’est pas vrai.”

Le fait est que l’analyse des sentiments n’a généralement rien à voir avec les données faciales. En fait, une distinction importante entre l’analyse des sentiments et l’IA émotionnelle réside dans les sources de données que ces technologies utilisent pour générer leurs conclusions.

Analyse des sentiments et mots

Les outils d’analyse des sentiments exploitent le texte pour évaluer les opinions ou les attitudes des gens à l’égard de quelque chose. Depuis les débuts des médias sociaux, les fournisseurs de logiciels d’analyse des sentiments et de surveillance des médias sociaux ont classé le texte dans les publications publiques, les tweets et les critiques de produits, analysant leur contenu dans le but de déterminer ce que les publications sociales disent des produits, des détaillants, des restaurants ou même des politiciens. .

Que pensent les gens d’une nouvelle saveur de remplissage Oreo ou de la dernière initiative du président Biden ? L’analyse des sentiments offre des indices.

Essentiellement, l’analyse des sentiments concerne le langage, a déclaré Nandita Sampath, analyste des politiques chez Consumer Reports, spécialisée dans les biais algorithmiques et les problèmes de responsabilité. “L’analyse des sentiments, à mon avis, consiste davantage à analyser le ton du texte ou de la parole”, a-t-elle déclaré.

L’IA émotionnelle et le visage

Même si l’émotion ou l’affect AI tente de détecter les sentiments des gens, il s’y prend d’une manière différente et utilise des formes de données que l’analyse classique des sentiments ne fait pas. Alors que l’analyse des sentiments concerne uniquement les mots et le texte, l’IA émotionnelle concerne généralement le visage et les expressions faciales.

Rana el Kaliouby, co-fondatrice et PDG du fournisseur d’IA émotionnelle Affectiva et chercheuse de longue date dans le domaine, est d’accord. “L’analyse des sentiments est généralement une analyse basée sur du texte ou sur des mots”, a-t-elle déclaré à Protocol.

Au lieu de cela, a déclaré el Kaliouby, l’intelligence artificielle analyse les expressions faciales et intègre parfois d’autres signaux tels que des données vocales et même physiologiques. La technologie qu’elle a aidé à développer pour Affectiva, qui fait maintenant partie de la société d’IA de surveillance des conducteurs Smart Eye, a été construite à l’aide de données représentant des millions de visages de personnes dans 75 pays.

“De toute évidence, vous pouvez déduire l’émotion de quelqu’un à partir du ton, mais la reconnaissance des émotions ou des affects consiste davantage à analyser les caractéristiques physiques de quelqu’un”, a déclaré Sampath, qui a déclaré avoir défini la reconnaissance des émotions comme une IA qui tente de prédire les émotions en temps réel en fonction de l’empreinte faciale de quelqu’un. Parfois, l’IA émotionnelle peut même se tourner vers d’autres formes de données biométriques, telles que la démarche d’une personne, a-t-elle déclaré.

Étant donné que l’IA émotionnelle repose généralement sur l’utilisation de la vision par ordinateur pour capturer et reconnaître l’imagerie faciale, on y fait souvent référence en relation avec la reconnaissance faciale.

En effet, dans sa discussion sur l’IA émotionnelle dans son livre de 2021 “Atlas of AI”, Kate Crawford, spécialiste de l’éthique de l’IA, professeure de recherche à l’USC Annenberg et chercheuse principale principale à Microsoft Research, a écrit : “Alors que la reconnaissance faciale tente d’identifier un individu particulier, la détection d’affect vise à détecter et à classer les émotions en analysant n’importe quel visage. Elle a expliqué que l’immense volume d’images faciales glanées sur les plateformes de médias sociaux a contribué à alimenter l’IA qui vise à détecter les émotions.

L’analyse des sentiments comme forme d’IA émotionnelle

Nazanin Andalibi, docteur en études de l’information et professeur adjoint à la School of Information de l’Université du Michigan, a étudie l’IA utilisée pour détecter les émotionsont convenu qu’il y a des distinctions à faire entre l’analyse des sentiments et l’IA émotionnelle, et que les préoccupations concernant la validité ou le biais peuvent être plus ou moins prononcées selon les sources de données utilisées et ce qui est mesuré.

Cependant, elle voit des liens plus profonds entre l’analyse des sentiments et l’IA émotionnelle. En fait, elle considère l’analyse des sentiments utilisant le texte pour reconnaître ce qu’elle appelle les «phénomènes affectifs» comme une forme d’IA émotionnelle, et plus largement un outil dans les systèmes informatiques affectifs.

“L’une des critiques que j’ai du discours existant sur l’IA émotionnelle est qu’il y a tellement d’accent sur la reconnaissance faciale”, a déclaré Andalibi, pointant vers d’autres systèmes informatiques affectifs destinés à détecter les émotions qui utilisent des données telles que du texte, des données de médias sociaux et d’autres données informatiques. les données comportementales, ainsi que les données biométriques telles que les données vocales et faciales.

Alors qu’elle a dit qu’elle croyait la technologie de reconnaissance faciale est « problématique » et “terrible”, a-t-elle ajouté, “L’une des raisons pour lesquelles je m’inquiète de me concentrer uniquement sur les problèmes de visage ou de voix est que cela peut aider les parties prenantes – comme celles qui achètent et déploient ces technologies, [such as] régulateurs, technologues ou autres acteurs – de s’éloigner de la collecte de données faciales ou vocales et de passer simplement à d’autres types de données sensibles sans vraiment s’attaquer à leurs implications néfastes fondamentales, même s’il n’y a pas de problèmes de biais, de validité ou d’exactitude.

La polémique autour des données faciales

Même si l’objectif de ces systèmes informatiques – comprendre ce que les gens ressentent – est le même quelles que soient leurs entrées de données, de nombreuses personnes voient des distinctions très importantes entre les mots que nous écrivons ou prononçons et les expressions de nos visages. Alors que l’interprétation des sentiments de ce que les gens écrivent ou disent a son propre ensemble de problèmes (sarcasme, n’importe qui ?), l’analyse des sentiments du langage n’a pas fait l’objet du niveau de critique intense que l’IA émotionnelle utilisant les données d’expression faciale a.

La validité de l’IA émotionnelle utilisant les expressions faciales pour évaluer les sentiments d’une personne a été sérieusement remise en question et soulève souvent des préoccupations éthiques. Non seulement certains chercheurs croient que les façons dont les gens expriment des émotions telles que la joie, la colère, la peur et la surprise varient selon les cultures et les situations, mais les gens ne projettent souvent pas consciemment ce qu’ils pensent ou ressentent à travers leurs expressions faciales. En revanche, les gens choisissent ce qu’ils publient en ligne et ce qu’ils disent.

En effet, ce que les autres pourraient interpréter à partir des expressions faciales de quelqu’un peut être très différent de ce que cette personne ressent réellement. En particulier, les personnes neurodivergentes peuvent exprimer leurs émotions d’une manière qui peut être interprétée de manière inexacte par d’autres personnes ou par l’IA émotionnelle.

Au fur et à mesure que l’IA émotionnelle est intégrée dans de plus en plus de technologies quotidiennes, le battement de tambour contre elle devient de plus en plus fort.

En 2019, l’AI Now Institute a appelé à l’interdiction de l’utilisation de l’IA émotionnelle dans les décisions importantes telles que l’embauche et l’évaluation des performances des étudiants. En 2021, la Brookings Institution a appelé à son interdiction d’utilisation par les forces de l’ordre, notant: «Il n’y a pas suffisamment de preuves que ces technologies fonctionnent de manière suffisamment fiable pour être utilisées pour les enjeux élevés de l’application de la loi. Pire encore, ils menacent les principes américains fondamentaux de la liberté civile dans une société pluraliste en présumant que les mouvements du visage, les réactions physiques et le ton de la voix peuvent être des preuves de criminalité.

Plus récemment, dans sa lettre ouverte à Zoom demandant à l’entreprise d’annuler les plans potentiels d’utilisation de l’IA émotionnelle, Fight for the Future a écrit : « La façon dont nous bougeons nos visages est souvent déconnectée des émotions sous-jacentes, et la recherche a montré que même les humains peut mesurer l’émotion des visages de temps en temps. Pourquoi ajouter du crédit à la pseudoscience et miser votre réputation sur une fonctionnalité fondamentalement cassée ? »

.

Add Comment