Naarmate geautomatiseerde gezichtsuitdrukkingsanalyse, of AFEA, steeds beter in staat wordt om gezichtsgedrag in het dagelijks leven te herkennen, zal het steeds belangrijker worden om te begrijpen waardoor de technologie niet goed werkt, en om te anticiperen op problemen die kunnen optreden als deze wel correct werkt.
Dit zijn de dringende kwesties die twee U of A-professoren benadrukten in een recent beleidsredactioneel commentaar gepubliceerd in de Publicatieblad van de Vereniging voor Informatiesystemen. Het artikel, “Facing Forward: Policy for Automated Facial Expression Analysis”, was co-auteur van Jeffrey K. Mullins, een assistent-professor informatiesystemen, en Patrick A. Stewart, een professor in de politieke wetenschappen. Thomas J. Greitens, hoogleraar politieke wetenschappen aan de Central Michigan University, was een extra co-auteur.
Het doel van het hoofdartikel is om verder te kijken terwijl AFEA zich ontwikkelt. Momenteel is commerciële AFEA niet zo nauwkeurig als deskundige menselijke beoordelaars die getraind zijn in het Facial Action Coding System en hebben ze de neiging om alleen de zes basisemoties woede, angst, walging, verdriet, geluk en verrassing te identificeren en te gebruiken. Maar dat kan snel veranderen. Ontwikkelaars en organisaties die AFEA willen gebruiken, moeten zich bewust zijn van de huidige en toekomstige uitdagingen.
Uitdagingen voor betrouwbaarheid
In dit ontwikkelingsstadium ondermijnen een aantal zaken nog steeds de betrouwbaarheid van AFEA. Deze omvatten “eenvoudsbias”, zoals hierboven vermeld, in die zin dat AFEA zich richt op het detecteren van slechts zes emoties en momenteel geen complexere gezichtsgedragingen identificeert. Evenmin is het in staat om nuances te detecteren, zoals het verschil tussen een glimlach van tevredenheid of geamuseerd, waarvan de auteurs zeggen dat het een “monodale vooringenomenheid” weerspiegelt.
Een ander probleem is “milieubias”. Een verwarde of claustrofobische passagier bij een veiligheidscontrole op een luchthaven kan gezichtsgedrag vertonen dat niet te onderscheiden is van een meer achterdochtige reiziger die nerveus is omdat hij vervalste documenten gebruikt.
Ten slotte is er de ‘individuele verschilbias’. Mensen zijn de som van hun genetica, familie, cultuur en ervaringen – en niet iedereen reageert op dezelfde manier op dezelfde stimulus. Wat in de ene groep wordt verwacht, is dat misschien niet in een andere, dus het toewijzen van specifieke emoties aan specifiek gezichtsgedrag zal nooit helemaal juist zijn.
Uitdagingen van betrouwbaarheid
Ervan uitgaande dat AFEA op het punt van grotere betrouwbaarheid kan worden gebracht, brengt dit nieuwe uitdagingen met zich mee. De auteurs beginnen met ‘negativiteitsbias’. Van de zes huidige emoties die AFEA identificeert, worden er vier gewoonlijk als negatief beschouwd (angst, verdriet, walging, woede), één is positief (blijdschap) en één is neutraal (verrassing). Gezien de menselijke neiging om zich op het negatieve te concentreren, vinden de auteurs dat “AFEA dwang en controle zou kunnen aanmoedigen in plaats van coördinatie en samenwerking.” Een ander belangrijk punt van zorg is transparantie, waarbij de mate waarin gezichtsgedrag wordt geregistreerd en gedachten en gevoelens worden bepaald, mogelijk het recht op privacy ondermijnt.
De laatste twee zorgen zijn ‘systemische bias’ en ‘subjectiviteitsbias’. De eerste betreft hoe vooroordelen met betrekking tot gemarginaliseerde groepen onbedoeld in de algoritmen kunnen worden ingebouwd, zoals het geval waarin een door Amazon gebruikt wervingsalgoritme bevooroordeeld tegen vrouwen bleek te zijn. In het andere zien de auteurs dat waarden sterk kunnen verschillen tussen en binnen culturen, waardoor het moeilijk wordt om prioriteit te geven aan wat ‘goed’ is. Dit kan leiden tot mishandeling van gemarginaliseerde groepen, of tot processen en uitkomsten die maatschappelijke conflicten veroorzaken in plaats van tot consensus te komen.
Uiteindelijk concluderen de auteurs dat “organisaties realistisch moeten zijn in hun verwachtingen, voorzichtig moeten zijn in hun implementaties en kritisch moeten zijn bij het voorspellen van potentiële negatieve effecten.”
Meer informatie:
Jeffrey K. Mullins et al, Facing Forward: Policy for Automated Facial Expression Analysis, Publicatieblad van de Vereniging voor Informatiesystemen (2022). DOI: 10.17705/1jais.00788
Citaat: Editorial onderzoekt uitdagingen van geautomatiseerde gezichtsuitdrukkingsanalyse (2022, 18 november) opgehaald op 20 november 2022 van https://phys.org/news/2022-11-editorial-automated-facial-expression-analysis.html
Op dit document rust copyright. Afgezien van eerlijke handel ten behoeve van privéstudie of onderzoek, mag niets worden gereproduceerd zonder schriftelijke toestemming. De inhoud wordt alleen ter informatie verstrekt.