Microsoft stopt met controversiële gezichtsherkenningstool die beweert emoties te identificeren

Microsoft stopt de openbare toegang tot een aantal AI-aangedreven gezichtsanalysetools, waaronder een die beweert de emotie van een onderwerp te identificeren uit video’s en afbeeldingen.

Dergelijke tools voor “emotieherkenning” zijn bekritiseerd door experts. Ze zeggen niet alleen dat gezichtsuitdrukkingen waarvan men denkt dat ze universeel zijn, verschillen tussen verschillende populaties, maar dat het onwetenschappelijk is om externe uitingen van emoties gelijk te stellen aan interne gevoelens.

“Bedrijven kunnen zeggen wat ze willen, maar de gegevens zijn duidelijk”, zegt Lisa Feldman Barrett, een professor in de psychologie aan de Northeastern University die een recensie deed over het onderwerp AI-aangedreven emotieherkenning. De rand in 2019. “Ze kunnen een frons detecteren, maar dat is niet hetzelfde als woede detecteren.”

De beslissing maakt deel uit van een grotere herziening van het ethische beleid van Microsoft op het gebied van AI. De bijgewerkte Responsible AI Standards van het bedrijf (voor het eerst uiteengezet in 2019) benadrukken verantwoordelijkheid om erachter te komen wie zijn diensten gebruikt en meer menselijk toezicht op waar deze tools worden toegepast.

In de praktijk betekent dit dat Microsoft de toegang tot sommige functies van zijn gezichtsherkenningsservices (bekend als Azure Face) zal beperken en andere volledig zal verwijderen. Gebruikers moeten een aanvraag indienen om Azure Face te gebruiken voor gezichtsherkenning, bijvoorbeeld om Microsoft precies te vertellen hoe en waar ze zijn systemen zullen inzetten. Sommige gebruiksscenario’s met minder schadelijk potentieel (zoals het automatisch vervagen van gezichten in afbeeldingen en video’s) blijven open toegankelijk.

Naast het verwijderen van de openbare toegang tot zijn emotieherkenningstool, stopt Microsoft ook met het vermogen van Azure Face om “kenmerken zoals geslacht, leeftijd, glimlach, gezichtshaar, haar en make-up” te identificeren.

“Experts binnen en buiten het bedrijf hebben gewezen op het gebrek aan wetenschappelijke consensus over de definitie van ’emoties’, de uitdagingen in de manier waarop gevolgtrekkingen worden gegeneraliseerd in gebruikssituaties, regio’s en demografie, en de verhoogde privacykwesties rond dit soort mogelijkheden”, schreef hij. Microsoft’s hoofdverantwoordelijke AI-functionaris, Natasha Crampton, in een blogpost die het nieuws aankondigde.

Microsoft zegt dat het vanaf vandaag, 21 juni, stopt met het aanbieden van deze functies aan nieuwe klanten, terwijl de toegang van bestaande klanten op 30 juni 2023 wordt ingetrokken.

Maar terwijl Microsoft met pensioen gaat openbaar toegang tot deze functies, zal het deze blijven gebruiken in ten minste één van zijn eigen producten: een app genaamd Seeing AI die machinevisie gebruikt om de wereld te beschrijven voor mensen met een visuele beperking.

In een blogpost zei Sarah Bird, hoofdproductmanager van Microsoft voor Azure AI, dat tools zoals emotieherkenning “waardevol kunnen zijn wanneer ze worden gebruikt voor een reeks gecontroleerde toegankelijkheidsscenario’s.” Het is niet duidelijk of deze tools in andere Microsoft-producten zullen worden gebruikt.

Microsoft introduceert ook soortgelijke beperkingen voor zijn Custom Neural Voice-functie, waarmee klanten AI-stemmen kunnen maken op basis van opnames van echte mensen (ook wel bekend als een audiodeepfake).

De tool “heeft een opwindend potentieel op het gebied van onderwijs, toegankelijkheid en entertainment”, schrijft Bird, maar ze merkt op dat het “ook gemakkelijk voor te stellen is hoe het kan worden gebruikt om zich op ongepaste wijze voor te doen als sprekers en om luisteraars te misleiden.” Microsoft zegt dat het in de toekomst de toegang tot de functie zal beperken tot ‘beheerde klanten en partners’ en ‘de actieve deelname van de spreker zal garanderen bij het creëren van een synthetische stem’.

Leave a Comment