Microsoft is van plan om gezichtsanalysetools te elimineren in push voor ‘verantwoordelijke AI’

Jarenlang hebben activisten en academici hun bezorgdheid geuit over het feit dat gezichtsanalysesoftware die beweert iemands leeftijd, geslacht en emotionele toestand te kunnen identificeren, bevooroordeeld, onbetrouwbaar of invasief kan zijn – en niet mag worden verkocht.

Microsoft erkende enkele van die kritieken en zei dinsdag dat het van plan was om die functies van zijn kunstmatige-intelligentiedienst voor het detecteren, analyseren en herkennen van gezichten te verwijderen. Ze zijn deze week niet meer beschikbaar voor nieuwe gebruikers en worden binnen het jaar voor bestaande gebruikers uitgefaseerd.

De wijzigingen maken deel uit van een streven van Microsoft naar strengere controles van zijn kunstmatige-intelligentieproducten. Na een evaluatie van twee jaar heeft een team van Microsoft een “Responsible AI Standard” ontwikkeld, een document van 27 pagina’s waarin de vereisten voor AI-systemen worden uiteengezet om ervoor te zorgen dat ze geen schadelijke impact op de samenleving zullen hebben.

De vereisten omvatten het waarborgen dat systemen “geldige oplossingen bieden voor de problemen waarvoor ze zijn ontworpen om op te lossen” en “een vergelijkbare kwaliteit van dienstverlening voor geïdentificeerde demografische groepen, inclusief gemarginaliseerde groepen.”

Voordat ze worden vrijgegeven, worden technologieën die zouden worden gebruikt om belangrijke beslissingen te nemen over iemands toegang tot werk, onderwijs, gezondheidszorg, financiële diensten of een kans in het leven onderworpen aan een beoordeling door een team onder leiding van Natasha Crampton, de verantwoordelijke AI-functionaris van Microsoft .

Er waren verhoogde zorgen bij Microsoft over de tool voor emotieherkenning, die iemands uitdrukking bestempelde als woede, minachting, walging, angst, geluk, neutraal, verdriet of verrassing.

“Er is een enorme hoeveelheid culturele, geografische en individuele variatie in de manier waarop we ons uiten,” zei mevrouw Crampton. Dat leidde tot bezorgdheid over de betrouwbaarheid, samen met de grotere vragen of “gezichtsuitdrukking een betrouwbare indicator is van je interne emotionele toestand”, zei ze.

De instrumenten voor leeftijds- en geslachtsanalyse die worden geëlimineerd — samen met andere hulpmiddelen om gezichtskenmerken zoals haar en glimlach te detecteren — zouden nuttig kunnen zijn om visuele beelden te interpreteren voor bijvoorbeeld blinden of slechtzienden, maar het bedrijf besloot dat het problematisch was om de profileringstools die algemeen beschikbaar zijn voor het publiek, zei mevrouw Crampton.

In het bijzonder, voegde ze eraan toe, was de zogenaamde genderclassificatie van het systeem binair, “en dat is niet consistent met onze waarden.”

Microsoft zal ook nieuwe controles op zijn gezichtsherkenningsfunctie plaatsen, die kunnen worden gebruikt om identiteitscontroles uit te voeren of naar een bepaalde persoon te zoeken. Uber gebruikt bijvoorbeeld de software in zijn app om te controleren of het gezicht van een bestuurder overeenkomt met de ID die is geregistreerd voor het account van die bestuurder. Softwareontwikkelaars die de gezichtsherkenningstool van Microsoft willen gebruiken, moeten toegang aanvragen en uitleggen hoe ze deze willen inzetten.

Gebruikers moeten ook een aanvraag indienen en uitleggen hoe ze andere potentieel misbruikende AI-systemen zullen gebruiken, zoals Custom Neural Voice. De service kan een menselijke stemafdruk genereren, gebaseerd op een voorbeeld van iemands spraak, zodat auteurs bijvoorbeeld synthetische versies van hun stem kunnen maken om hun audioboeken te lezen in talen die ze niet spreken.

Vanwege het mogelijke misbruik van de tool – om de indruk te wekken dat mensen dingen hebben gezegd die ze niet hebben gezegd – moeten sprekers een reeks stappen doorlopen om te bevestigen dat het gebruik van hun stem is toegestaan, en de opnames bevatten watermerken die door Microsoft kunnen worden gedetecteerd .

“We nemen concrete stappen om onze AI-principes na te leven”, zegt mevrouw Crampton, die 11 jaar als advocaat bij Microsoft heeft gewerkt en in 2018 lid is geworden van de ethische AI-groep. “Het wordt een enorme reis. ”

Microsoft heeft, net als andere technologiebedrijven, problemen gehad met zijn kunstmatig intelligente producten. In 2016 bracht het een chatbot op Twitter uit, genaamd Tay, die was ontworpen om “conversationeel begrip” te leren van de gebruikers waarmee het interactie had. De bot begon al snel racistische en beledigende tweets te spuien, en Microsoft moest het verwijderen.

In 2020 ontdekten onderzoekers dat spraak-naar-tekst-tools ontwikkeld door Microsoft, Apple, Google, IBM en Amazon minder goed werkten voor zwarte mensen. Het systeem van Microsoft was het beste van het stel, maar identificeerde 15 procent van de woorden voor blanke mensen verkeerd, vergeleken met 27 procent voor zwarte mensen.

Het bedrijf had diverse spraakgegevens verzameld om zijn AI-systeem te trainen, maar had niet begrepen hoe divers taal kon zijn. Dus huurde het een sociolinguïstiek-expert in van de Universiteit van Washington om de taalvariëteiten uit te leggen waarover Microsoft moest weten. Het ging verder dan demografie en regionale variatie in hoe mensen spreken in formele en informele situaties.

“Als je denkt dat ras een bepalende factor is voor hoe iemand spreekt, is dat eigenlijk een beetje misleidend”, zei mevrouw Crampton. “Wat we in overleg met de expert hebben geleerd, is dat er in feite een enorm scala aan factoren van invloed is op taalvariatie.”

Mevrouw Crampton zei dat de reis om die ongelijkheid tussen spraak en tekst op te lossen, had geholpen bij het informeren van de richtlijnen die zijn uiteengezet in de nieuwe normen van het bedrijf.

“Dit is een kritieke normerende periode voor AI”, zei ze, wijzend op de voorgestelde Europese regelgeving die regels en limieten stelt aan het gebruik van kunstmatige intelligentie. “We hopen met onze standaard te kunnen bijdragen aan de heldere, noodzakelijke discussie die moet worden gevoerd over de normen waaraan technologiebedrijven zich moeten houden.”

Er is al jaren een levendig debat gaande over de mogelijke schade van AI in de technologiegemeenschap, gevoed door fouten en fouten die echte gevolgen hebben voor het leven van mensen, zoals algoritmen die bepalen of mensen al dan niet een uitkering krijgen. De Belastingdienst heeft ten onrechte kinderbijslag afgepakt van behoeftige gezinnen toen een gebrekkig algoritme mensen met een dubbele nationaliteit bestrafte.

Geautomatiseerde software voor het herkennen en analyseren van gezichten is bijzonder controversieel. Vorig jaar sloot Facebook zijn tien jaar oude systeem voor het identificeren van mensen op foto’s af. De vice-president van kunstmatige intelligentie van het bedrijf noemde de “veel zorgen over de plaats van gezichtsherkenningstechnologie in de samenleving.”

Verschillende zwarte mannen zijn ten onrechte gearresteerd na gebrekkige gezichtsherkenningsmatches. En in 2020, op hetzelfde moment als de Black Lives Matter-protesten na de politiemoord op George Floyd in Minneapolis, hebben Amazon en Microsoft moratorium uitgevaardigd op het gebruik van hun gezichtsherkenningsproducten door de politie in de Verenigde Staten, met duidelijkere wetten op de gebruik nodig waren.

Sindsdien hebben Washington en Massachusetts regelgeving aangenomen die onder meer gerechtelijk toezicht vereist op het gebruik van gezichtsherkenningstools door de politie.

Mevrouw Crampton zei dat Microsoft had overwogen om zijn software beschikbaar te stellen aan de politie in staten met wetten in de boeken, maar voorlopig had besloten dit niet te doen. Ze zei dat dat zou kunnen veranderen als het juridische landschap veranderde.

Arvind Narayanan, een Princeton-professor in computerwetenschappen en prominente AI-expert, zei dat bedrijven misschien afstand nemen van technologieën die het gezicht analyseren omdat ze “meer visceraal waren, in tegenstelling tot verschillende andere soorten AI die misschien twijfelachtig zijn, maar die we niet noodzakelijkerwijs in onze botten voelen.”

Bedrijven kunnen zich ook realiseren dat, althans voorlopig, sommige van deze systemen niet zo commercieel waardevol zijn, zei hij. Microsoft kon niet zeggen hoeveel gebruikers het had voor de gezichtsanalysefuncties die het verwijdert. De heer Narayanan voorspelde dat bedrijven minder snel afstand zouden doen van andere invasieve technologieën, zoals gerichte advertenties, waarbij mensen worden geprofileerd om de beste advertenties te kiezen om ze te laten zien, omdat ze een ‘geldkoe’ zijn.

Leave a Comment