Tuesday, March 9, 2021
Home Technologie Bezorgd over de AI-ethiek van uw bedrijf? Deze startups zijn er...

Bezorgd over de AI-ethiek van uw bedrijf? Deze startups zijn er om te helpen.


Parity maakt deel uit van een groeiend aantal startups die organisaties veelbelovende manieren beloven om hun AI-modellen te ontwikkelen, monitoren en repareren. Ze bieden een scala aan producten en diensten, van tools voor het verminderen van vooroordelen tot platforms voor uitlegbaarheid. Aanvankelijk waren de meeste van hun klanten afkomstig uit sterk gereguleerde sectoren zoals financiën en gezondheidszorg. Maar door toegenomen onderzoek en media-aandacht over kwesties als vooringenomenheid, privacy en transparantie is de focus van het gesprek verschoven. Nieuwe klanten maken zich vaak gewoon zorgen over hun verantwoordelijkheid, terwijl anderen zich vooruit willen helpen met regelgeving.

“Zoveel bedrijven hebben hier voor het eerst echt mee te maken”, zegt Chowdhury. “Bijna allemaal vragen ze om hulp.”

Van risico naar impact

Bij het werken met nieuwe klanten vermijdt Chowdhury het gebruik van de term ‘verantwoordelijkheid’. Het woord is te zacht en slecht gedefinieerd; het laat te veel ruimte voor miscommunicatie. In plaats daarvan begint ze met een meer vertrouwd zakelijk jargon: het idee van risico. Veel bedrijven hebben risico- en compliance-armen en gevestigde processen voor risicobeperking.

AI-risicobeperking is niet anders. Een bedrijf moet beginnen met het overwegen van de verschillende dingen waar het zich zorgen over maakt. Dit kunnen juridische risico’s zijn, de mogelijkheid om de wet te overtreden; organisatierisico, de mogelijkheid om werknemers te verliezen; of reputatierisico, de mogelijkheid van een PR-ramp. Van daaruit kan het achteruit werken om te beslissen hoe zijn AI-systemen moeten worden gecontroleerd. Een financieringsmaatschappij die opereert onder de eerlijke leenwetgeving in de VS, zou zijn leenmodellen willen controleren op vooringenomenheid om juridische risico’s te beperken. Een telezorgbedrijf, wiens systemen trainen op gevoelige medische gegevens, zou privacy-audits kunnen uitvoeren om reputatierisico’s te verkleinen.

Parity bevat een bibliotheek met voorgestelde vragen om bedrijven te helpen het risico van hun AI-modellen te evalueren.

PARITEIT

Pariteit helpt om dit proces te organiseren. Het platform vraagt ​​een bedrijf eerst om een ​​interne impactanalyse op te stellen – in wezen een reeks open enquêtevragen over hoe zijn bedrijf en AI-systemen werken. Het kan ervoor kiezen om aangepaste vragen te schrijven of ze te selecteren uit de bibliotheek van Parity, die meer dan 1000 prompts bevat die zijn aangepast aan de ethische richtlijnen van AI en relevante wetgeving van over de hele wereld. Zodra de beoordeling is opgesteld, worden werknemers in het hele bedrijf aangemoedigd om deze in te vullen op basis van hun functie en kennis. Het platform voert hun antwoorden in vrije tekst vervolgens door een verwerkingsmodel in natuurlijke taal en vertaalt ze met het oog op de belangrijkste risicogebieden van het bedrijf. Met andere woorden, pariteit dient als de nieuwe tussenpersoon om datawetenschappers en advocaten op één lijn te krijgen.

Vervolgens beveelt het platform een ​​overeenkomstige reeks risicobeperkende maatregelen aan. Dit kan het maken van een dashboard zijn om continu de nauwkeurigheid van een model te bewaken, of het implementeren van nieuwe documentatieprocedures om bij te houden hoe een model is getraind en verfijnd in elke ontwikkelingsfase. Het biedt ook een verzameling open-source frameworks en tools die kunnen helpen, zoals die van IBM AI Fairness 360 voor bias monitoring of Google’s modelkaarten voor documentatie.

Chowdhury hoopt dat als bedrijven de tijd die nodig is om hun modellen te controleren, kunnen verkorten, ze meer gedisciplineerd zullen worden om het regelmatig en vaak te doen. Ze hoopt dat dit hen na verloop van tijd ook ertoe kan aanzetten om verder te denken dan risicobeperking. “Mijn stiekeme doel is eigenlijk om meer bedrijven te laten nadenken over impact en niet alleen over risico’s”, zegt ze. “Risico is de taal die mensen tegenwoordig begrijpen, en het is een zeer waardevolle taal, maar risico is vaak reactief en responsief. Impact is meer proactief, en dat is eigenlijk de betere manier om te kaderen wat we zouden moeten doen. “

Een verantwoordelijkheids-ecosysteem

Terwijl Parity zich richt op risicobeheer, is een andere startup, Fiddler, richt zich op uitlegbaarheid. CEO Krishna Gade begon na te denken over de behoefte aan meer transparantie in de manier waarop AI-modellen beslissingen nemen terwijl hij fungeerde als technisch manager van het nieuwsfeedteam van Facebook. Na de presidentsverkiezingen van 2016 deed het bedrijf een grote interne druk om beter te begrijpen hoe zijn algoritmen de inhoud rangschikken. Het team van Gade ontwikkelde een interne tool die later de basis werd van de “Waarom zie ik dit?” voorzien zijn van.



Source link

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in

- Advertisment -

Most Popular

De verkoop van schooluniformen stijgt voordat de heropening plaatsvindt

De vraag naar uniformen, computers en huishoudelijke accessoires nam toe nadat plannen werden gepubliceerd om de lockdown te vergemakkelijken. Source link

In de VS kunnen gevaccineerde mensen zich binnenshuis verzamelen, zegt de CDC.

Volledig gevaccineerde Amerikanen kunnen zich nu binnen verzamelen, zonder masker en zonder afstand te nemen - zolang het maar is met anderen die...

Sainsbury’s waarschuwt voor een nationaal tekort aan voedselzakken voor huisdieren

De winkelier heeft bijna geen voerzakjes voor honden en katten meer en waarschuwt dat het probleem in 2021 "aan de gang" zal zijn. Source...

Tyler Perry: De Amerikaanse mogol die Meghan en Harry een thuis gaf

Tyler Perry voorzag het paar van een herenhuis en veiligheid toen ze in 2020 uit Canada verhuisden. Source link

Recent Comments