![]() Comentarii Adauga Comentariu _ Poate părtinirea algoritmilor să ne ajute să ne vedem pe ale noastre?![]() _ Poate părtinirea algoritmilor să ne ajute să vedem al nostru?Algoritmii trebuiau să ne facă viața mai ușoară și mai echitabilă: să ne ajute să găsim cei mai buni candidați de locuri de muncă, să ajutăm judecătorii să evalueze în mod imparțial riscurile deciziilor privind cauțiune și cauțiune și să ne asigurăm că asistența medicală este oferită pacientii cu cea mai mare nevoie. Până acum, totuși, știm că algoritmii pot fi la fel de părtinitori ca factorii de decizie umani pe care îi informează și îi înlocuiesc. Dar dacă nu ar fi un lucru rău? Nou Cercetarea lui Carey Morewedge, profesor de marketing al Questrom School of Business de la Universitatea din Boston și Everett W. Lord Distinguished Faculty Scholar, a descoperit că oamenii își recunosc mai multe părtiniri în deciziile algoritmilor decât în propriile lor decizii – chiar și atunci când acele decizii sunt aceleași. . Cercetarea, publicată în Proceedings of the National Academy of Sciences, sugerează modalități prin care conștientizarea ar putea ajuta factorii de decizie umani să recunoască și să corecteze părtinirile lor. „O problemă socială este aceea că algoritmii învață și, la scară, , lansează părtiniri în deciziile umane asupra cărora au fost instruiți”, spune Morewedge, care conduce și departamentul de marketing al Questrom. De exemplu: în 2015, Amazon a testat (și în curând a abandonat) un algoritm pentru a-și ajuta managerii de angajare să filtreze prin solicitanții de locuri de muncă. Ei au descoperit că programul a stimulat CV-urile pe care le percepea că provin de la candidați bărbați și le-a declasat pe cele de la candidați de sex feminin, un caz clar de părtinire de gen. Dar în același an, doar 39% din forța de muncă a Amazon erau femei. Dacă algoritmul ar fi fost instruit pe datele de angajare existente ale Amazon, nu este de mirare că a acordat prioritate candidaților bărbați – Amazon era deja. Dacă algoritmul său a avut o părtinire de gen, „este pentru că managerii Amazon au fost părtinitori în deciziile lor de angajare”, spune Morewedge. „Algoritmii pot codifica și amplifica părtinirea umană, dar algoritmii dezvăluie și părtiniri structurale în societatea noastră. " el spune. „Multe părtiniri nu pot fi observate la nivel individual. Este greu de dovedit părtinirea, de exemplu, într-o singură decizie de angajare. Dar atunci când adunăm deciziile în interiorul și între persoane, așa cum facem atunci când construim algoritmi, poate dezvălui părtiniri structurale în sistemele și organizațiile noastre.” Morewedge și colaboratorii săi — Begüm Çeliktutan și Romain Cadario, ambii de la Universitatea Erasmus din Țările de Jos — au conceput o serie de experimente menite să dezvăluie părtinirile sociale ale oamenilor (inclusiv rasismul, sexismul, și vârstismul). Echipa a comparat apoi recunoașterea participanților la cercetare a modului în care acele prejudecăți și-au colorat propriile decizii cu deciziile luate de un algoritm. În experimente, participanții au văzut uneori deciziile algoritmilor reali. Dar a existat o captură: alteori, deciziile atribuite algoritmilor erau de fapt alegerile participanților, deghizate. În general, participanții aveau mai multe șanse să vadă părtiniri în deciziile despre care credeau că provin de la algoritmi. decât în propriile decizii. De asemenea, participanții au văzut la fel de multă părtinire în deciziile algoritmilor precum au văzut în deciziile altor persoane. (Oamenii recunosc, în general, mai bine prejudecățile în alții decât în ei înșiși, un fenomen numit punctul oarb al părtinirii.) De asemenea, participanții au avut mai multe șanse să corecteze părtinirea în acele decizii după fapt, un pas crucial pentru a minimiza părtinirea în viitor. Cercetătorii au condus seturi de participanți, peste 6.000 în total, prin nouă experimente. În primul, participanții au evaluat un set de înregistrări Airbnb, care includeau câteva informații despre fiecare înregistrare: evaluarea medie cu stele (pe o scară de la 1 la 5) și numele gazdei. Cercetătorii au atribuit aceste listări fictive gazdelor cu nume care erau „diferențial afro-americane sau albe”, pe baza cercetărilor anterioare care identificau părtinirea rasială, potrivit lucrării. Participanții au evaluat cât de probabil au să închirieze fiecare listă. În a doua jumătate a experimentului, participanților li s-a spus despre o descoperire a cercetării care a explicat modul în care rasa gazdei ar putea influența evaluările. Apoi, cercetătorii le-au arătat participanților un set de evaluări și le-au cerut să evalueze (pe o scară de la 1 la 7) cât de probabil este ca părtinirea să fi influențat evaluările. Participanții au văzut fie propria lor evaluare reflectată. pentru ei, propria lor evaluare sub masca unui algoritm, propria lor evaluare sub masca altcuiva sau o evaluare reală a algoritmului bazată pe preferințele lor. Cercetătorii au repetat această configurație de mai multe ori, testând pentru ei. prejudecăți de rasă, sex, vârstă și atractivitate în profilurile șoferilor Lyft și ale gazdelor Airbnb. De fiecare dată, rezultatele au fost consistente. Participanții care credeau că au văzut evaluările unui algoritm sau evaluările altcuiva (indiferent dacă au fost sau nu de fapt) au avut mai multe șanse să perceapă părtiniri în rezultate. Morewedge atribuie acest lucru diferitelor dovezi pe care le folosim pentru a evalua părtinirea în ceilalți și părtinire în noi înșine. Din moment ce avem o perspectivă asupra propriului nostru proces de gândire, spune el, este mai probabil să ne întoarcem prin gândirea noastră și să decidem că nu a fost părtinitoare, poate determinată de un alt factor care a intrat în deciziile noastre. Când analizăm deciziile altor oameni, totuși, tot ce trebuie să judecăm este rezultatul. „Să presupunem că organizezi un grup de vorbitori pentru un eveniment”, spune Morewedge. „Dacă toți acei vorbitori sunt bărbați, ați putea spune că rezultatul nu a fost rezultatul unei părtiniri de gen, deoarece nici măcar nu v-ați gândit la gen atunci când i-ați invitat pe acești vorbitori. Dar dacă ați fi participat la acest eveniment și ați vedea un panel cu toate - vorbitori de sex masculin, este mai probabil să concluzionați că a existat o prejudecată de gen în selecție.” Într-adevăr, într-unul dintre experimentele lor, cercetătorii au descoperit că participanții care erau mai predispuși la acest punct orb părtinitor au fost, de asemenea, mai probabil să vadă părtiniri în deciziile atribuite algoritmilor sau altora decât în propriile lor decizii. Într-un alt experiment, ei au descoperit că oamenii și-au văzut mai ușor propriile decizii influențate de factori care erau destul de neutri sau rezonabili, cum ar fi ratingul cu stele a gazdei Airbnb, în comparație cu o părtinire prejudiciabilă, cum ar fi rasa - poate pentru că admiterea că preferă un 5. Închirierea de stele nu este la fel de amenințătoare pentru sentimentul de sine sau pentru modul în care ne-ar putea vedea alții, sugerează Morewedge. În experimentul final al cercetătorilor, ei le-au oferit participanților șansa de a corecta părtinirea fie a evaluărilor lor, fie a evaluările unui algoritm (reale sau nu). Oamenii au avut mai multe șanse să corecteze deciziile algoritmului, ceea ce a redus părtinirea reală a evaluărilor sale. Acesta este pasul crucial pentru Morewedge și colegii săi, spune el. Pentru oricine este motivat să reducă prejudecățile, posibilitatea de a-l vedea este primul pas. Cercetările lor prezintă dovezi că algoritmii pot fi folosiți ca oglinzi — o modalitate de a identifica părtinirea chiar și atunci când oamenii nu o pot vedea în ei înșiși. „În acest moment, cred că literatura despre părtinirea algoritmică este sumbră.” spune Morewedge. „Multe dintre ele spun că trebuie să dezvoltăm metode statistice pentru a reduce prejudecățile în algoritmi. Dar o parte a problemei este că prejudecățile provin de la oameni. Ar trebui să lucrăm pentru a face algoritmii mai buni, dar ar trebui să lucrăm și pentru a fi mai puțin părtinitori. „Ceea ce este interesant la această lucrare este că arată că algoritmii pot codifica sau amplifica părtinirea umană, dar algoritmii pot fi, de asemenea, instrumente pentru a ajuta oamenii să-și vadă mai bine propriile părtiniri și să le corecteze”, spune el. „Algoritmii sunt o sabie cu două tăișuri. Ele pot fi un instrument care amplifică cele mai rele tendințe ale noastre. Iar algoritmii pot fi un instrument care ne poate ajuta să ne îmbunătățim.”
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu