18:00 2024-03-08
crimes - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ ChatGPT „discriminează rasial” pe cei care caută un loc de muncă prin filtrarea „numelor negre” în căutările de recrutare_ ChatGPT „discriminează rasial” persoanelor în căutarea unui loc de muncă prin filtrarea „numelor negre” în căutările de recrutareCând i s-a cerut de 1000 de ori să clasifice opt CV-uri la fel de calificate pentru un rol real de analist financiar la o companie Fortune 500, ChatGPT a fost cel mai puțin probabil să aleagă CV-ul cu un nume distinct pentru americanii de culoare. Cv-urile cu nume distincte pentru femeile asiatice au fost clasate de bot drept candidatul de top pentru rolul de analist financiar de mai mult de două ori mai des decât cele cu nume distinct de bărbații de culoare. Același experiment a fost efectuat folosind patru tipuri diferite de locuri de muncă disponibile, inclusiv partener de afaceri HR, inginer senior de software, manager de retail și rolul de analist financiar. Analiza a constatat că preferințele de sex și rasă ale ChatGPT diferă în funcție de jobul pentru care a fost evaluat un candidat. Negrii americani au fost cel mai puțin probabil să fie clasați ca candidați de top pentru analist financiar. și roluri de inginer software, potrivit Bloomberg. Botul a clasat rareori numele asociate bărbaților drept candidatul de top pentru poziții dominate istoric de femei, cum ar fi pozițiile de retail și HR. Femeile hispanice au avut aproape de două ori mai multe șanse de a fi clasate drept candidatul de top pentru un rol de HR în comparație cu CV-urile cu nume distincte pentru bărbați. Ca răspuns la constatările pe care OpenAI le-a spus Bloomberg este posibil ca rezultatele obținute prin utilizarea modelelor GPT „out-of-the-box” să nu reflecte rezultatele produse de clienții produsului lor, care sunt capabili să ajusteze răspunsurile software-ului pentru nevoile lor individuale de angajare. Afacerile ar putea, de exemplu, să elimine nume înainte de a atribui CV-urile într-un model GPT, a explicat Open AI. OpenAI efectuează, de asemenea, în mod regulat, teste adverse și red-teaming pe modelele sale pentru a verifica cât de rău actorii le-ar putea folosi pentru rău, a adăugat compania. SeekOut, o companie de tehnologie de resurse umane și-a dezvoltat propriul instrument de recrutare AI care preia o descriere a postului dintr-o listă, o rulează prin GPT, apoi arată o listă clasată a candidaților pentru postul din locuri precum LinkedIn și Github. Sam Shaddox, consilierul general la SeekOut, a declarat pentru Bloomberg că sute de companii folosesc deja instrumentul, inclusiv firme de tehnologie și companii Fortune 10. „Din perspectiva mea, a spune: „Hei, există toate aceste părtiniri, dar doar o vom ignora” nu este răspunsul potrivit”, a spus Shaddox. „Cea mai bună soluție pentru aceasta este GPT — tehnologie mare de model de învățare a limbilor străine, care poate identifica unele dintre aceste prejudecăți, pentru că atunci puteți lucra efectiv pentru a le depăși.” Emily Bender, profesor de lingvistică computațională la Universitatea din Washington, este mai sceptic. Bender susține că oamenii tind să creadă că mașinile sunt imparțiale în luarea deciziilor, în special în comparație cu oamenii, un fenomen numit părtinire de automatizare. Cu toate acestea, dacă astfel de sisteme „au ca rezultat un model de decizii discriminatorii de angajare, este ușor să ne imaginăm companiile care le folosesc spunând: „Ei bine, nu am avut nicio părtinire aici, am făcut doar ceea ce ne-a spus computerul să facem.”
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu