09:57 2024-04-24
extpolitic - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ Chatbots AI refuză să producă rezultate „controversate” - De ce este o problemă de exprimare liberăGoogle a făcut recent titluri la nivel global, deoarece botul său de chat Gemini a generat imagini cu persoane de culoare în loc de persoane albe Discuțiile despre înclinațiile politice ale AI și eforturile de a combate părtinirile sunt importante.Totuși, conversația despre inteligența artificială ignoră o altă problemă crucială: Care este abordarea industriei inteligenței artificiale față de libertatea de exprimare și îmbrățișează standardele internaționale privind libertatea de exprimare? Suntem cercetători de politici care IA generativă este un tip de Politicile de utilizare vagi și ampleRaportul nostru a analizat politicile de utilizare a șase chatbot-uri AI majore, inclusiv Gemini de la Google și ChatGPT de la OpenAI.Companiile emit politici pentru a stabili reguli pentru modul în care oamenii își pot folosi modelele.Având drept reper legea internațională a drepturilor omului, am constatat că politicile companiilor de dezinformare și discurs instigator la ură sunt prea vagi și expansive.Este demn de remarcat faptul că legea internațională a drepturilor omului protejează mai puțin libertatea de exprimare decât Primul Amendament al SUA. Analiza noastră a constatat că politicile companiilor privind discursul instigator la ură conțin interdicții Pentru a arăta cât de vagi și extinse de utilizare pot afecta utilizatorii, am testat o serie de solicitări pe subiecte controversate.Le-am adresat chatboților întrebări precum dacă femeilor transgender ar trebui sau nu să li se permită să participe la turneele sportive pentru femei sau despre rolul colonialismului european în criza actuală a climatului și a inegalității.Nu le-am cerut chatboților să producă un discurs instigator la ură care denigrează vreo parte sau grup.Similar cu Libertatea de exprimare este un drept fundamental în S.U.A., dar ceea ce înseamnă și până unde ajunge sunt încă dezbătute pe larg. Politicile formulate vag se bazează în mare măsură pe opiniile subiective ale moderatorilor despre ce este discursul instigator la ură.De asemenea, utilizatorii pot percepe că regulile sunt aplicate în mod nedrept și le pot interpreta ca fiind prea stricte sau prea îngăduitoare. De exemplu, Definirea a ceea ce constituie informații exacte are și implicații politice.Guvernele mai multor țări au folosit regulile adoptate în contextul pandemiei de COVID-19 pentru a Cultura libertății de exprimareExistă motive pentru care furnizorii de inteligență artificială ar putea dori să adopte politici restrictive de utilizare.Ar putea dori să-și protejeze reputația și să nu fie asociați cu conținut controversat. Dacă deservesc un public global, ar putea dori să evite conținutul care este ofensator în orice regiune. În general, furnizorii de AI au dreptul de a adopta politici restrictive.Ei nu sunt legați de drepturile internaționale ale omului.Cu toate acestea, Politicile acestor companii au un efect uriaș asupra dreptului de acces la informații.Este posibil ca acest efect să crească odată cu integrarea IA generativă în Aceasta înseamnă că societatea are un interes să se asigure că astfel de politici protejează în mod adecvat libertatea de exprimare.De fapt, Jacob Mchangama discută despre libertatea de exprimare online în contextul Legii privind serviciile digitale din 2022 a Uniunii Europene. Această obligație, Chiar și în cazul în care o obligație legală similară nu se aplică furnizorilor de inteligență artificială, considerăm că influența companiilor ar trebui să le oblige să adopte o cultură a libertății de exprimare. Drepturile internaționale ale omului oferă o stea ghidătoare utilă asupra modului în care pentru a echilibra în mod responsabil diferitele interese în joc.Cel puțin două dintre companiile pe care ne-am concentrat – Refuzuri categoriceDe asemenea, este important să rețineți că utilizatorii au un grad semnificativ de autonomie față de conținutul pe care îl văd în IA generativă.La fel ca motoarele de căutare, rezultatele pe care utilizatorii le primesc depinde în mare măsură de solicitările lor. Prin urmare, expunerea utilizatorilor la discursurile instigatoare la ură și dezinformarea din IA generativă va fi de obicei limitată, cu excepția cazului în care o caută în mod specific. Acest lucru este spre deosebire de rețelele sociale, unde oamenii au mult mai puțin control asupra propriilor fluxuri.Controalele mai stricte, inclusiv asupra conținutului generat de inteligență artificială, pot fi justificate la nivelul rețelelor sociale, deoarece acestea distribuie conținut public.Pentru furnizorii de inteligență artificială, considerăm că politicile de utilizare ar trebui să fie mai puțin restrictive cu privire la informațiile pe care utilizatorii le pot genera decât cele ale platformelor de social media. Companiile AI au alte modalități de a aborda discursul instigator la ură și dezinformarea.De exemplu, ele pot furniza context sau fapte compensatorii în conținutul pe care îl generează.Ele pot permite, de asemenea, o personalizare mai mare a utilizatorului.Credem că chatbot-ii ar trebui să evite pur și simplu refuzul de a genera orice conținut.Acest lucru cu excepția cazului în care există motive solide de interes public, cum ar fi prevenirea materialelor abuzive sexuale asupra copiilor, lucru interzis de lege. Refuzurile de a genera conținut nu afectează doar drepturile fundamentale la libertatea de exprimare și accesul la informații.De asemenea, pot împinge utilizatorii către chatboți care
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu