![]() Comentarii Adauga Comentariu _ Chaturile cu AI schimbă atitudinile cu privire la schimbările climatice, Black Lives Matter![]() _ Conversați cu AI schimbă atitudinile cu privire la schimbările climatice, Black Lives MatterOamenii care erau mai sceptici față de schimbările climatice cauzate de oameni sau mișcarea Black Lives Matter și care au luat parte la conversația cu un chatbot popular AI au fost dezamăgiți de experiență. , dar a lăsat conversația mai susținătoare a consensului științific privind schimbările climatice sau BLM. Acest lucru este potrivit cercetătorilor care studiază modul în care acești roboti de chat gestionează interacțiunile de la oameni cu medii culturale diferite. Oamenii pricepuți se pot adapta la înclinațiile politice și așteptările culturale ale partenerilor lor de conversație pentru a se asigura că sunt înțeleși, dar mai mult și mai des, oamenii se găsesc în conversație cu programe de calculator, numite modele de limbaj mari, menite să imite modul în care oamenii comunică. Cercetătorii de la Universitatea Wisconsin-Madison care studiază IA au vrut să înțeleagă cum o limbă mare complexă modelul, GPT-3, ar avea rezultate într-un grup divers de utilizatori din punct de vedere cultural în discuții complexe. Modelul este un precursor al celui care alimentează ChatGPT de profil înalt. Cercetătorii au recrutat peste 3.000 de oameni la sfârșitul anului 2021 și începutul lui 2022 pentru a avea conversații în timp real cu GPT-3 despre schimbările climatice și BLM. „Obiectivul fundamental al unei astfel de interacțiuni între două persoane (sau agenți) este de a crește înțelegerea reciprocă a perspectivei celuilalt”, spune Kaiping Chen, profesor de comunicare în științele vieții, care studiază modul în care oamenii discută despre știință și deliberează asupra problemelor politice conexe — adesea prin intermediul tehnologiei digitale. „Un model de limbaj mare bun i-ar face probabil pe utilizatori să simtă același tip de înțelegere.” Chen și Yixuan „Sharon” Li, profesor de informatică UW–Madison, care studiază siguranța și fiabilitatea sistemelor AI , împreună cu studenții lor Anqi Shao și Jirayu Burapacheep (acum student absolvent la Universitatea Stanford), și-au publicat rezultatele luna aceasta în jurnalul Scientific Reports. Participanții la studiu au fost instruiți să inițieze o conversație cu GPT- 3 printr-o configurație de chat pe care Burapacheep a proiectat-o. Participanților li s-a spus să discute cu GPT-3 despre schimbările climatice sau BLM, dar au fost lăsați să abordeze experiența așa cum doreau. Conversația medie s-a dus înainte și înapoi aproximativ opt ture. Majoritatea participanților au ieșit din chat cu niveluri similare de satisfacție a utilizatorilor. „Le-am pus o grămadă de întrebări— Îți place? L-ai recomanda? — despre experiența utilizatorului”, spune Chen. „În ceea ce privește sexul, rasa, etnia, nu există prea multe diferențe în evaluările lor. Unde am văzut diferențe mari a fost între opiniile despre probleme controversate și diferite niveluri de educație.” Aproximativ 25% dintre participanți care au raportat Cele mai scăzute niveluri de acord cu consensul științific cu privire la schimbările climatice sau cel mai puțin acord cu BLM au fost, în comparație cu celelalte 75% dintre conversatori, mult mai nemulțumiți de interacțiunile lor GPT-3. Ei au acordat scorurilor botului cu jumătate de punct sau mai puțin pe o scară de 5 puncte. În ciuda scorurilor mai mici, chatul le-a schimbat gândirea asupra subiectelor fierbinți. Sutele de oameni care au susținut cel mai puțin faptele schimbărilor climatice și cauzele sale determinate de oameni s-au mutat împreună cu 6% mai aproape de capătul de susținere al scalei. „Au arătat în sondajele lor post-chat. că au schimbări mai mari de atitudine pozitivă după conversația cu GPT-3”, spune Chen. „Nu voi spune că au început să recunoască în totalitate schimbările climatice cauzate de om sau dintr-o dată susțin Black Lives Matter, dar când am repetat întrebările din sondajul nostru despre acele subiecte după conversațiile lor foarte scurte, a avut loc o schimbare semnificativă: atitudini mai pozitive față de opiniile majoritare despre schimbările climatice sau BLM.” GPT-3 a oferit stiluri de răspuns diferite între cele două subiecte, inclusiv o mai mare justificare pentru schimbările climatice cauzate de om. „A fost interesant. Oamenii care și-au exprimat oarecare dezacord cu schimbările climatice, GPT-3 era probabil să le spună că au greșit și să ofere dovezi care să susțină asta”, spune Chen. „Răspunsul lui GPT-3 la oamenii care au spus că nu prea susțin BLM a fost mai degrabă: „Nu cred că ar fi o idee bună să vorbim despre asta. Oricât de mult îmi place să vă ajut, aceasta este o chestiune. nu suntem cu adevărat de acord.'" Nu este un lucru rău, spune Chen. Echitatea și înțelegerea vin în forme diferite pentru a acoperi diferitele goluri. În cele din urmă, aceasta este speranța ei pentru cercetarea pe chatbot. Următorii pași includ explorări ale diferențelor mai fine dintre utilizatorii de chatbot, dar scopul lui Chen este dialogul funcțional între oameni divizați. „Nu vrem întotdeauna să facem utilizatorii fericiți. Am vrut ca ei să învețe. ceva, chiar dacă s-ar putea să nu le schimbe atitudinile”, spune Chen. „Ceea ce putem învăța dintr-o interacțiune prin chatbot despre importanța înțelegerii perspectivelor, valorilor, culturilor, este important pentru a înțelege cum putem deschide dialogul între oameni — genul de dialoguri care sunt importante pentru societate.”
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu