![]() Comentarii Adauga Comentariu _ Legislatorii se luptă să diferențieze AI și e-mailurile umane![]() _ Legislatorii se străduiesc să diferențieze AI și e-mailurile umaneModelele de limbaj natural, cum ar fi ChatGPT și GPT-4, deschid noi oportunități pentru actorii rău intenționați de a influența democrația reprezentativă, sugerează o nouă cercetare Cornell. Un experiment pe teren investigarea modului în care modelul în limbaj natural GPT-3, predecesorul celui mai recent model lansat, ar putea fi utilizat pentru a genera mesaje de e-mail constitutive a arătat că legislatorii au fost doar puțin mai puțin probabil să răspundă la mesajele generate de AI (15,4%) decât cele generate de oameni. (17,3%). Diferenta de 2%, adunata din peste 32.000 de mesaje trimise catre aproximativ 7.000 de legislatori de stat din SUA, a fost semnificativa din punct de vedere statistic, dar substantial mica, au spus cercetatorii. Rezultatele evidențiază potențialele amenințări pe care această tehnologie le prezintă pentru reprezentarea democratică, dar sugerează și modalități în care legiuitorii s-ar putea proteja împotriva astroturfing-ului sursă de AI, practica necinstită de a crea un sentiment de sprijin la nivel local, în acest caz prin trimiterea unor volume mari de conținut simpatic unui anumit problema. Studiul, „The Potential Impact of Emerging Technologies on Democratic Representation: Evidence from a Field Experiment”, în colaborare cu Sarah Kreps, profesor John L. Wetherill în Departamentul de Guvernare din Colegiul de Arte și Științe (A&S), director al Institutului de Politică Tehnologică a Școlii Cornell Jeb E. Brooks și profesor adjunct de drept, și Douglas Kriner, profesor Clinton Rossiter în Instituții Americane în Departamentul de Guvernare (A&S) și profesor la Brooks School, publicată pe 20 martie în New Media and Society. În ultimii ani, noile tehnologii de comunicare au interferat cu procesul democratic de mai multe ori, spuse Kreps. La alegerile prezidențiale din SUA din 2016, agenții ruși au folosit reclame micro-țintite pe rețelele sociale pentru a manipula alegătorii americani și pentru a influența rezultatul. Și în 2017, liniile de comentarii publice ale Comisiei Federale de Comunicații au fost inundate cu milioane de mesaje generate de modele de limbaj natural, ca răspuns la o propunere de retragere a reglementărilor. Având în vedere acestea, Kreps, care a fost un academic timpuriu colaborator al OpenAI, organizația care a dezvoltat GPT-2, -3 și -4 și ChatGPT, mai popular, s-au întrebat ce ar putea face actorii rău intenționați cu modele de limbaj mai puternice acum disponibile pe scară largă. „Ar putea genera ei dezinformare sau conținut motivat politic, direcționat la scară?" ea a intrebat. „Ar putea ei să distorsioneze în mod eficient procesul democratic? Sau ar putea ei să genereze volume mari de e-mailuri care par să provină de la alegători și, prin urmare, să schimbe agenda legislativă spre interesele unui guvern străin?” În experimentul lor, desfășurat pe tot parcursul anului 2020, Kreps și Kriner au ales șase probleme actuale: drepturile reproductive, poliția, nivelurile de impozitare, controlul armelor, politica de sănătate și politica educațională. Pentru a crea mesajele generate de oameni, studenții asociați cu Cornell Political Union, condusă de studenți, au redactat e-mailuri către legislatorii de stat cu privire la fiecare subiect, susținând poziția de dreapta sau de stânga. Apoi au produs o mașină. a generat scrisori de circumscripție folosind GPT-3, antrenând sistemul pe 12 litere (o poziție la dreapta și una stânga pentru fiecare dintre cele șase probleme). Ei au generat 100 de rezultate diferite pentru fiecare ideologie și subiect. Mulți legiuitori și personalul lor nu au respins conținutul generat de mașini ca fiind neautentic, au spus cercetătorii, așa cum se arată în mica diferență de răspunsuri între AI. și conținut uman în cele șase numere. Mai mult, mesajele privind controlul armelor și politica de sănătate au primit rate de răspuns practic identice, iar în politica educațională, rata de răspuns a fost mai mare pentru mesajele generate de IA, sugerând că „în aceste aspecte GPT-3 a reușit să producă conținut care aproape că nu se distinge în ochii birourilor legislative de stat de conținutul uman”, au scris aceștia. În feedback-ul după experiment, legislatorii de stat au împărtășit modul în care aleg e-mailurile false, cum ar fi lipsa markerilor geografici. Unii au spus că reprezintă districte atât de mici încât pot depista falsurile pur și simplu uitându-se la un nume. „A fost încurajator să aud că mulți dintre acești legiuitori își înțeleg cu adevărat alegătorii și vocile lor și că acești AI- mesajele generate nu suna deloc ca ceva ce ar scrie alegătorii lor”, a spus Kreps. Cu toate acestea, astfel de indicii locale despre autenticitate ar fi mai dificil de identificat pentru senatorii și reprezentanții la nivel național, au spus cercetătorii. Instrumentele tehnologice care folosesc același tip de rețele neuronale pot ajuta la diferențierea mesajelor reale de cele false, „dar la fel pot face un ochi cu discernământ și alfabetizarea digitală”, a spus Kreps. „Legislatorii trebuie să fie instruiți să știe ce să caute.” Pe măsură ce capacitatea de astroturfing electronic crește, legislatorii ar putea fi nevoiți să se bazeze mai mult pe alte surse de informații despre preferințele circumscripției electorale, a spus Kriner, inclusiv districtul. datele sondajelor și evenimentele în persoană: „Ei călătoresc în circumscripțiile lor, ținând întâlniri ale orașului și primesc o atenție directă, cel puțin de la cei mai animați cu privire la o problemă.” Ambele cercetători sunt optimiști că democrația în America va supraviețuiesc acestei noi amenințări. „Puteți argumenta că trecerea de la a sta jos și a scrie o scrisoare la a scrie un e-mail a fost mult mai mare decât între șabloanele de e-mail online standard și GPT-3”, a spus Kreps. „Ne-am adaptat înainte și instituțiile democratice o vor face din nou.”
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu