16:53 2024-02-29
science - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ Algoritmii împing falsurile generate de AI într-un ritm alarmant. Cum oprim asta?_ Algoritmii împing falsurile generate de AI la un ritm alarmant. Cum oprim acest lucru?Instrumentele de inteligență artificială generativă (AI) supraalimentează problema dezinformarii, a dezinformarii și a știrilor false. ChatGPT de la OpenAI, Gemini de la Google și diverși generatori de imagini, voce și video au făcut mai ușor ca niciodată producerea de conținut, în timp ce este mai greu de spus ce este real sau real. Actorii rău intenționați care doresc să răspândească dezinformarea pot folosiți instrumente AI pentru a automatiza în mare măsură generarea de text convingător și înșelător. Acest lucru ridică întrebări stringente: cât de mult din conținutul pe care îl consumăm online este adevărat și cum putem determina autenticitatea acestuia? Și poate cineva să oprească asta? Nu este o preocupare inactivă. Organizațiile care doresc să influențeze în mod secret opinia publică sau să influențeze alegerile își pot extinde acum operațiunile cu AI la niveluri fără precedent. Iar conținutul lor este difuzat pe scară largă de motoarele de căutare și de rețelele sociale. La începutul acestui an, un studiu german privind calitatea conținutului în motoarele de căutare a remarcat „o tendință către conținut simplificat, repetitiv și potențial generat de inteligență artificială” pe Google. , Bing și DuckDuckGo. În mod tradițional, cititorii de știri se puteau baza pe controlul editorial pentru a susține standardele jurnalistice și a verifica faptele. Dar AI schimbă rapid acest spațiu. Într-un raport publicat în această săptămână, organizația de încredere pe internet NewsGuard a identificat 725 de site-uri web nesigure care publică știri și informații generate de AI „cu puțină sau deloc supraveghere umană”. Luna trecută, Google a lansat un instrument experimental AI pentru un grup select de editori independenți din Statele Unite. Folosind IA generativă, editorul poate rezuma articolele extrase dintr-o listă de site-uri web externe care produc știri și conținut relevante pentru publicul său. Ca o condiție a procesului, utilizatorii trebuie să publice trei astfel de articole pe zi. Platformele care găzduiesc conținut și dezvoltarea AI generativă estompează liniile tradiționale care permit încrederea în conținutul online. Australia a avut deja lupte între guvern și platformele online cu privire la afișarea și moderarea știrilor și conținutului. În 2019, guvernul australian a modificat codul penal pentru a impune eliminarea rapidă a „materialelor violente detestabile” de către platforme de social media. Ancheta Comisiei Australiane pentru Concurență și Consumatori (ACCC) privind dezechilibrele de putere dintre mass-media de știri australiene și platformele digitale a condus la implementarea în 2021 a unui cod de negociere care a forțat platformele să plătească mass-media pentru conținutul lor de știri. . Deși acestea ar putea fi considerate succese parțiale, ele demonstrează, de asemenea, amploarea problemei și dificultatea de a lua măsuri. Cercetarea noastră arată că aceste conflicte au văzut platformele online deschise inițial la schimbări. iar ulterior le-a rezistat, în timp ce guvernul australian a oscilat de la aplicarea măsurilor obligatorii la preferarea acțiunilor voluntare. În cele din urmă, guvernul și-a dat seama că bazarea pe promisiunile platformelor „ai încredere în noi” nu va duce la rezultatele dorite. Concluzia studiului nostru este că, odată ce produsele digitale devin parte integrantă a milioane de afaceri și a vieții de zi cu zi, ele servesc drept instrument pentru platforme, companii de inteligență artificială și tehnologii mari pentru a anticipa și a respinge guvernul. Având în vedere acest lucru, este corect să fii sceptic față de solicitările timpurii de reglementare a IA generativă de către liderii tehnologici precum Elon Musk și Sam Altman. Asemenea apeluri au dispărut pe măsură ce inteligența artificială ne pune stăpânire pe viețile noastre și pe conținutul online. O provocare constă în viteza absolută a schimbării, care este atât de rapidă încât măsurile de protecție pentru atenuarea riscurilor potențiale pentru societate nu sunt încă stabilite. . În consecință, Raportul Global Risc 2024 al Forumului Economic Mondial a prezis dezinformarea și dezinformarea ca fiind cele mai mari amenințări în următorii doi ani. Problema se înrăutățește datorită capacității AI generative de a crea conținut multimedia. Pe baza tendințelor actuale, ne putem aștepta la o creștere a incidentelor deepfake, deși platformele de social media precum Facebook răspund la aceste probleme. Acestea urmăresc să identifice și să eticheteze automat fotografiile, videoclipurile și sunetul generate de AI. Comisarul eSafety din Australia lucrează la modalități de a reglementa și de a atenua potențialele daune cauzate de IA generativă, echilibrând în același timp posibilitățile sale potențiale. O idee cheie este „siguranța prin proiectare”, care impune firmelor de tehnologie să plaseze aceste considerente de siguranță în centrul produselor lor. Alte țări, precum SUA, sunt mai avansate în ceea ce privește reglementarea AI. . De exemplu, recentul ordin executiv al președintelui american Joe Biden privind implementarea în siguranță a inteligenței artificiale impune companiilor să împărtășească rezultatele testelor de siguranță cu guvernul, reglementează testarea în echipă roșie (atacuri de hacking simulate) și ghidează filigranarea conținutului. Solicităm trei pași pentru a ajuta la protejarea împotriva riscurilor AI generative în combinație cu dezinformarea. Oamenii sunt conștienți de conținutul generat de AI este în creștere. În teorie, ei ar trebui să își ajusteze obiceiurile informaționale în consecință. Cu toate acestea, cercetările arată că, în general, utilizatorii tind să-și subestimeze propriul risc de a crede știri false în comparație cu riscul perceput pentru ceilalți. Găsirea de conținut de încredere nu ar trebui să implice analizarea conținutului generat de AI pentru a înțelege ceea ce este factual. Acest articol este republicat din The Conversation sub o licență Creative Commons. Citiți articolul original.
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu