![]() Comentarii Adauga Comentariu _ Opinie: Online Harms Act nu merge suficient de departe pentru a proteja democrația în Canada![]() _ Opinie: Legea privind prejudiciile online nu merge suficient de departe pentru a proteja democrația în CanadaRecenta propunere a guvernului liberal de reglementare a platformelor de social media, Online Harms Act (Legea C-63), vine ca act final într-o trilogie promisă de proiecte de lege care vizează aducerea oarecare ordine în lumea digitală. După încercări controversate de a aborda consecințele Legii știrilor online și amenințarea din partea platformelor de streaming online la conținutul canadian, acest proiect de lege final încearcă să identifice și să reglementeze conținutul dăunător. Online Harms Act urmează Europa, Regatul Unit și Australia în crearea unui nou organism de reglementare în încercarea de a aborda răspândirea a ceea ce este considerat conținut dăunător. Ideea că astfel de eforturi sunt necesare nu este controversată— conținutul care exploatează sexual copiii, de exemplu, a fost deja o țintă pentru aplicarea legii, iar discursul instigator la ură este ilegal de zeci de ani în majoritatea democrațiilor industrializate. Legile privind prejudiciile online se bazează pe ideea „răspunderii intermediare”. „: responsabilizarea legală a platformelor atunci când utilizatorii le folosesc pentru a distribui conținut care încalcă legile. În conformitate cu Legea împotriva prejudiciilor online, platformele vor fi obligate să elimine cu promptitudine două forme de conținut – cel care „victimizează sexual un copil. sau revictimizează un supraviețuitor” și „imagini intime postate fără consimțământ” – sau se confruntă cu amenzi mari. Dar include și măsuri mai puțin stricte pentru a face față altor forme de conținut dăunător, inclusiv promovarea terorismului sau a genocidului, incitare. la violență sau discurs instigator la ură. Platformele vor fi obligate să dezvolte și să facă publice planuri pentru „atenuarea riscului ca utilizatorii să fie expuși la conținut dăunător al serviciilor și să trimită planuri de siguranță digitală către Comisia de siguranță digitală din Canada”. Acolo. sunt, de asemenea, noi infracțiuni și sancțiuni penale pentru utilizatorii care încarcă aceste forme de conținut. Aceste prevederi au făcut obiectul unei mari dezbateri asupra proiectului de lege. Mulți libertari civili susțin că merg prea departe, în timp ce susținătorii grupurilor marginalizate cred că sunt așteptate de mult. Dar o mare parte a dezbaterii asupra acestor detalii specifice scapă o eșec mai profund al proiectului de lege, care derivă din modul în care este înțeleasă ideea de „vătămare online”. „Legal, dar îngrozitor” În mare parte a ultimului deceniu, oamenii de știință din media digitală au îndreptat atenția asupra diferitelor moduri în care comunicarea prin platformă ar trebui să fie considerată dăunătoare. Definiția conținutului dăunător din Bill C-63 se concentrează pe prejudiciile suferite de utilizatori atunci când întâlnesc anumite forme de conținut postate de alții. Dar platformele nu sunt doar spații goale pentru care utilizatorii pot trimite mesaje. alți utilizatori — aceștia joacă un rol activ în modelarea comunicării care are loc, determinând modul în care mesajele sunt combinate și sortate și cum distribuirea lor este prioritizată și limitată. Din acest motiv, algoritmii care amplifică sau suprimă anumite tipurile de mesaje ar trebui să fie, de asemenea, văzute ca o sursă de rău. Acest lucru este adesea înțeles drept motivul pentru care știrile false sau comentariile politice hiper-partizane sunt atât de problematice pe platforme. Chiar și comunicarea perfect legală – ceea ce se numește conținut „legal, dar îngrozitor” – poate contribui la un model de vătămare gravă. O persoană care neagă consensul științific privind vaccinurile, promovează teorii ale conspirației complet lipsite de temei despre figuri politice sau descurajează oamenii de la vot, s-ar putea să nu fie „dăunătoare” în sensul că proiectul de lege C-63 definește conceptul. Dar atunci când algoritmii rețelelor de socializare se asigură că mulți utilizatori nu văd dovezi contrare din afara „filtrului lor”. bule”, pericolele sunt reale. Acest lucru este valabil și pentru orice număr de alte tipuri de înșelăciune pe platforme, cum ar fi videoclipurile false profunde generate de AI ale candidaților politici. Democrația se bazează pe deliberare deschisă și rațională. Condițiile pentru acest tip de comunicare pot fi degradate de modul în care funcționează algoritmii. Faptul că algoritmii sunt operați de corporații private, cu scop profit, care caută să maximizeze „implicarea” face problema și mai agravată; acest lucru creează un stimulent pentru conținut care provoacă indignare și polarizează și mai mult opinia politică. Modul exact în care ar trebui să fie reglementați algoritmii nu este o întrebare simplă. Unele dintre prevederile din proiectul de lege C-63 ar putea fi un pas în direcția corectă: cerințe pentru planurile de atenuare a riscurilor, un ombudsman care poate ajuta publicul să depună plângeri cu privire la platforme către o autoritate de reglementare și obligații de a furniza informații despre conținut. Și, important, toate acestea pot fi făcute fără a încălca în mod inutil libertatea de exprimare a utilizatorilor. Dar o obligație legală mai specifică a platformelor de a acorda prioritate conținutului care este în mod clar fals – cum ar fi mesajele de sănătate publică sau informațiile legate de alegeri — ar fi necesar pentru a opri polarizarea online și promovarea populismului antidemocratic. Deși Legea împotriva prejudiciilor online ar putea proteja persoanele de a fi expuse la anumite tipuri de conținut, protejarea naturii democratice a societății noastre va necesita un set de reglementări mai robust decât ceea ce a fost propus. Acest articol este republicat din The Conversation sub o licență Creative Commons. Citiți articolul original.
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
ieri 19:10
Pieleanu "face" sondaje "la refefon"
|
|
Comentarii:
Adauga Comentariu