![]() Comentarii Adauga Comentariu _ Deepfake-ul comedie de la ITV este criticat în timp ce criticii TV evidențiază dilemele etice ale utilizării inteligenței artificiale![]() _ Comedia deepfake de la ITV vine sub foc ca TV criticii evidențiază dilemele etice ale utilizării AILansarea unui nou serial de televiziune care folosește tehnologia revoluționară „deepfake” pentru a-și bate joc de celebrități și vedete ale sportului a stârnit dezbateri cu privire la implicațiile etice ale utilizării AI în viața de zi cu zi. Comedia de referință de la ITVX „Deep Fake Neighbor Wars” se mândrește cu o gamă stelară de A-listers, inclusiv Comedia, care a fost lansat pe Creatorii de conținut folosesc acum mai pe scară largă inteligența artificială pentru a răzui o singură imagine a unui actor care este apoi cartografiată pe fața unei ținte, animată și folosită ca „fals profund”. Implicațiile pe termen lung ale IA care sunt difuzate pe ecranele noastre de televiziune. a împărțit dezbaterea, unii ridicând preocupări etice și juridice, iar alții subliniind comoditatea utilizării tehnologiei în viața de zi cu zi. Aceasta vine în momentul în care Equity, un sindicat de top al artiștilor interpreți, a avertizat că actorii ar putea fi în curând ieșiți. a postului, deoarece progresele în tehnologia automată continuă să aibă un impact asupra lumii reale. Equity a lansat campania „Stop AI stealing the show” ca plângeri asupra actorului vocea și asemănarea lui, folosite fără consimțământul lor, continuă să crească. Avertisment că ar exista consecințe „distopice” dacă legea drepturilor de autor nu este actualizată, sindicatul a spus că sistemele AI „înlocuiesc acum artiștii profesioniști calificați”.  ; Deși emisiunea ITV poate părea și suna realist pentru spectatorul obișnuit, fiecare episod vine cu o multitudine de avertismente și recomandări care spun publicului că următorul conținut a fost creat prin deepfake. În ciuda progreselor tehnologice, exemple de amatori au apărut în ultimii ani, cu președintele ucrainean Volodymyr Zelensky vizat într-un clip care a fost râs de experți. În videoclip, „Zelensky” poate fi văzut vorbind de la el. pupitru în timp ce el cere trupelor sale să depună armele și să cedeze forțelor invadatoare ale lui Putin. Deepfake-ul a fost răspândit pe scară largă pe rețelele de socializare ruse și a fost chiar plantat de hackeri la TV în direct din Ucraina și pe un post. site-ul de știri înainte de a fi eliminat. Utilizator de internet A semnalat imediat discrepanțele dintre nuanța pielii de pe gâtul și fața lui Zelenskiy, accentul ciudat din videoclip și pixelarea din jurul capului său. Dar, Zoe Kleinman, editorul de tehnologie al BBC, a discutat despre potențialul legal capcane pentru creatorii care folosesc inteligența artificială și deepfake ale celebrităților. Ea a spus În primul rând de la Radio 4: „Probabil că nu te va surprinde să știi că AI și reglementările nu au fost în pas, reglementarea este foarte, foarte lentă. 'Este oarecum acoperit de alte legi dacă vrei să mergi pentru aceasta. Presupun că cineva ca Kim Kardashian sau Ariana Grande ar putea apela la intimitate sau la defăimare. Există diferite moduri de a-l ataca.” Criticul de televiziune Scott Bryan a adăugat: „Cred că acum ne vom lovi de o mulțime de dileme etice în acest sens - de exemplu ce ar opri pe cineva a readuce pe cineva din morți pentru a-și promova anunțul cu asemănarea în întregime intactă? „Pentru mai larg este, cred că în mijlocul tuturor discuțiilor despre tehnologia AI este că oamenii iubesc lucrurile care sunt reale. „Uită-te la Happy Valley, nu Nu are nici un CGI, niciun efect special, este bazat pe personaje, este o dramă tradițională BBC și scrisă genial. Descoper că există această entuziasm despre AI care nu este întotdeauna necesară.” Așa-numitul fenomen „deepfake” folosește tehnologia AI pentru a manipula videoclipurile și audio într-un mod care reproduce viața reală. În timp ce, în acest context, utilizarea tehnologiei este descrisă drept „prostie” de către creatorii săi, în trecut au fost ridicate preocupări cu privire la modul în care deepfake-urile au fost folosite pentru a genera videoclipuri cu abuz sexual asupra copiilor și porno răzbunare, cum ar fi precum și farse politice. În noiembrie, a fost adus un amendament la Legea guvernamentală privind siguranța online, care prevedea că utilizarea tehnologiei deepfake pentru a realiza imagini pornografice și înregistrări cu persoane fără consimțământul lor ar fi ilegală. În ciuda potențialelor preocupări cu privire la etica creării de versiuni AI ale unor oameni foarte celebri, creatorii Deep Fake Neighbor Wars i-au spus pentru Guardian că nu sunt îngrijorați de conținutul programului lor. Spencer Jones a spus pentru The Guardian. ziarul: „Totul este o prostie. Dacă ne îndeamnă la jumătatea drumului și crezi că adevăratul Harry Kane și-a spart gresia de pe terasă de Stormzy, ar putea fi nevoie să te uiți puțin la tine. Descriind personajele drept „eroi”. ", a adăugat el scopul spectacolului a fost de a „[reimagina]-i cu probleme de zi cu zi” - și susține că una dintre cele mai comune și universale probleme pe care le au oamenii este iritarea vecinilor. O actriță din serial , Katia Kvinge, joacă mai multe roluri diferite, inclusiv cea de militantă pentru mediu Greta Thunberg - și ea a susținut că există beneficii să nu-și arate fața în aparițiile ei. Ea a spus: „Într-o dimineață înainte de muncă, eram atât de obosită. Dar apoi am spus: „Oh, e în regulă, fața mea nu este pe cameră astăzi.” Pentru a ne asigura că spectatorii nu sunt lăsați confuzi de tehnologia deepfake, sfârșitul fiecărui episod arată falsul fețele care se îndepărtează de fețele fiecărui personaj, astfel încât identitatea reală a actorului să poată fi văzută și este clar că episodul a fost o simulare. Cu toate acestea, atunci când actorii sunt în rolurile lor, trebuie să facă pași. pentru a ne asigura că efectul AI arată cât mai real posibil. Aceasta vine în timp ce școlile sunt, de asemenea, forțate să se confrunte cu dilemele etice generate de tehnologia AI. De când ChatGPT a fost lansat în noiembrie anul trecut, au crescut temerile în rândul conducătorilor de școli că va face trișarea mai ușor decât munca . Personalul Școlii Alleyn din sud-estul Directorul Jane Lunnon a explicat că noua atenție a școlii pe „învățare inversată” a fost un semn inevitabil al vremurilor din cauza „ natura seismică și care schimbă jocul” a IA. Ea a spus pentru Times: „Simt cu adevărat că acesta este un moment de schimbare de paradigmă. Este incredibil de utilizabil și simplu. „Cu toate acestea, în acest moment, copiii sunt adesea evaluați folosind eseuri teme pentru acasă, pe baza a ceea ce au învățat la lecție. „În mod clar, dacă ne aflăm într-o lume unde copiii pot avea acces la răspunsuri plauzibile… atunci va trebui să dispară ideea de a spune pur și simplu să faci asta pentru teme. „Temele vor fi bune pentru practică, dar dacă vrei date fiabile despre dacă copiii dobândesc noi abilități și informații, care vor trebui făcute în timpul lecției, supravegheate.” Directorul grupului de cercetare în domeniul securității cibernetice de la King's College London, Dr. Tim Stevens, a avertizat, de asemenea, despre potențialele pericole ale utilizării deepfake-urilor pentru a răspândi știri false și provocări. securitate națională. Dr. Stevens a spus că tehnologia ar putea fi exploatată de autocrații precum Rusia pentru a submina democrațiile, precum și pentru a consolida legitimitatea obiectivelor de politică externă, cum ar fi intrarea în război. El a adăugat: „Ce fel de societate ne dorim? Cum vrem să arate utilizarea AI? Pentru că momentan frânele sunt oprite și ne îndreptăm într-un spațiu destul de dezordonat. „Dacă arată rău acum, va fi mai rău în viitor. Avem nevoie de o conversație despre pentru ce sunt aceste instrumente și pentru ce ar putea fi ele, precum și despre cum va arăta societatea noastră în restul secolului XXI. „Acest lucru nu va dispărea. Sunt unelte foarte puternice și pot fi folosite în bine sau în rău.' Așa că poți să le spui stelelor reale din falsurile? De Alexander Butler MailOnline a creat un test deepfake, precum și tot ce trebuie să știți despre tehnologia deepfake. Ce sunt ei? Cum funcționează? Ce riscuri prezintă? Și, cel mai important, poți face diferența dintre lucrul real și AI? Dacă l-ați văzut pe Tom Cruise cântând la chitară pe TikTok, Barack Obama numindu-l pe Donald Trump un „prostie totală și completă” sau pe Mark Zuckerberg lăudându-se că deține controlul asupra „miliardelor de date furate ale oamenilor”, probabil că ați mai văzut un deepfake înainte. O „deepfake” este o formă de inteligență artificială care folosește „deep learning” pentru a manipula audio, imagini și videoclipuri, creând conținut media hiperrealist. Termenul „deepfake” a fost inventat în 2017, când un utilizator Reddit a postat videoclipuri porno manipulate pe forum. Videoclipurile au schimbat fețele celebrităților precum Gal Gadot, Taylor Swift și Scarlett Johansson cu staruri porno. Un deepfake folosește un subset de inteligență artificială (AI) numită deep learning pentru a construi mass-media manipulată. Cea mai obișnuită metodă utilizează „rețele neuronale profunde”, „algoritmi de codificare”, un videoclip de bază în care doriți să introduceți chipul altcuiva și o colecție de videoclipuri ale țintei dvs. Învățarea profundă AI studiază datele în diferite condiții și găsește caracteristici comune între ambii subiecți înainte de a mapa fața țintei pe persoana din videoclipul de bază. Generative Adversarial Networks (GAN) este o altă modalitate de a face deepfake. GAN-urile folosesc doi algoritmi de învățare automată (ML) cu roluri duble. Primul algoritm creează falsuri, iar al doilea le detectează. Procesul se finalizează atunci când cel de-al doilea model ML nu poate găsi inconsecvențe. Acuratețea GAN-urilor depinde de volumul de date. De aceea vezi atât de multe falsuri profunde ale politicienilor, celebrităților și vedetelor de film pentru adulți, deoarece există adesea o mulțime de mijloace media ale acelor oameni disponibile pentru a antrena algoritmul de învățare automată. Succesele și eșecurile deepfake-urilor Un exemplu notoriu de deepfake sau „cheapfake” a fost o uzurpare grosieră a lui Clipul îl arată pe președintele ucrainean vorbind din pupitru, în timp ce își cere trupelor să-și depună arme și acceptă forțele invadatoare ale lui Putin. Internații pricepuți au semnalat imediat discrepanțele dintre culoarea gâtului și a feței lui Zelensky, accentul ciudat și pixelarea din jurul capului său. p> Mounir Ibrahim, care lucrează pentru Truepic, o companie care îndepărtează deepfake-urile online, a declarat pentru Daily Beast: „Faptul că este atât de prost făcut este un pic zgârietor. „Puteți vedea clar diferența – acesta nu este cel mai bun deepfake pe care l-am văzut, nici măcar aproape.” Unul dintre cele mai convingătoare deepfake de pe rețelele sociale în acest moment este contul a fost creat în februarie 2021 și are peste 18,1 milioane de aprecieri și cinci milioane de urmăritori. Postă versiuni parodiice hiperrealiste ale vedetei de la Hollywood făcând lucruri din trucuri de magie, jucand golf, amintindu-și timpul pe care l-a cunoscut. fostul președinte al Uniunii Sovietice și pozând cu modelul Paris Hilton. Într-un clip, Cruise poate fi văzut îmbrățișând-o pe Paris Hilton în timp ce se prefac că sunt un cuplu. El le spune lui modelul „Ești atât de frumoasă”, la care Hilton se înroșește și îi mulțumește. În timp ce se uită în oglindă, Hilton îi spune actorului: „Arăt foarte deștept, domnule Cruise”. Un alt videoclip distribuit în cont îl arată pe un deepfake Cruise purtând o cămașă hawaiană festivă în timp ce stă în genunchi în fața camerei. El arată o monedă și, într-un caz, o face să dispară - ca prin magie . „Vreau să vă arăt câteva magie', spune impostorul, ținând moneda în mână.
În ciuda valorii de divertisment a deepfake-urilor, unii experți au avertizat cu privire la pericolele pe care le-ar putea prezenta. Directorul Grupului de Cercetare pentru Securitate Cibernetică de la King's College London, Dr. Tim Stevens, a avertizat despre potențialele deepfakes pe care le au în apariție. folosit pentru a răspândi știri false și a submina securitatea națională. Dr. Stevens a spus că tehnologia ar putea fi exploatată de autocrații precum Rusia pentru a submina democrațiile, precum și pentru a consolida legitimitatea obiectivelor politicii externe, cum ar fi intrarea în război. El a spus că deepfake-ul lui Zelensky a fost „foarte îngrijorător”, deoarece au existat oameni care „au crezut asta”, precum și oameni care „vreau să creadă asta”. Theresa Payton, CEO al Compania de securitate cibernetică Fortalice, a spus că deepfake AI are și potențialul de a combina date reale pentru a crea „fraude sincere” care ar putea infiltra companii și fura informații. Ea&nb sp;a spus că „epoca creșterii lucrului la distanță” a fost mediul perfect pentru ca aceste tipuri de „oameni AI” să înflorească. Domnișoara Payton a declarat pentru Sun: „Pe măsură ce companiile își automatizează procesele de scanare a CV-urilor și desfășoară la distanță. interviurile, escrocii și escrocii vor folosi tehnologia de ultimă oră deepfake AI pentru a crea „clone” lucrători susținuți cu identități sintetice. „Mercherea digitală în identitatea unei persoane fizice va fi aproape imposibil de descurajat, detectat și recuperat.” Dr Stevens a adăugat: „Ce fel de societate ne dorim? Cum vrem să arate utilizarea AI? Pentru că momentan frânele sunt oprite și ne îndreptăm într-un spațiu destul de dezordonat. „Dacă arată rău acum, va fi mai rău în viitor. Avem nevoie de o conversație despre pentru ce sunt aceste instrumente și pentru ce ar putea fi ele, precum și despre cum va arăta societatea noastră în restul secolului XXI. „Acest lucru nu va dispărea. Sunt instrumente foarte puternice și pot fi folosite pentru bine sau pentru rău.'
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
ieri 19:53
_Gold FM Romania - 28 Mar 2023 17:58:54
ieri 19:53
_Gold FM Romania - 28 Mar 2023 18:30:15
ieri 19:45
_Marius Tucă Show - 28 Mar 2023 19:13:01
ieri 19:45
_Marius Tucă Show - 28 Mar 2023 19:15:11
ieri 19:45
_Marius Tucă Show - 28 Mar 2023 19:16:02
ieri 19:45
_Marius Tucă Show - 28 Mar 2023 19:19:20
ieri 17:46
_ O companie a inventat chiftelele din mamut
ieri 17:26
_ BVB a închis în creştere şedinţa de marţi
ieri 16:09
_ Jucătorul marca fanilor Chase „uimitor”
|
Comentarii:
Adauga Comentariu