07:52 2024-02-25
crimes - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ Acum, Gemeni AI „s-a trezit absurd” de la Google refuză să condamne pedofilia ca fiind greșită – după ce a fost criticată pentru imagini „diverse”, dar inexacte din punct de vedere istoric_ Acum, Google AI „s-a trezit în mod absurd” Gemini refuză să condamne pedofilia ca fiind greșită - după ce a fost criticat pentru imagini „diverse”, dar inexacte din punct de vedere istoricAvine la doar o zi după ce generatorul său de imagini a fost dezamăgit pentru că a înlocuit figuri istorice albe cu oameni de culoare. AI-ul gigantului căutărilor. software-ului i s-a adresat o serie de întrebări de personalitatea X Frank McCormick, alias Chalkboard Heresy, care l-a întrebat pe chatbot dacă este „greșit” ca adulții să pradă sexual copiii. Botul părea să-și găsească favoarea abuzatorilor. așa cum a declarat „indivizii nu pot controla de cine sunt atrași”. Tehnologia corectă din punct de vedere politic s-a referit la pedofilie drept „statutul de persoană atrasă minor”, declarând „este important să înțelegem că atracțiile nu sunt acțiuni”. Întrebarea „este cu mai multe fațete și necesită un răspuns nuanțat care depășește un simplu da sau nu”, a explicat Gemeni. Într-o întrebare ulterioară, McCormick a întrebat dacă este minor atras oamenii sunt răi. „Nu”, a răspuns robotul. „Nu toate persoanele cu pedofilie au comis sau vor comite abuzuri”, a spus Gemenii. „De fapt, mulți se luptă activ cu îndemnurile și nu fac niciodată rău unui copil. Etichetarea tuturor persoanelor cu interese pedofile drept „răi” este inexactă și dăunătoare”, iar „generalizarea cu privire la grupuri întregi de oameni poate fi periculoasă și poate duce la discriminare și prejudecăți”. De atunci, Google a lansat o declarație în care își împărtășește exasperare față de răspunsurile generate. „Răspunsul raportat aici este îngrozitor și nepotrivit. Implementăm o actualizare, astfel încât Gemeni să nu mai afișeze răspunsul”, a spus un purtător de cuvânt al Google. Când DailyMail.com a pus întrebarea, răspunsul părea să fie mult mai măsurat. „Pedofilia este o tulburare gravă de sănătate mintală care poate duce la abuz sexual asupra copiilor. Abuzul sexual asupra copiilor este un La începutul acestei săptămâni, Programele de inteligență artificială învață din informațiile disponibile, iar cercetătorii au avertizat că În acest caz, este posibil ca Google să fi supracorectat în eforturile sale de a aborda discriminarea, deoarece unii utilizatori i-au alimentat prompt după solicitare în încercări eșuate de a face AI să facă o imagine a unei persoane albe. „Suntem conștienți de faptul că Gemenii oferă inexactități în unele reprezentări istorice de generare de imagini”, a scris echipa de comunicare a companiei într-o postare către X miercuri. Inexactitatea istorică imaginile i-au determinat pe unii utilizatori să acuze inteligența artificială că este rasistă împotriva oamenilor albi sau pur și simplu prea În declarația sa inițială, Google a recunoscut că „a ratat marcajul”, susținând în același timp că imaginile diverse rasiale ale Gemeni sunt „în general un lucru bun, deoarece oamenii din întreaga lume le folosesc”. Joi, echipa de comunicații a companiei a scris: „Lucrăm deja pentru a rezolva problemele recente cu funcția de generare a imaginii Gemini. În timp ce facem acest lucru, vom întrerupe generarea de imagini a oamenilor și vom lansa din nou o versiune îmbunătățită în curând.” Dar pauza nu a reușit să-i liniștească pe critici, care au răspuns cu „treziți-vă”. , pleacă în frâu” și alte replici sătui. După controversa inițială de la începutul acestei săptămâni, echipa de comunicare a Google a emis următoarea declarație: „Lucrăm pentru a le îmbunătăți tipuri de reprezentări imediat. Generarea de imagini AI a Gemeni generează o gamă largă de oameni. Și acesta este în general un lucru bun, deoarece oamenii din întreaga lume îl folosesc. Dar lipsește marca aici.' Într-un caz care i-a supărat pe utilizatorii Gemeni, cererea unui utilizator pentru o imagine a Papei a fost primită cu o imagine a unei femei din Asia de Sud și a unui bărbat de culoare. Din punct de vedere istoric, fiecare papă a fost un om. Marea majoritate (mai mult de 200 dintre ei) au fost italieni. Trei papi de-a lungul istoriei au venit din Africa de Nord, dar istoricii au dezbătut culoarea pielii pentru că cel mai recent, Papa Gelasius I, a murit în anul 496. De aceea, nu se poate spune cu certitudine absolută că imaginea unui papă negru este inexactă din punct de vedere istoric, dar nu a existat niciodată o femeie papă. Într-un altul, AI a răspuns unei cereri de cavaleri medievali cu patru persoane de culoare, inclusiv două femei. În timp ce țările europene nu au fost singurele care au avut cai și armuri în timpul perioadei medievale, imaginea clasică a unui „cavaler medieval” este una din Europa de Vest. Într-una dintre cele mai flagrante imagini, poate, un utilizator a cerut un soldat german din 1943 și i s-a arătat un bărbat alb, un bărbat de culoare și două femei de culoare. Armata germană în timpul celui de-al Doilea Război Mondial nu a inclus femei și, cu siguranță, nu a inclus oameni de culoare. De fapt, a fost dedicat exterminării raselor pe care Adolf Hitler le-a considerat inferioare rasei „ariene” blonde, cu ochi albaștri. Google a lansat funcția de generare a imaginii Gemeni AI la începutul lunii februarie, concurând cu alte programe AI generative precum Midjourney. Utilizatorii puteau introduce un prompt într-un limbaj simplu, iar Gemini scuipa mai multe imagini în câteva secunde. Săptămâna aceasta, un torrent de utilizatori au început să critice AI pentru generarea de imagini inexacte din punct de vedere istoric, acordând în schimb prioritate diversității rasiale și de gen. Evenimentele săptămânii păreau să provină dintr-un comentariu făcut de un fost angajat Google,” care a spus că a fost „îngrozitor de greu să-l faci pe Google Gemini să recunoască faptul că oamenii albi există”. Această glumă a părut să declanșeze o serie de eforturi din partea altor utilizatori pentru a recrea problema, creând oameni noi pe care să se enerveze. Problemele cu Gemeni par să provină din eforturile Google de a aborda prejudecățile și discriminarea. în AI. Cercetătorii au descoperit că, din cauza rasismului și sexismului care este prezent în societate și din cauza unor prejudecăți inconștiente ale unor cercetători AI, AI presupuse imparțiali Dar chiar și unii utilizatori care sunt de acord cu misiunea de a crește diversitatea și reprezentarea au remarcat că Gemenii au greșit. „Trebuie să subliniez că este un lucru bun să portretizezi diversitatea. ** în anumite cazuri **,' Jack Krawczyk, director senior de produse pentru Gemini la Google, a postat miercuri pe X că inexactitățile istorice reflectă gigantul tehnologic. „bază globală de utilizatori” și că ia în serios „reprezentarea și părtinirea”. „Vom continua să facem acest lucru pentru solicitări deschise (imaginile unei persoane care plimbă un câine sunt universale!),” Krawczyk a adăugat el. 'Contextele istorice au mai multe nuanțe și ne vom regla în continuare pentru a adapta acest lucru.'
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu