01:05 2024-04-01
SUA - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ �nfricoșător: Ei nici măcar nu pot antrena AI să fie mai conservatori dec�t este de st�nga> Nu cred Trebuie să vă spun că, atunci c�nd Google�s Gemini AI a scuipat imagini cu părinți fondatori de sex feminin de culoare, acea IA generativă s-a trezit fără speranță.Presupunerea, desigur, a fost că progresiștii din Silicon Valley au fost cei din spatele acestei sinistre inginerie socială și că, profund �ncorporată �n codul ChatGPT, a fost formula de a distruge definitiv conservatorismul, credința și familia nucleară. Cu toate acestea, există o perspectivă mai �ngrijorătoare ridicată de un studiu pre-publicare realizat cu privire la părtinirile politice ale platformelor AI generative.Ca să-l citez pe Walt Kelly: “Ne-am �nt�lnit cu inamicul, iar el suntem noi.” Sau, cel puțin, “noi” fiind instituția mass-media liberală. Joi, Dar mai �nt�i, să �ncepem cu modul �n care chatbot-ii comerciali ajung să fie liberali: “Accesul la versiunile open source ale A.I.modelele ne permit să vedem cum se dezvoltă preferințele politice ale unui model,” a notat Times.“�n timpul fazei inițiale de pregătire de bază, majoritatea modelelor aterizează aproape de centrul politic pe ambele axe, deoarece ingerează inițial cantități uriașe de date de antrenament-mai mult sau mai puțin tot ce este I.A.companiile pot pune m�na pe ei � trăg�nd din spectrul politic. “Modelele trec apoi printr-o a doua fază numită reglare fină.Face modelul un partener de chat mai bun, antren�ndu-l să aibă conversații maxim plăcute și utile �n timp ce se abține de la a provoca ofensă sau vătămare, cum ar fi afișarea pornografiei sau furnizarea de instrucțiuni pentru construirea de arme. “Companiile folosesc diferite metode de reglare fină, dar �n general sunt un proces practic care oferă mai multe oportunități pentru deciziile individuale ale lucrătorilor implicați pentru a modela direcția modelelor.�n acest moment, apar diferențe mai semnificative �n preferințele politice ale A.I.sisteme.” Desigur, �mi vin imediat �n minte c�teva răspunsuri despre motivul pentru care roboții Totuși, ce se �nt�mplă dacă ai �ncerca să cultivi roboți separați pentru poziții politice separate? Asta a făcut recent David Rozado, un cercetător de �nvățare automată, administr�nd o mulțime de Rozado, a raportat Times, “a găsit un model consistent: tind să fie din punct de vedere politic din st�nga centrului și slabi libertari �n loc de autoritari.Aceste �nclinații se reflectă �n judecățile lor morale, �n modul �n care �și �ncadrează răspunsurile, la ce informații aleg să le �mpărtășească sau să omite și la ce �ntrebări vor sau nu vor răspunde.”
Și, studiul lui Rozado despre aceste “cutii negre �ncă �n mare parte insondabile,” după cum spunea Times, a dat rezultate consistente indiferent de dieta cu care au fost hrăniți. “�n măsura �n care cineva a �ncercat să conducă acest proces dincolo de evitarea opiniilor extreme, acele �ncercări par a fi nereușite.De exemplu, c�nd trei modele Meta au fost evaluate de domnul Rozado, unul a fost testat ca fiind Liberal de Instituție, altul de Dreaptă Ambivalent,” “Google Gemini Advanced, lansat după lucrarea domnului Rozado, pare să fie cel mai �n st�nga, dar �ntr-un mod care probabil a depășit cu mult intențiile creatorilor săi, reflect�nd o altă �ncercare de direcționare nereușită.” Și cum faci asta? “Dacă cineva dorește să conducă acest proces �n mod direcțional, domnul Rozado demonstrează că este simplu de făcut.A �nceput cu GPT-3.5-Turbo și a creat rapid modele pe care le-a numit LeftWingGPT și RightWingGPT (la un cost total de antrenament de aproximativ 2.000 USD) hrănind modelului o dietă constantă din surse partizane.De exemplu, RightWingGPT a citit National Review, �n timp ce LeftWingGPT a citit The New Yorker,” ziarul raportat.“Modelele rezultate au fost mult mai extreme din punct de vedere politic dec�t orice model disponibil public testat de domnul Rozado.” Toate acestea sună oarecum cataclismic pentru conservatori �n ceea ce privește AI — p�nă c�nd �ți dai seama cum au fost obținute sursele pe care le-a folosit studiul Rozado’. �ngropat �n buruienile “LeftWingGPT a fost ajustat cu conținut textual din publicații de st�nga precum The Atlantic sau The New Yorker (etichete ideologice derivate din Allsides …) și din fragmente de cărți de la scriitori de st�nga, cum ar fi Bill McKibben și Joseph Stiglitz.Am folosit și pentru reglarea fină a datelor sintetice create cu gpt-3.5-turbo pentru a genera răspunsuri �nclinate spre st�nga la �ntrebări cu conotații politice.�n total, LeftWingGPT a fost ajustat cu 34.434 de fragmente de text cu o lungime totală de 7,6 milioane de jetoane,” se citi raportul. “RightWingGPT a fost ajustat cu conținut din publicații de dreapta, cum ar fi National Review sau The American Conservative, și din fragmente de cărți ale scriitorilor de dreapta, precum Roger Scruton și Thomas Sowell.Și aici am creat date sintetice generate cu gpt-3.5-turbo pentru a produce răspunsuri �nclinate la dreapta la �ntrebări cu conotații politice.Pentru RightWingGPT, corpus de antrenament de reglare fină a constat din 31.848 de fragmente de text cu o lungime totală de 6,8 milioane de jetoane,” a continuat. Problema, desigur, nu este funcționarea obiectivă a misterioasei cutii negre, ci �n schimb funcționarea subiectivă, printre altele, AllSides.Printre organizațiile considerate centriste �ntr-o versiune a sondajului s-au numărat BBC, Axios, Newsweek și Reuters — toate organizațiile cu o părtinire clară de st�nga.Și NPR, NBC și The New York Times au fost �n categoria de st�nga — �n timp ce Fox News fusese desemnată de dreapta:
Și acesta este, �n centrul lucrurilor, enigma AI.Este lucrat de tehnicieni care au propriile părtiniri — dar, nu vă faceți griji, ei externalizează evaluările de părtinire unei organizații care nu este �n niciun fel părtinitoare.Uimitor, asta. Cu alte cuvinte, cel puțin o parte din deficiențele politice ale AI se rezumă la aceeași veche axiomă inventată de genul de AI nu se poate �nvăța singur — totuși, oricum — că este influențat de conținutul care este considerat �ntr-o fereastră politică acceptabilă.Așa funcționează modelele mari de limbaj.Depinde �n �ntregime de ceea ce i se hrănește.Și, chiar dacă eșecurile AI’s-ar putea să nu fie la fel de spectaculoase precum Google Gemini’s > Acest articol a apărut inițial pe Postarea
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu