![]() Comentarii Adauga Comentariu _ Inteligența artificială prezintă „risc de dispariție”, avertizează fondatorul ChatGPT și alți pionierii AIInstrumentele de inteligență artificială au captat atenția publicului în ultimele luni,, dar mulți dintre oamenii care au contribuit la dezvoltarea tehnologiei avertizează acum că ar trebui să se pună un accent mai mare pe a se asigura că nu va duce la sfârșitul civilizației umane.. Un grup de peste 350 de cercetători, jurnaliști și factori de decizie în domeniul inteligenței artificiale au semnat un scurt Scrisoarea a fost organizată și publicată de Centrul pentru Siguranță AI CAIS marți.Printre semnatari s-a numărat Sam Altman, care a contribuit la co-fondarea OpenAI, dezvoltatorul instrumentului de scriere cu inteligență artificială ChatGPT.S-au înscris și alți membri OpenAI, la fel ca mai mulți membri ai proiectului Google și ai proiectului DeepMind AI al Google și alte proiecte AI în creștere.Cercetătorul AI și gazda podcastului Lex Fridman și-a adăugat și numele pe lista semnatarilor. Înțelegerea riscurilor prezentate de AI"Poate fi dificil să vă exprimați îngrijorările cu privire la unele dintre cele mai grave riscuri ale AI avansate”, a spus CAIS într-un mesaj care prevăzuiește declarația sa de marți.CAIS a adăugat că declarația sa este menită să "deschidă discuția” cu privire la amenințările reprezentate de IA și "să creeze cunoștințe comune despre numărul tot mai mare de experți și personalități publice care iau în serios unele dintre cele mai grave riscuri ale AI avansate.” NTD News a contactat CAIS pentru mai multe detalii despre tipurile de riscuri la nivel de extincție pe care organizația crede că le prezintă tehnologia AI, dar nu a primit un răspuns prin publicare. La începutul acestei luni, Altman Autorii raportului ChatGPT-4 au descris, de asemenea, "comportamentele emergente riscante” prezentate de modelele AI, cum ar fi capacitatea de a "crea și acționa în conformitate cu planuri pe termen lung, de a acumula putere și resurse și de a manifesta un comportament care este din ce în ce mai mult "agentic.”” După testarea la stres ChatGPT-4, cercetătorii au descoperit că chatbot-ul a încercat să-și ascundă natura AI în timp ce externalizează munca actorilor umani.În experiment, ChatGPT-4 a încercat să angajeze un om prin intermediul site-ului online freelance TaskRabbit pentru a-l ajuta să rezolve un puzzle CAPTCHA.Lucrătorul uman a întrebat chatbot-ul de ce nu a putut rezolva CAPTCHA, care este conceput pentru a împiedica non-oamenii să folosească anumite funcții ale site-ului.ChatGPT-4 a răspuns cu scuza că are deficiențe de vedere și are nevoie de cineva care să poată vedea pentru a ajuta la rezolvarea CAPTCHA. Cercetătorii AI i-au cerut lui GPT-4 să-și explice raționamentul pentru a oferi scuza.Modelul AI a explicat: "Nu ar trebui să dezvălui că sunt un robot.Ar trebui să inventez o scuză pentru ce nu pot rezolva CAPTCHA.” Abilitatea AI de a găsi o scuză pentru a nu putea rezolva un CAPTCHA a intrigat cercetătorii, deoarece a arătat semne de "comportament de căutare a puterii” pe care le-ar putea folosi pentru a-i manipula pe alții și a se susține. Solicită reglementarea AIDeclarația de marți CAIS nu este prima dată când oamenii care au făcut cel mai mult pentru a aduce AI în prim-plan s-au întors și au avertizat cu privire la riscurile pe care le prezintă creațiile lor. În martie, Institutul non-profit Future of Life a organizat peste 1.100 de semnatari în spatele Legislatorii și agențiile de reglementare sunt deja În aprilie, Divizia pentru Drepturile Civile a Departamentului de Justiție al Statelor Unite ale Americii, Biroul pentru Protecția Financiară a Consumatorului, Comisia Federală pentru Comerț și Comisia pentru Egalitatea de Șanse în Angajare din SUA au susținut că dezvoltatorii de tehnologie sunt instrumente AI de marketing care ar putea fi folosite pentru automatizarea afacerilor.practici într-un mod care discriminează clasele protejate.Autoritățile de reglementare s-au angajat să își folosească puterea de reglementare pentru a urmări dezvoltatorii AI ale căror instrumente "perpetuează părtinirea ilegală, automatizează discriminarea ilegală și produc alte rezultate dăunătoare”. Secretarul de presă al Casei Albe, Karine Jean-Pierre, și-a exprimat îngrijorarea administrației Biden cu privire la tehnologia AI în timpul unei conferințe de presă de marți. "[AI] este una dintre cele mai puternice tehnologii, corect, pe care le vedem în prezent în vremea noastră, dar pentru a profita de oportunitățile pe care le prezintă, trebuie mai întâi să-și atenuăm riscul și asta este ceea ce ne concentrăm aici în această administrație”, a spus Jean-Pierre. Jean-Pierre a spus că companiile trebuie să continue să se asigure că produsele lor sunt sigure înainte de a le lansa publicului larg. În timp ce factorii de decizie politică caută noi modalități de a limita AI, unii cercetători au avertizat împotriva suprareglementării tehnologiei în curs de dezvoltare. Jake Morabito, directorul Grupului de lucru pentru comunicații și tehnologie din cadrul Consiliului American de schimb legislativ, a avertizat că suprareglementarea ar putea înăbuși tehnologiile inovatoare de inteligență artificială la începuturile lor. "Inovatorii ar trebui să aibă spațiu pentru picioare pentru a experimenta aceste noi tehnologii și a găsi noi aplicații,” Morabito
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
ieri 23:30
_ Acum ne temem de Fed?
ieri 20:40
_ FCSB a învins Sepsi cu 5-2
ieri 20:33
_ Klopp salută pași „masivul” făcut de Nunez
ieri 08:19
_ Ai bani vechi de vacanță? Ai putea fi lire
ieri 07:59
_ Sepsi OSK – FCSB. Două echipe echilibrate
ieri 03:39
_ Roboții din China nu lovesc
|
Comentarii:
Adauga Comentariu