15:37 2024-04-23
SUA - citeste alte articole pe aceeasi tema
Comentarii Adauga Comentariu _ Eforturile Departamentului Apărării de a combate părtinirea AI nu merg suficient de departeAceastă poveste a fost publicată inițial de De Delaney Duff Dificultatea Google de a atenua părtinirea din sistemele lor de inteligență artificială � chiar și după ce a depus �n mod explicit eforturi mari pentru a minimiza părtinirea � provoacă probleme pentru Departamentul Apărării.Prejudecățile poate determina ca instrumentele AI să funcționeze defectuos irevocabil și să �mpiedice dezvoltarea AI.Google Acest lucru este deosebit de �ngrijorător, deoarece Departamentul Apărării intenționează să Sistemele AI părtinitoare sunt �n cele din urmă periculoase.Ei comit greșeli sau generează evaluări inexacte care duc la luare a deciziilor slabe sau chiar la defecțiuni ale sistemului care dăunează oamenilor.Eșecurile neprevăzute ale AI ar putea cauza probleme, de la raportarea eronată a informațiilor la direcționarea incorectă. �n Departamentul de Apărare, Biroul șef de inteligență digitală și artificială (CDAO) are sarcina de a accelera adoptarea tehnologiilor de inteligență artificială �n ecosistemul de securitate națională.Echipa responsabilă cu IA a CDAO abordează problema modelelor AI părtinitoare prin instituirea unui " Prin identificarea părtinirii instrumentelor AI generative, Pentagonul speră să �nțeleagă beneficiile și riscurile prezentate de aceste sisteme pentru a implementa măsuri de protecție.Atenuarea riscurilor este crucială, deoarece SUA se bazează din ce �n ce mai mult pe dezvoltarea AI pentru a oferi luptătorilor un avantaj competitiv față de adversarii săi. Să te bazezi pe programe de participare publică rare, la scară mică pentru a identifica părtinirea AI, este inadecvat, deoarece presupune că părtinirea este ușor de detectat și nu ține cont de modul �n care rezultatele părtinitoare se transformă peste timp, chiar și după ce dezvoltatorii implementează "remedieri�.Sistemele AI părtinitoare dezavantajează �n mod disproporționat anumite grupuri, mai ales atunci c�nd datele de antrenament ale modelului AI sunt sub reprezentative pentru realitate sau reflectă deja părtiniri existente. Și mai �ngrijorătoare sunt eșecurile �n direcționarea armelor alimentate cu inteligență artificială.Sistemele AI ar putea selecta din neatenție ținte care �ncalcă regulile de angajare, cum ar fi femeile și copiii necombatanți.Rapoarte recente Determinătorii politici, oficialii militari și industria privată �ncadrează tot mai mult dezvoltarea IA ca pe o cursă a �narmărilor cu China, deoarece Beijingul speră să folosească AI pentru a-și spori puterea și pentru a obține un avantaj strategic față de SUA și aliații săi.Problemele etice substanțiale și discriminarea ca urmare a prejudecăților AI ar trebui să fie suficiente pentru a oferi parlamentarilor o pauză. Concentrarea excesivă asupra vitezei de dezvoltare emite preocupările reale cu privire la siguranța AI.Menținerea AI la standarde etice �nalte nu este un impediment �n calea progresului.Mai degrabă, asigură un succes mai mare al sistemului, care este esențial pentru o �ncredere și adoptare largă. �nlăturarea părtinirii necesită mai mult dec�t soluții tehnice.Pe l�ngă testarea periodică a părtinirii pentru a se asigura că modelele funcționează corect, Departamentul de Apărare ar trebui să ofere și să accelereze autorizațiile pentru oamenii de știință de date și pentru alții implicați �n formarea modelelor AI, astfel �nc�t aceștia să aibă acces la porțiuni mai mari de seturi de date.Un acces mai mare permite celor mai cunoscători despre sistemele AI să identifice cazurile �n care modelul produce rezultate părtinitoare și să corecteze greșelile mai ușor. Operatorii acestor instrumente ar trebui să primească programe de formare mai extinse, care să includă instrucțiuni privind identificarea rezultatelor părtinitoare, care consacră practica de a nu avea �ncredere orbită �n rezultatele sistemului.Aceste instrumente nu sunt perfecte, iar operatorii trebuie să știe c�nd și cum să pună la �ndoială sau să anuleze o decizie sugerată de AI.DoD ar trebui să-și oblige dezvoltatorii să urmeze setul de instrumente AI responsabil al CDAO, care se aliniază cu principiile etice AI ale DoD și să evalueze și să actualizeze continuu cadrul pentru a ține pasul cu progresul tehnologic rapid. �n sf�rșit, SUA ar trebui să investească o finanțare mai mare �n programele STEM pentru grupuri și comunități subreprezentate.Doar 26% dintre oamenii din informatică sunt femei, iar femeile reprezintă doar 18% dintre cercetătorii de la conferințele de AI.Reprezentarea pentru persoanele de culoare este chiar O concentrare miop asupra vitezei de dezvoltare a AI �n detrimentul siguranței ar putea �nsemna un dezastru pentru Departamentul de Apărare.Dacă Statele Unite speră să modeleze viitorul secolului 21, trebuie să facă din reducerea părtinirii AI o prioritate de v�rf. > Delaney Duff este membru al Fundației Pallas pentru Conducerea Securității Naționale, a cărei misiune este de a promova educația și dezvoltarea profesională a liderilor emergenti din grupurile subreprezentate �n mod tradițional la nivel global și național.Securitate.Este studentă la master �n programul de studii de securitate la Universitatea Georgetown. Acest articol a fost publicat inițial de RealClearDefense și pus la dispoziție prin RealClearWire.
Postarea
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
|
|
Comentarii:
Adauga Comentariu