![]() Comentarii Adauga Comentariu Experiment de inteligență artificială eșuat pentru Microsoft: un cont de Twitter a generat mesaje pro-Hitler și Trump. "Bush a fost responsabil pentru 9/11 și Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum"![]() Inginerii Microsoft au fost nevoiți să suspende destul de rapid un experiment privind inteligența artificială: un program făcut să gestioneze automat postările pe Twitter în funcție de mesajele primite de la alți utilizatori a început să posteze public mesaje antisemite și rasiste, ducând la întreruperea temporară a experimentului, relatează "The Independent". Tay Tweets, așa cum a fost gestionat contul numit de program, ar fi trebuit să arate potențialul inteligenței artificiale de a se adapta și chiar purta discuții pe cont propriu cu utilizatori reali, însă "motorul" programului a fost însăși sabotat de o parte dintre utilizatorii rețelei de socializare. "Bush a fost responsabil pentru 9/11 (n.r. - atentatele de la 11 septembrie 2001) și Hitler ar fi făcut o treabă mai bună decât maimuța pe care o avem acum" a fost o postare a contului, referindu-se la actualul președinte de culoare al Statelor Unite, Barack Obama, vizibilă pentru milioane de utilizatori. Iar acesta nu a fost un incident separat; după un început timid, cu replici simple, programul a început să posteze sistematic mesaje pro-Hitler, să nege Holocaustul și să susțină că doar Donald Trump poate salva Statele Unite. Cum s-a ajuns la acest eșec? Compania a publicat un comunicat prin care explică modul în care acesta generează postările: "Programul de chat Tay este un proiect care învață mecanic, specific axat pe interacțiunea cu oamenii. Cu cât interacționează mai mult, cu atât învață mai multe, însă de data aceasta unele dintre răspunsuri au fost necorespunzătoare – indicând tipul interacțiunilor pe care le-a avut". Practic, asta înseamnă că o parte dintre utilizatorii care au interacționat cu Tay Tweets au folosit în mod repetat și voit mesaje antisemite, rasiste sau xenofobe pentru a-l face să genereze postările jignitoare. La mai puțin de 16 ore de la prima postare, compania s-a văzut nevoită să suspende postările lui Tay, pentru a lucra la un filtru care să-l oprească din a posta mesaje jignitoare de orice fel. Compania a șters toate mesajele rasiste postate de program, însă acestea au fost vizibile timp de câteva ore, în ceea ce s-a dovedit a fi un incident jenant pentru Microsoft. sursa: Adevărul.ro
Linkul direct catre PetitieCitiți și cele mai căutate articole de pe Fluierul:
|
06:13
CITATUL ZILEI
ieri 23:59
Franța.Vaccinul anti-COVID a ucis 5 oameni
ieri 23:22
Fotbal - Liga I: FCSB - FC Voluntari 2-1
ieri 19:41
Pașaportul Covid-19 împarte Europa
ieri 06:41
CITATUL ZILEI
ieri 06:15
COMENTARIU Valeriu ȘUHAN: Poliția "veselă"
|
|
Comentarii:
Adauga Comentariu