Gata cu teoriile conspirației
Ziua judecății: Google creează un ”întrerupător” pentru inteligența artificială
Google ia măsuri de precauție cu cel mai puternic sistem de inteligență artificială, DeepMind, și explorează o modalitate de a ne asigura că suntem (întotdeauna) capabili să îl oprim.
Luând măsuri de precauție
DeepMind, „Compania de inteligență artificială a Google”, s-a catapultat în faimă atunci când AlphaGo AI a învins campionul mondial la Go, Lee Sedol. Cu toate acestea, DeepMind se străduiește să facă mai mult decât să bată pe oameni la șah și Go și la alte diverse jocuri. Într-adevăr, algoritmii lui AlphaGo AI au fost dezvoltați pentru ceva mult mai mare: „Să rezolve inteligența” prin crearea AI cu scop general care poate fi utilizată pentru o mulțime de aplicații și, în esență, să învețe pe cont propriu.
Acest lucru, desigur, ridică unele preocupări. Și anume, ce facem dacă AI se strica … dacă este infectat cu un virus … dacă acesta se răsvrătește împotriva noastră?
Într-o lucrare scrisă de cercetătorii de la DeepMind, în colaborare cu Institutul „Future of Humanity” din cadrul Universității din Oxford, oamenii de știință observă că sistemele AI sunt „puțin probabil să se comporte optim” tot timpul și că operatorul uman poate considera că este necesar să apese ” Buton mare și roșu” pentru a împiedica un astfel de sistem să dăuneze. Cu alte cuvinte avem nevoie de un ”întrerupător (kill-switch)”
Înțelegând DeepMind
Co-fondatorul Mustafa Suleyman subliniază faptul că DeepMind este mai mult decât un AI de joc. Așa cum s-a sugerat anterior în acest articol, este o inteligență generală artificială (AGI), ceea ce înseamnă că învață din resursele brute pentru a rezolva sarcini fără nici o pre-programare, în timp ce AI învață din anumite sarcini pentru care sunt create. În cele din urmă, el descrie sistemele lor ca agenți.
Dar poate că vă întrebați dacă un AI ar putea să-și învețe drumul printr-un comutator de oprire – dacă ar putea evolua dincolo de caracteristicile noastre de siguranță construite. Lucrarea, intitulată „Agenți întreruptibili în siguranță „, explorează o metodă care va împiedica un agent, ca să zic așa, să se străduiască să se rotească în jurul butonului roșu mare.
Frică și îngrijorare
În realitate, aceste AI sunt în creștere în fiecare an și se apropie de a se potrivi cu abilitățile de nivel uman atunci când vine vorba de anumite sarcini. Suleyman afirmă chiar că, în ceea ce privește recunoașterea imaginii, DeepMind a reușit să proceseze aproximativ un milion de imagini cu o rată de eroare de aproximativ 16%. Asta a fost în 2012. Anul trecut, acesta a coborât la un uimitor 5,5%.
Așa cum AI continuă să avanseze, este logic să ia măsuri de siguranță în cazul în care operatorii umani trebuie să „preia controlul asupra unui robot care se comportă greșit și care ar putea duce la consecințe ireversibile”.
În acest scop, autorii lucrării au notat, echipa Google caută „o modalitate de a vă asigura că un agent care evoluează nu va învăța să împiedice să fie întrerupt de mediul înconjurător sau de un operator uman”.
Sursa: futurism.com
lasă un comentariu, scrie-ne părerea ta.