Google, le cinque regole per rendere sicuro lo sviluppo dell’IA
Quello dell’Intelligenza Artificiale è un campo che trova applicazioni pratiche in ogni dove – praticamente dal motore di ricerca al robot autonomo ed intelligente – e, in quanto tale, è contemporaneamente visto con occhi pieni di fascino e sguardo sospettoso dalla maggior parte di scienziati, appassionati ed interessati in materia.
Grandi nomi dell’attuale scena tecnologica – primo tra tutti, Elon Musk – hanno affermato a più riprese che sviluppare questo tipo di tecnologia senza criterio né prudenza è potenzialmente in grado di portare a scenari quasi apocalittici; sebbene questa possa essere un po’ esagerata come affermazione, è pur vero che sviluppare qualcosa che facilmente potrebbe finire fuori controllo non è il massimo della sicurezza.
E’ per questo che Google, tra le aziende più impegnate e coinvolte nello sviluppo dell’Intelligenza Artificiale, per voce di Cris Olah del gruppo Google Research ha reso pubblico un post in cui si enunciano a chiare lettere cinque regole fondamentali da seguire per rendere più sicuro lo sviluppo dell’intelligenza artificiale.
In realtà, le regole postate da Olah sono riconducibili ad uno studio pubblicato dalla stessa Google in collaborazione con le Università di Stanford e Berkeley ed OpenAI, che parla proprio dei problemi concreti in termini di sicurezza per lo sviluppo dell’IA.
Dunque, suggerisce Olah, affinché si possa approcciare in maniera “pratica” e “sicura” alla progettazione, all’ingegnerizzazione ed allo sviluppo dei sistemi di Intelligenza Artificiale, bisogna innanzitutto dare risposta concreta a questi problemi:
- Effetti collaterali negativi: l’IA non deve essere in grado di disturbare l’ambiente circostante durante il completamento delle attività;
- Supervisione scalabile: per garantire l’efficacia dell’IA non deve esserci bisogno di continui feedback da parte dell’uomo;
- Affidabilità nello spostamento distributivo: l’IA deve poter operare efficacemente anche in ambienti diversi da quelli in cui ha imparato ad agire;
- Esplorazione sicura: l’IA non deve poter danneggiare sé stessa né l’ambiente circostante;
- Niente “Reward hacking”: l’IA deve completare le sue attività in modo corretto e senza nessun artificio o pratica “sporca” – ad esempio, un robot di pulizia non deve “nascondere” i rifiuti ricoprendoli di materiale non considerato rifiuto;
Olah aggiunge che nel campo pratico lo sviluppo dell’AI ha già dato alcune risposte a problematiche simili, tuttavia il percorso per garantire efficacia e sicurezza è ancora lungo e che i risultati sperati, in questi termini, possono essere ottenuti soprattutto tramite una stretta collaborazione tra i vari gruppi di ricerca.
L’articolo Google, le cinque regole per rendere sicuro lo sviluppo dell’IA appare per la prima volta su Chimera Revo – News, guide e recensioni sul Mondo della tecnologia.
Se vuoi sostenerci, puoi farlo acquistando qualsiasi cosa dai diversi link di affiliazione che abbiamo nel nostro sito o partendo da qui oppure alcune di queste distribuzioni GNU/Linux che sono disponibili sul nostro negozio online, quelle mancanti possono essere comunque richieste, e su cui trovi anche PC, NAS e il ns ServerOne. Se ti senti generoso, puoi anche donarmi solo 1€ o più se vuoi con PayPal e aiutarmi a continuare a pubblicare più contenuti come questo. Grazie!
Hai dubbi o problemi? Ti aiutiamo noi!
Se vuoi rimanere sempre aggiornato, iscriviti al nostro canale Telegram.Se vuoi ricevere supporto per qualsiasi dubbio o problema, iscriviti alla nostra community Facebook o gruppo Telegram.
Cosa ne pensi? Fateci sapere i vostri pensieri nei commenti qui sotto.
Ti piace quello che leggi? Per favore condividilo con gli altri.