Deep learning: i robots imitano gli umani

732
0
CONDIVIDI

Se state leggendo questo articolo, dopo aver dato uno sguardo a Facebook, se avete finito la vostra ricerca su Google o vi siete appena svegliati (ricordandovi di telefonare al tecnico della Pay Tv per spiegargli come arrivare a casa vostra), chiedetevi come avete fatto, e siate orgogliosi di voi. Non scherzo. Io vi dico che siete straordinari. E vi spiego perchè.

Appena una decina di giorni fa, si è tenuto, nella prestigiosa University of California di Berkeley, il convegno ROBOTICS: Sciences and Systems. E’ stato mostrato lo stato dell’arte nel campo della ricerca robotica, della interazione uomo-macchina e dell’apprendimento di robots con cui, in un futuro non remoto, condivideremo questo pianeta. Non spaventatevi, non siate egoisti, ne avrete ancora l’esclusiva per un pò. Si, perchè pare che insegnare a comportarsi, agire ed interagire a macchine e robots dotati di intelligenza artificiale non sia per nulla cosa facile.

Anche se impressionanti progressi sono stati fatti dalla ricerca, dall’industria e da imprese come Facebook e Google negli ultimi due o tre anni, tempo in cui una immane quantità di denaro è stata investita per portare avanti progetti di sviluppo delle capacità di apprendimento delle macchine, il sogno di poter raggiungere gradi di comprensione ed elaborazione simili a quelli del cervello umano, sembra ancora non realizzabile ed assai lontano per androidi di ogni sorta.

Le intelligenze artificiali a cui siamo abituati, programmate secondo algoritmi, sono capaci di procedere in modo lineare per un apprendimento supervisionato. Dai dati immessi, la macchina ricava una informazione per similarità. Più dati simili si danno alla macchina più probabilità ci saranno che questa apprenderà. Visualizzare diverse migliaia di foto di sedie le permetterà (con un certa probabilità) di riconoscerne una (e portarvela magari quando siete stanchi).

Il fatto è che per insegnare ai robots ad apprendere in questo modo è necessaria una quantità spropositata di dati da immettere in memoria, di immagini cioè. Cosa per niente semplice. Seppure sommersi da immagini e dati nella vita reale, non possiamo disporre di una quantità utile allo scopo. Per poter essere immesse e riconosciute dal sistema, le immagini devono essere correttamente catalogate ed etichettate. Quante sedie etichettate vedete in giro? Poche, spero!  Servirebbero, infatti, da 50.000 a svariati milioni di immagini in ingresso per poter dare una poco più che minima capacità al robot di riconoscere la vostra sedia, nel processo decisionale che questo dovrebbe portare a termine, data la vostra richiesta. Immaginate il lavoro degli sviluppatori!

L’attenzione dei ricercatori come Andrew Ng, noto per aver fondato Coursera ed essere stato a capo del Google Brain Project del 2011, si è spostata verso lo sviluppo di intelligenze artificiali da un apprendimento non-supervisionato. Basandosi sui principi del deep learning (apprendimento profondo), tecnica che simula le connessioni neurali nello sviluppo di una intelligenza artificiale, Ng, così come altri ricercatori, ha iniziato a sviluppare meccanismi, come quelli usati ora dai motori di ricerca, incentrati su parole chiave date, a partire dalle quali il sistema crea una lista di collegamenti (link) attinenti.

Gli algoritmi elaborati, nel confrontare dati, cercano similitudini o differenze ed associano immagini o risposte agli input ricevuti. In una ricerca che non verterà sull’accumulo dati, ma su associazioni semantiche, la macchina, sarà capace di elaborare e gestire una quantità enorme di informazioni. E’ quanto hanno dimostrato nel 2012 lo stesso Ng e i suoi colleghi del Google Brain Project, con un noto articolo sulla capacità di riconoscimento di volti umani e gatti. Nuovi orizzonti sulla comprensione dell’origine del linguaggio si sono aperti in campo filosofico ed antropologico.

Che sia l’ Ikeabot (presentato al ROBOTICS: Sciences and Systems), robot capace di assistere l’uomo nel montaggio dei mobili in kit o la prossima automobile in grado di guidare da sè, riconoscendo in tempo reale oggetti, macchine o camion lungo un percorso A-B individuato, per poi parcheggiarsi (o parcheggiarci…?), dietro di essi un’intelligenza artificiale sta operando. Provando a copiarci. La capacità di apprendimento di una macchina, l’efficienza di un metodo, seppure basato sul deep learning, presuppone comunque lo sviluppo di un algoritmo da parte di un operatore. Umano. Per ora.

Per liberare le macchine dal controllo dell’uomo, se è questo che si sta cercando di fare, c’è bisogno di definire algoritmi capaci di individuare funzioni di meta-ragionamento ed apprendimento umani per stabilire poi parametri di istruzione per i robots stessi e le macchine. La capacità associativa di cui dispongono ora le intelligenze artificiali, a partire da dati, rende queste capaci di una prospettiva, di un orientamento, ma ciò non basta per lo sviluppo di un processo di apprendimento come quello umano.

Posto che l’intelligenza sia una somma di dati o informazioni, possono la complessità ed il caos del mondo, per attimi di tempo ed imprevisti, essere esplorati da reti di GPU predisposte al calcolo? Per quanti dati siano stati insegnati da genitori o errori, ognuno ha elaborato le proprie esperienze in modo unico, personale, autenticamente non supervisionato. Il cervello umano resta il più potente e libero computer del mondo.

Che l’intelligenza sia qualcosa di discutibile è certo (specie quella di alcuni soggetti); che l’uomo viva una dimensione in cui le sue stesse prospettive rendono il pensiero debole può essere, ma state tranquilli ancora per un pò, voi lettori (che state per decidere liberamente di bere un caffè): quel pensiero debole resta più forte di qualsiasi artificiale intelligenza debole.

RIPRODUZIONE RISERVATA © Copyright OVERPRESS