L'editoriale

Dobbiamo avere paura dell’intelligenza artificiale?

Un Golem si affaccia nel mondo contemporaneo: l’intelligenza artificiale. I big data segneranno la superiorità del cervello delle macchine su quello dell’uomo? I timori (affacciati tra gli altri da personaggi come Stephen Hawking ed Elon Musk) possono apparire eccessivi. Ma sono preoccupazioni da non sottovalutare. Meglio pensarci, sin d’ora

Pubblicato il 19 Lug 2017

gildo-campesato-150423181531

Dobbiamo avere paura dell’intelligenza artificiale? Detta così la domanda appare un po’ drastica. E come in tutti gli approcci tassativi, a contenuti di verità possono facilmente intrecciarsi aspetti fake, per usare una parola inglese alla moda.

Eppure, anche senza che nessuno sia oggi in grado di dare una risposta certa alla domanda iniziale, il problema esiste. L’intelligenza artificiale, e cioè quella di macchine in grado di auto-apprendere, auto-correggersi, auto-valutare e auto-decidere senza l’intervento dell’uomo, è ai primi passi. Perché dunque l’uomo deve temere già ora di essere superato dalle macchine? “Siamo agli esordi, vediamo l’evoluzione: per ora l’uomo è nel pieno controllo delle macchine”, verrebbe da rispondere.

Dopotutto, sono sempre gli uomini ad impostare i software. È possibile, ma una volta impostate, le macchine potrebbero “auto-organizzarsi” con propri schemi e sfuggire al dominio di chi li ha creati. Un Golem uscito non più dalle ossessioni della mitologia ebraica o medioevale, ma frutto dello sviluppo tecnologico contemporaneo.

Del resto, la capacità di calcolo e di gestione delle informazioni per unità di tempo delle macchine è nettamente superiore a quella della mente umana. Ciò significa – anche – capacità di prendere decisioni ponderate valutando una massa di dati con maggiore “consapevolezza” di quanto l’uomo possa fare. E senza le emotività della mente umana.

I big data sono fatti ad uso e consumo delle macchine, anche se, in teoria, a vantaggio degli uomini. E stiamo prepotentemente entrando nell’era dei big data. Ovvero, sempre più l’uomo demanderà alle macchine scelte e decisioni prese da loro stesse.

E avverrà in tempi relativamente brevi. Nel mercato del business ma anche in quello consumer. Amazon, per dirne una, ha aperto a Seattle alla fine dello scorso anno un grande centro commerciale completamente senza casse. È recente la presentazione da parte di Huawei di telefonini con funzioni di “machine learning”, più “intelliphone” che smartphone, dunque.

Ma l’esempio più pregnante, e quello che più ha colpito, è certamente quello delle automobili che si guidano da sole. Prodigio della tecnologia ma anche fonte di inquietanti dilemmi. In caso di incidente potenziale, chi salvare? I passeggeri dell’auto o il pedone che sta attraversando? Il dilemma lo scioglierà, se mai possibile, chi imposta il software. Per ora. Ma in futuro? Futuro che significa domani mattina. “Tra vent’anni avere un’auto col volante sarà come possedere oggi un cavallo”, ha detto Elon Musk, fondatore di Tesla e SpaceX. E di cavalli oggi sulle strade se ne vedono pochini.

È però interessante sottolineare che a mettere in guardia dai rischi dell’intelligenza artificiale sia stato, tra gli altri, un fisico del calibro di Stephen Hawking. E sorprende di sicuro che l’ultimo monito, recentissimo, sia venuto proprio da un imprenditore come Musk. “L’intelligenza artificiale è il più grande rischio cui la nostra civilizzazione si trova a far fronte”, ha avvertito. In particolare ha evidenziato i rischi di una guerra scatenata dai computer o una catastrofe occupazionale dovuta a decisioni basate soltanto sulle elaborazioni dell’intelligenza artificiale, vera domina dell’economia del futuro capace di far fare alle macchine milioni di lavori oggi riservati agli uomini.

Musk ha proposto, lui che ha fatto fortuna in una realtà deregolata come la Silicon Valley, di creare un’agenzia pubblica col compito di monitorare lo sviluppo dell’intelligenza artificiale. Come dire che tecnologia e mercato non vanno lasciate senza freni.

Può essere che le preoccupazioni di Musk siano eccessive o troppo anticipate, come subito è stato obiettato. E che magari non sia un’agenzia pubblica lo strumento giusto per monitorare la situazione (soprattutto in Italia dove tutto finisce in burocrazia quando non in caciara). Ma che sia necessario trovare un equilibrio tra intelligenza delle macchine e intelligenza umana pare indispensabile. Possibilmente lasciando all’uomo il controllo e le decisioni fondamentali sul proprio futuro. Da questo punto di vista hanno ragione Musk e Hawking: meglio pensarci per tempo.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati