Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

L'ANALISI

Intelligenza artificiale, la sfida da vincere è sul “governo” dei dati

La diffusione di sistemi bastati su AI e machine learning offre alle imprese chance di sviluppo senza precedenti. Ma senza una consolidata capacità di leggere le informazioni la tecnologia rischia di diventare un freno all’innovazione anziché un driver. Investimenti sulla formazione la chiave di volta

11 Ott 2018

Paolino Madotto

consulente manageriale

L’Intelligenza Artificiale è divenuta in breve tempo la nuova frontiera dell’Ict. Le enormi potenzialità di avere algoritmi in grado di prevedere il comportamento futuro di alcuni fenomeni, classificare il comportamento o le informazioni di oggetti e persone in categorie predefinite o “autodefinite”, identificare le leggi “nascoste” del comportamento di persone o fenomeni fisici e agire di conseguenza a secondo delle situazioni rende l’intelligenza artificiale una inesauribile miniera di opportunità di sfruttamento per migliorare la vita di ognuno di noi.

I media e, spesso, gli “esperti” tendono a costruire intorno a questa branca dell’informatica un alone di mistero, un po’ per ragioni di marketing (più è complesso e me ne occupo, più sono bravo) e un po’ per l’oggettiva difficoltà di comprendere la materia da parte della maggioranza della popolazione. A differenza dell’informatica “gestionale” dove è più semplice spiegare come ordinare dei record di dati o fare calcoli contabili, financo spiegare workflow di processi, in questo caso vengono applicati complessi calcoli statistici o algoritmi che “estraggono” dai dati “regole di comportamento” (come ad esempio le reti neurali). L’Intelligenza Artificiale apprende dall’uomo (o meglio dai dati che l’uomo gli fornisce) e poi applica ciò che ha appreso, ponendo la gran parte delle persone di fronte ad una macchina che appare assumere un comportamento “umanizzato”.

Questa umanizzazione della tecnologia tuttavia ci porta ad accettarne acriticamente gli output esponendoci a molti rischi di errore. Sono noti i casi di algoritmi di Intelligenza artificiale che hanno dato luogo a risultati palesemente errati, ad esempio nel riconoscimento di potenziali criminali o comportamenti potenzialmente delinquenziali o a risultati pieni di pregiudizi tali da invalidarne l’applicazione. I risultati degli algoritmi sono legati in modo indissolubile alla quantità e qualità dei dati, non di rado li si usa senza tener conto della loro qualità.

L’Intelligenza Artificiale vive di dati e informazioni che vengono elaborate al fine di estrarne le regole. Possedere un insieme di dati in grado di rappresentare il fenomeno è importantissimo, come è altrettanto importante possedere degli ottimi criteri di verifica e calcolo dell’errore e di test dei risultati. I dati di cui gli algoritmi si alimentano sono un campione della realtà, una parte e non il tutto. È impossibile poter alimentare un algoritmo con tutti i dati della realtà. Gli algoritmi così non hanno una immagine completa del fenomeno ma ne possiedono solo una loro rappresentazione semplificata, ragione questa per cui possono andare in errore.

L’AI ha enormi potenzialità in moltissimi ambiti applicativi ma significa anche che affidarsi ad essa comporta un sostanziale “conservativismo” nei risultati. Prendiamo per esempio l’applicazione dell’AI nella selezione del personale dove una serie di criteri danno luogo all’individuazione della figura “adatta”. In questo caso il sistema “intelligente” tende ad escludere soggetti anche potenzialmente più capaci che non rispondono ai canoni creati dalla statistica del personale assunto con buoni risultati. Una selezione che, al contrario di quella darviniana, non premia i soggetti migliori ma quelli che sono più simili ai precedenti. Mettendo potenzialmente a rischio la capacità dell’azienda di innovare.

Metterci completamente e acriticamente nelle mani dell’intelligenza artificiale ci mette a rischio di perdere, come specie umana, la capacità di innovare, la capacità di premiare l’ibridazione di comportamento, la capacità di riconoscere o dare fiducia a comportamenti “fuori dal comune” che nella storia hanno prodotto spesso risultati innovativi.

L’enorme interesse verso l’Intelligenza Artificiale non deve farci dimenticare che ad essa possiamo delegare compiti ripetitivi ma non possiamo e dobbiamo delegare la nostra vita. Essa può stravolgere il mondo del lavoro eliminando le occupazioni con minore quantità di conoscenza e autonomia operativa ma ci imporrà nuove attività di controllo, di validazione e creative. Imporrà a tutti di acquisire la capacità di formarci continuamente, elaborare nuove nozioni, individuare comportamenti e fenomeni per comprendere se gli algoritmi stanno inducendo errori e quale grado di errore. È sempre di più nostro compito combattere i pregiudizi e la naturale predisposizione ad assecondare il “conservativismo” per equilibrare l’uso sempre più diffuso dell’Intelligenza Artificiale.

È urgente promuovere un uso consapevole dei limiti e delle enormi potenzialità dell’Intelligenza Artificiale, coinvolgere tutti i cittadini spiegando loro fino a dove affidarsi ad essa, coinvolgere i decisori aziendali, della burocrazia e politici spiegando loro come governare i risultati. Ciò che l’AI non potrà mai avere è un sistema di valori etico, il ruolo dell’uomo sarà sempre meno lavorare acriticamente e sempre più dare un etica al lavoro e ai risultati della macchina. Bisognerà investire a formare e sviluppare nella scuola e nella società capacità di giudizio, visione critica, responsabilità sociale.

@RIPRODUZIONE RISERVATA
Argomenti trattati

Approfondimenti

I
intelligenza artificiale

Articolo 1 di 5