L'ANNUNCIO

La scatola nera dell’AI: Ibm stana gli errori e svela i perché delle decisioni

Annunciato un servizio che aiuta le aziende a indagare e gestire via cloud i sistemi di intelligenza artificiale. David Kenny: “Bisogna affrontare i potenziali rischi associati a un processo decisionale scorretto”

Pubblicato il 19 Set 2018

intelligenza-artificiale_302160902

Rilevare gli errori dell’intelligenza artificiale. Capire il perché delle decisioni. Come se si avesse a disposizione una “scatola nera” attraverso la quale indagare dettagli  e specifiche in nome della trasparenza ma soprattutto delle potenzialità di business. È questa la nuova sfida di Ibm che ha svelato oggi un servizio software basato su cloud che mira ad aiutare le organizzazioni a gestire i sistemi di intelligenza artificiale utilizzati da molti attori del settore industriale.

“Ibm ha assunto una posizione leader nella definizione di principi di fiducia e trasparenza per lo sviluppo di nuove tecnologie basate sull’intelligenza artificiale,” sottolinea David Kenny, Svp di Cognitive Solutions di Ibm. “È tempo di mettere in pratica questi principi. Garantiamo ulteriore trasparenza e controllo alle imprese che utilizzano l’intelligenza artificiale e si trovano ad affrontare i potenziali rischi associati a un processo decisionale scorretto”. Secondo i risultati di un’indagine a firma dell’Institute for Business Value di Ibm se è vero che l’82% delle imprese sta prendendo in considerazione la possibilità di utilizzare soluzioni di intelligenza artificiale è anche vero che il 60% teme problemi legati alla responsabilità e il 63% non dispone di competenze interne in grado di gestire in modo sicuro la tecnologia. Di qui l’idea di Ibm di fornire uno strumento automatizzato nonché nuovi servizi di consulenza per aiutare le società a progettare processi aziendali e interfacce uomo-intelligenza artificiale, riducendo al minimo l’impatto di eventuali errori sul processo decisionale.

Da parte sua Ibm Research distribuirà all’interno della comunità open source un kit di strumenti di rilevazione e mitigazione di bias basato sull’intelligenza artificiale, per incoraggiare la collaborazione globale e affrontare gli errori attraverso soluzioni di intelligenza artificiale.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5