Jourová: "Ue all'avanguardia grazie al Gdpr". Il Garante Stanzione: "Attenzione al neurocapitalismo" - CorCom

GIORNATA EUROPEA PRIVACY

Jourová: “Ue all’avanguardia grazie al Gdpr”. Il Garante Stanzione: “Attenzione al neurocapitalismo”

La Commissione Ue evidenzia gli sforzi fatti per tutelare cittadini e imprese. E l’Autorità italiana focalizza l’attenzione sui nuovi fronti da presidiare: “Implicazioni dirompenti sulla vita individuale e collettiva”

28 Gen 2021

Federica Meta

Giornalista

Tutelare la vita privata è nel Dna dell’Europa: la Giornata della protezione dei dati personali di quest’anno, che si celebra il 28 gennaio, segna il 40° anniversario della “Convenzione 108″ del Consiglio d’Europa, l’unico trattato internazionale sulla tutela della vita privata. Le norme europee sulla protezione dei dati sono ora diventate il modello di riferimento seguito diffusamente nel mondo”. Lo hanno dichiarato, in vista della Giornata della protezione dei dati personali, Věra Jourová, vice presidente per i Valori e la trasparenza, e Didier Reynders, commissario per la Giustizia.

“Durante la pandemia di coronavirus abbiamo potuto apprezzare ancor più del solito quanto sia importante un regime di protezione dei dati efficiente – spiegano i commissari – Nuove soluzioni digitali quali le app di tracciamento possono funzionare solo se le persone si sentono tutelate adeguatamente e possono essere certe che i loro dati non saranno utilizzati impropriamente. Il regolamento generale sulla protezione dei dati è un passo importante verso l’approccio antropocentrico dell’Europa alle tecnologie digitali; esso sostiene e responsabilizza i cittadini”.

“La circolazione libera e sicura dei dati è essenziale anche per la continuità di funzionamento delle amministrazioni pubbliche e delle imprese durante la pandemia. La tutela della vita privata e una facile circolazione dei dati personali devono procedere di pari passo”, hanno aggiunto.

Grazie al suo innovativo regime di protezione dei dati, sottolineano, “l’Ue si trova in una posizione che le permette di promuovere flussi di dati sicuri e affidabili su scala mondiale. A tal fine la Commissione potenzierà la cooperazione con i partner che condividono i suoi stessi valori a livello bilaterale e multilaterale, sfruttando la crescente tendenza verso livelli più alti di norme in materia di tutela della vita privata. Con la decisione sullo scudo Ue-Usa per la privacy nella causa Schrems II a luglio 2020 la Corte ha confermato che, anche quando escono dai confini europei, i dati personali devono rimanere al sicuro”.

“La collaborazione con le nostre controparti nella nuova amministrazione statunitense rappresenta una priorità al fine di garantire la tutela dei dati personali trasferiti oltre oceano nel pieno rispetto della decisione della Corte. Siamo a un passo dal finalizzare i colloqui sull’adeguatezza con la Corea del Sud e siamo impegnati in dialoghi di adeguatezza con diversi altri partner internazionali. Contribuiamo attivamente al lavoro di organizzazioni internazionali quali l’Ocse volto a elaborare norme e protezioni globali per l’accesso delle pubbliche amministrazioni ai dati personali, fattore sempre più importante per i flussi di dati”, hanno sottolineato.

Jourova e Reynders hanno anche sottolineato: “Stiamo collaborando con le autorità per la protezione dei dati europee per garantire un’applicazione rigorosa delle nostre norme. Severe norme sulla protezione dei dati sono parte della soluzione per affrontare la pandemia. Tali norme ci torneranno utili via via che aumenterà l’accelerazione della transizione verso società ed economie basate sui dati. I cittadini europei possono stare tranquilli: nell’Ue i dati personali appartengono ai legittimi proprietari”.

Le linee guida del Consiglio Ue sul riconoscimento facciale

Alla viglia della Giornata europea per la Privacy  il Consiglio d’Europa ha varato le linee guida sul riconoscimento facciale.  “L’uso di tecnologie per il riconoscimento facciale per identificare le emozioni degli individui deve essere vietato perché pone gravi rischi, tra gli altri, nell’ambito del lavoro, dell’educazione, e anche nel sottoscrivere una assicurazione”, precisano le regole nelle quali si indica che il riconoscimento facciale deve essere anche vietato il loro uso al solo fine di determinare il colore della pelle, la religione, il sesso, la razza, l’età, lo stato di salute e lo status sociale di una persona.
L’organizzazione vuole che le tecnologie per il riconoscimento facciale siano rigidamente regolate per evitare gravi rischi alla privacy. Nelle linee guida, destinate a governi, sviluppatori della tecnologia e aziende si afferma anche che occorre un dibattito pubblico sulla possibilità di utilizzare il riconoscimento facciale nei luoghi pubblici e nelle scuole, mentre non si dovrebbe permettere alle aziende private di utilizzarlo in posti come i centri commerciali, per il marketing o nell’ambito della sicurezza privata. Infine l’uso di questa tecnologia da parte delle forze dell’ordine dovrebbe essere consentito solo quando è strettamente necessario per prevenire un rischio imminente e grave alla sicurezza pubblica.
“Nel migliore dei casi il riconoscimento facciale può essere conveniente, aiutandoci a ‘navigare’ tra gli ostacoli della vita quotidiana, ma nel peggiore dei casi minaccia i nostri diritti umani fondamentali, dando alle autorità il potere di monitorare e controllare importanti aspetti della nostra vita spesso senza che noi ne siamo a conoscenza – ha  spiegato il segretario generale del Consiglio d’Europa Marija Pejcinovic Buric – Queste linee guide servono a bloccare questa possibilità assicurando la protezione della dignità umana, dei diritti e la sicurezza dei dati personali degli individui”, ha aggiunto il segretario generale.

La sfida delle neuroscienze

Aprendo i lavori del convegno “Privacy e neurodiritti”, Pasquale Stanzione, presidente dell’Autorità Garante per la Protezione dei dati personali, ha sottolineato le nuove sfide per la privacy. “Non tutto ciò che è tecnicamente possibile è anche giuridicamente lecito ed eticamente ammissibile, perché non possiamo fare tutto ciò che è possibile fare, come diceva Nietzsche. Ogniqualvolta la scienza amplia la sfera delle possibilità, sorge il problema del limite di ammissibilità e di sostenibilita’ etica, giuridica, sociale dell’innovazione – ha detto – In primo luogo, va distinto l’uso strettamente terapeutico delle neurotecnologie dal loro utilizzo a fini di potenziamento cognitivo. Positivo è l’uso che di tali tecniche si potrebbe fare, ad esempio, per la cura di malattie neurodegenerative”.
E “vanno certamente promosse le innovazioni che possano contribuire a contenere gli effetti invalidanti di determinate patologie, restituendo ai processi neurali la fisiologia e la funzionalità perdute, a tutela del diritto fondamentale alla salute”.
“Ben più problematico – ha osservato il Garante – è il ricorso a tali tecniche a fini di potenziamento cognitivo. Le attuali interfacce cervello-macchina per il controllo motorio già consentono non solo di amplificare capacita’ proprie dell’uomo, ma anche di fornirne ulteriori, transumane, quali il controllo telepatico di dispositivi. Si tratta non tanto e non solo del ‘pendio scivoloso’ e di una lettura rigorosa del principio di precauzione, quanto della definizione del limite oltre il quale non sia tollerabile andare, anche per non ingenerare nuove discriminazioni nei confronti di quanti potenziati non siano e non accettino di esserlo”.
“Le neurotecnologie fondate sul brain reading in senso stretto – ha proseguito – e dunque con funzione essenzialmente analitico-descrittiva dei processi cerebrali, qualora dovessero effettivamente riuscire a decodificare i contenuti, avrebbero conseguenze principalmente sotto il profilo della trasparenza e visibilità del pensiero. Le tecnologie capaci di apportare condizionamenti e modificazioni nel processo neurale, prospetterebbero invece un problema di libertà cognitiva come presupposto fondativo del diritto di autodeterminazione individuale. Interventi di questo tipo sul processo cognitivo e finanche volitivo avrebbero, naturalmente, riflessi rilevantissimi in ogni campo della vita e del diritto ma, soprattutto, sul terreno della capacità di discernimento e della stessa imputabilità penale, ben oltre il mero accertamento della reale partecipazione psicologica del soggetto al fatto a lui ascritto”.
“Il rischio, insomma – ha concluso Stanzione – non è tanto e non è solo l’hackeraggio del cervello (prospettiva di un tale riduzionismo biologico da atterrire chiunque) quanto, prima ancora, la legittimità e l’ammissibilità etica di un intervento eteronomo sul processo cognitivo: il terreno sinora immune da ogni interferenza esterna”.
Secondo Stanzione “si delinea una congiunzione tra neuroscienze e capitalismo digitale, definita con una crasi significativa ‘neurocapitalismo’, idonea a determinare implicazioni potenzialmente dirompenti sulla vita individuale e collettiva, di una pervasività tale da scardinare gli assunti fondativi dell’intero sistema delle garanzie costituzionali”.
Il presidente dell’Authority ha osservato che “con le neurotecnologie di ‘brain reading’ ci si muove su di un terreno ancor più scivoloso, in ragione dell’intervento diretto sul processo cognitivo e volitivo per renderlo, in un futuro ormai prossimo, trasparente e almeno in parte manipolabile, con il rischio addirittura di uno sfruttamento a fini commerciali delle informazioni”.

“Siamo quindi di fronte a una nuova antropologia, che esige una più profonda ed effettiva difesa della dignità dal rischio di un riduzionismo, non semplicemente biologico ma neurologico, capace di annullare conquiste di libertà ormai talmente risalenti e consolidate da essere ritenute di fatto acquisite”.

Si chiede a questo proposito il Garante della privacy: “Quale significato avrebbe la tutela dell’intangibilità della sfera privata, in ogni sua articolazione, se poi i pensieri fossero ‘leggibili’ e venisse così negata la riservatezza? Può darsi realmente libertà se l’uomo, mediante la tecnica, diviene osservatore delle più intime percezioni, aspirazioni, volontà altrui e persino proprie, se ignote?”.
Analogo argomento può valere, del resto, per “ogni altra garanzia democratica: dal diritto di difesa, comprensivo anche del diritto al silenzio e dell’inammissibilità di prove lesive dell’autodeterminazione, al divieto di perizia criminologica, alla segretezza del voto, alla libertà confessionale, al pluralismo informativo, politico e via enumerando”.

In Italia i social nel mirino del Garante

Fari puntati dell’Autorità italia sui maggiori social network.

L’Autorità garante per la protezione dei dati personali apre un fascicolo su Facebook e Instagram. La decisione a tutela dei minori sui social arriva dopo che nei giorni scorsi l’authority aveva disposto il blocco di TikTok a seguito del caso di una ragazzina di 10 anni morta a Palermo dopo aver partecipato al “Black out challenge”, una prova di soffocamento estremo su TikTok, su cui la Procura di Palermo ha aperto due inchieste.

A indurre il Garante a estendere la propria indagine anche su altre piattaforme è stato il fatto che nei giorni scorsi alcuni articoli di stampa abbiano riportato la notizia che la minore di Palermo avrebbe avuto diversi profili aperti sui due social network. “L’Autorità ha dunque chiesto a Facebook, che controlla anche Instagram, di fornire una serie di informazioni – si legge in una nota del Garante – a partire da quanti e quali profili avesse la minore e, qualora questa circostanza venisse confermata, su come sia stato possibile, per una minore di 10 anni, iscriversi alle due piattaforme”.

Oltre a questo l’authority ha chiesto a Facebook e Instagram “soprattutto di fornire precise indicazioni sulle modalità di iscrizione ai due social e sulle verifiche dell’età dell’utente adottate per controllare il rispetto dell’età minima di iscrizione”

Ora i due social avranno 15 giorni di tempo per far pervenire le proprie risposte al Garante, che nel frattempo ha annunciato di voler estendere le verifiche anche ad altri social, “in particolare riguardo alle modalità di accesso alle piattaforme da parte dei minori”.

Intanto TikTok, finita nel mirino dopo la morte a Palermo della bambina di 10 anni, fa sapere di aver “comunicato al Garante della Privacy delle linee d’azione in risposta alle preoccupazioni sollevate, che prendiamo con la massima serietà”.

“In TikTok la sicurezza della nostra community, in particolare degli utenti più giovani, – sottolinea il social – è la nostra priorità. Mettiamo a disposizione degli adolescenti e delle loro famiglie solidi controlli di sicurezza e risorse sulla nostra piattaforma e aggiorniamo regolarmente le nostre policy e misure di protezione come parte del nostro continuo impegno nei confronti della nostra community”.

Dal caso social e minori prende spunto la riflessione di Nicola Bernanrdi, presimdete di Federprivacy.  Nelle sue considerazioni, in occasione della Giornata europea.  Bernardi sottolinea che “tutelare la privacy delle persone significa proteggerle”, e questo vale specialmente per i soggetti più vulnerabili come i minori online, plaudendo all’operato dell’Autorità Garante, che a seguito dei recenti fatti di cronaca riguardanti il caso della bambina di Palermo “sta coraggiosamente conducendo accertamenti nei confronti di noti social come Tik Tok, Instagram, e Facebook”.

Il presidente di Federprivacy osserva inoltre che negli ultimi anni gli scenari sono rapidamente cambiati, e “lo sfruttamento indiscriminato dei dati personali ha generato la diffidenza degli utenti nei confronti di internet”, e perciò le aziende che vogliono cogliere le opportunità del mercato digitale devono rivedere le loro strategie di business finora concentrate nella monetizzazione del valore dei dati personali, e puntare invece su etica e trasparenza per riguadagnare la fiducia degli utenti.

Se fino a poco tempo fa si affermava che “i dati personali sono il nuovo petrolio – afferma Bernardi – occorre aggiustare il tiro, perché adesso è la privacy come valore la nuova fonte di ricchezza per le aziende che la rispettano”. Non basta quindi rispettare le regole del Gdpr per evitare sanzioni, ma le imprese digitali devono quindi mettere l’utente al primo posto.

@RIPRODUZIONE RISERVATA