Questo sito web utilizza cookie tecnici e, previo Suo consenso, cookie di profilazione, nostri e di terze parti. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque suo elemento acconsente all'uso dei cookie. Leggi la nostra Cookie Policy per esteso.OK

CYBERBULLISMO

Youtube, stretta di Google contro i comportamenti molesti

In un post sul blog aziendale il Vp Matt Halprin, Global Head of Trust & Safety del gruppo, evidenzia le nuove regole per contrastare minacce e insulti online. Sanzioni più severe per i creator, ma si arriva fino fino alla chiusure del canale

12 Dic 2019

D. A.

Saranno sanzionate non più solo le minacce esplicite (come già avviene), ma anche quelle velate o implicite. Non saranno più tollerati contenuti che insultino qualcuno sulla base di caratteristiche personali e sensibili, come la provenienza o l’etnia, l’identità di genere o l’orientamento sessuale. I canali che violeranno e si opporranno alle norme verranno messi nelle condizioni di non poter più guadagnare attraverso la piattaforma, e potranno essere chiusi. Anche i creator potranno intervenire nelle conversazioni, segnalando i commenti che, pur non violando apertamente le nostre norme, risultano essere inappropriati

Sono questi i principali elementi che contraddistinguono l’aggiornamento delle norme relative ai comportamenti molesti su YouTube. È la stessa Google a comunicarle con un blog post a firma di Matt Halprin, Vicepresident, Global Head of Trust & Safety. L’aggiornamento delle norme è stato possibile anche grazie al confronto con i creator di YouTube, una serie di esperti, le organizzazioni che studiano il cyberbullismo, coloro che supportano i giornalisti, i sostenitori della libertà di espressione e le organizzazioni appartenenti alle diverse parti dello scenario politico.

Constrastare l’incitamento all’odio sulla piattaforma

“Negli ultimi anni abbiamo lavorato per migliorare il modo in cui gestiamo i contenuti su YouTube, rimuovendoli rapidamente quando violano le linee guida della nostra community, riducendo la diffusione di contenuti borderline, mettendo in evidenza fonti autorevoli per chi è alla ricerca di notizie e informazioni e premiando i creator e gli artisti affidabili che rendono YouTube un posto speciale”, scrive Halprin. “Oggi annunciamo una serie di modifiche sulle norme e sul prodotto, che aggiornano il modo in cui affrontiamo i casi di molestie su YouTube. Ci siamo impegnati per rivedere sistematicamente tutte le nostre norme per assicurarci che il confine tra ciò che è permesso e ciò che invece rimuoviamo sia nel posto giusto, e all’inizio di quest’anno abbiamo constatato che per quanto riguarda i casi di molestie possiamo fare di più, sia per proteggere i nostri creator che verso la community”.

Il manager sottolinea che gli atteggiamenti molesti danneggiano la community, rendendo le persone meno inclini a condividere le proprie opinioni e a relazionarsi tra loro. “Lo abbiamo sentito dire più volte da parte dei creator e li abbiamo ascoltati, invitando alcuni di loro a partecipare allo sviluppo di questo aggiornamento delle norme. Abbiamo anche incontrato una serie di esperti che hanno condiviso la propria prospettiva e contribuito al processo, dalle organizzazioni che studiano il cyberbullismo o supportano i giornalisti, ai sostenitori della libertà di espressione e le organizzazioni appartenenti alle diverse parti dello scenario politico. Confermiamo il nostro impegno a fare di YouTube una piattaforma aperta, dove siano garantiti dibattiti vivaci e costruttivi scambi di idee. Tuttavia, non tollereremo le molestie e crediamo che le iniziative descritte di seguito contribuiranno al nostro obiettivo di rendere YouTube un posto migliore, dove tutti possono condividere la propria storia o opinione”.

Halprin spiega che per stabilire un criterio coerente su quali contenuti non sono consentiti su YouTube, Google è partita dall’insieme di norme usate per contrastare l’incitamento all’odio. “Non permetteremo più contenuti che insultino qualcuno sulla base di caratteristiche personali e sensibili, come la provenienza o l’etnia, l’identità di genere o l’orientamento sessuale”. Questo principio, viene esplicitato, vale per tutti, dai privati cittadini, ai creator di YouTube, ai funzionari pubblici.

Le conseguenze per un comportamento molesto ripetuto

“Una cosa che abbiamo sentito dire dai nostri creator è che le molestie a volte prendono la forma di un modello di comportamento ripetuto in più video o commenti, mentre presi singolarmente i singoli contenuti potrebbero non oltrepassare il limite che abbiamo stabilito. Per affrontare questo problema, stiamo rafforzando le nostre norme legate al Programma partner di YouTube (Ypp), per intervenire più efficacemente nei confronti di coloro che adottano comportamenti molesti e per assicurarci di premiare solo i creator affidabili”, continua Halprin. I canali che arrivano ripetutamente sul limite delle norme sulle molestie saranno sospesi da Ypp, e non avranno così la possibilità di guadagnare su YouTube. Potrà anche essere rimosso il contenuto dai canali se molestano ripetutamente qualcuno. Se questo comportamento dovesse persistere, Google adotterà azioni più severe, tra cui l’invio di avvertimenti o la chiusura totale di un canale.

“Sappiamo che la sezione commenti è per i fan un luogo importante d’interazione, sia con i creator che tra loro. Allo stesso tempo, abbiamo ricevuto segnalazioni secondo cui i commenti sono il luogo in cui creator e utenti ricevono molestie. Non solo questo comportamento ha un impatto sulla persona bersagliata dalle molestie, ma può anche avere un effetto negativo sull’intera conversazione. Per contrastare questo fenomeno, eliminiamo i commenti che violano chiaramente le nostre norme – per un totale di oltre 16 milioni nel terzo trimestre di quest’anno. Gli aggiornamenti delle norme che abbiamo delineato qui sopra si applicheranno anche ai commenti, quindi ci aspettiamo che questo numero aumenti in futuro”.

Oltre all’eliminazione dei commenti, Google dà anche la possibilità ai creator di influenzare ulteriormente la conversazione sui propri canali attraverso una serie di strumenti a loro disposizione. Quando un commento potrebbe sembrare inappropriato pur senza violare esplicitamente le nostre norme, la piattaforma permette ai creator di esaminarlo prima che venga pubblicato sul proprio canale. “I risultati ottenuti tra coloro che hanno adottato per primi questo metodo sono promettenti: una riduzione del 75% delle segnalazioni sui commenti nel proprio canale. All’inizio di quest’anno, abbiamo iniziato ad attivare di default questa impostazione per la maggior parte dei creator. Tutti questi aggiornamenti”, chiosa Halprin, “rappresentano un ulteriore passo in avanti per proteggere la community di YouTube. Ci aspettiamo di continuare ad avere un sano dibattito su questi aggiornamenti e abbiamo messo a disposizione dei creator un sistema per segnalare quando ritengono che la nostra decisione su un video sia sbagliata”.

@RIPRODUZIONE RISERVATA

Articolo 1 di 5