Circa 500 ore di film sono state caricate su YouTube ogni minuto di ogni giorno. Questo rende il fumo di articoli caricati che una sfida, anche se è nell’interesse di YouTube per soddisfare.

A tal fine, YouTube ha iniziato a condividere informazioni su una metrica che richiede il Volatile View Rate. Si tratta di una misura della proporzione di opinioni di film su YouTube che provengono da film che violano le politiche di YouTube.

Il Volatile View Rate

Le informazioni riguardanti questo Volatile View Rate saranno discusse in Rs nel rapporto sull’applicazione delle linee guida della comunità di YouTube.

YouTube ha presumibilmente creato il suo passo Volatile View Rate nel 2017, anche se sta per essere trasparente sulla condivisione di queste informazioni. Non appena è probabile che sia difficile lavare YouTube immediatamente, l’aspettativa è che la condivisione di questi dati specifici Volatile View Rate in questo modo rivelerà una riduzione continua di quelle opinioni video con il passare del tempo.

In un articolo sul blog, Jennifer O’Connor, manager di YouTube per la fiducia e la sicurezza, rileva che:

“L’ultimo [Volatile View Rate] raggiunge lo 0,16-0,18per cento che significa che da ogni 10.000 prospettive su YouTube, 16-18 arrivano in contenuti violenti. Questo può essere in calo di oltre il 70% rispetto allo stesso trimestre del 2017, in gran parte come risultato dei nostri investimenti nel machine learning.”

L’analisi procede che YouTube ha, fino ad ora, rimosso oltre 83 milioni di film insieme a 7 miliardi di osservazioni che hanno violato le sue linee guida comunitarie. O’Connor compie questo, con i suoi calcoli assistiti dall’AI, la piattaforma di film preferiti è attualmente in grado di scoprire il 94 per cento degli articoli che violano i suoi principi impiegando il flagging automatico. Tre quarti del contenuto viene eliminato prima ancora che sia in grado di sopportare 10 punti di vista.

Il Volatile View Rate non è l’unica metrica che YouTube utilizza per analizzare il suo successo nell’eliminare i contenuti che dividono. Inoltre, utilizza i dati associati al tempo di rotazione una volta che ha a che fare con la rimozione del contenuto. Tuttavia, come trova O’Connor, questa non è una grande metrica. Lei dice:

“Come esempio, confrontate un filmato violento che ha acquisito 100 punti di vista ma è rimasto sul nostro palco per almeno 24 ore con articoli che hanno raggiunto decine di migliaia di punti di vista nelle primissime due ore prima dell’eliminazione. Alla fine, quale ha più effetto? Pensiamo che il VVR sia il metodo più semplice per noi per comprendere quanto i contenuti dannosi incidano per identificare dove dovremo produrre progressi”.

Far funzionare YouTube per tutti

C’è ancora molto lavoro da fare per garantire che piattaforme come YouTube siano aree prospere e non dannose per il maggior numero possibile di consumatori. L’azienda continua a modificare i suoi principi riguardo a tutto ciò che è e non è permesso.

Tuttavia, un lavoro simile a questo dimostra che YouTube sta facendo del suo meglio per spostare gli elementi nella direzione ideale.