La grande repressione di YouTube di 8,3 milioni di video è stata rimossa in soli tre mesi
notiziaYouTube ha rivelato la portata del suo problema video, con un totale di 8,3 milioni di video rimossi dal sito da ottobre a dicembre dello scorso anno.
Di questi video, circa 6,6 milioni di questi sono stati contrassegnati da un algoritmo. Il resto è stato catturato da occhi umani che immagino abbiano bisogno di un po 'di sbiancamento in questo momento.
Il rapporto sulla trasparenza dell'applicazione delle Linee guida della community di YouTube evidenzia ciò che Google sta facendo per assicurarti che YouTube sia un posto più sicuro da visitare. Ma rivela anche quello che potrebbe essere il pozzo nero delle controversie se non avesse queste misure in atto - misure che molti ancora pensano non siano abbastanza grandi da contenere il flusso di immagini odiose o abusive.
Il rapporto afferma che dai video presi giù, il 75% non è mai stato effettivamente visto dal pubblico. Flip questo, però, e significa che un quarto erano.
È il pubblico che sta facendo gran parte del lavoro che YouTube dovrebbe svolgere, agendo da moderatore del sito segnalando i contenuti laddove necessario. Attualmente il 30% di ciò che viene contrassegnato è "contenuto sessuale", mentre il 26% viene classificato come "spam o fuorviante". Il contenuto di contenuti "sfortunati o abusivi" si attesta al 15%, con contenuti "violenti o ripugnanti" che rappresentano il 13% dei video segnalati.
bandiera rossa
Nel rapporto YouTube spiega un po 'di più sul suo programma Trusted Flagger, che è disponibile per agenzie governative e altre istituzioni. Questo, per YouTube, è un programma prioritario, ma i video passano attraverso gli stessi controlli che avrebbero se un utente normale avesse contrassegnato un video, solo che avevano la priorità.
“Il programma Flagger affidabile è stato sviluppato per consentire ai segnalatori altamente efficaci di segnalarci contenuti che violano le nostre Norme della community tramite uno strumento di segnalazione collettiva,” dice il rapporto.
“Gli individui con elevati tassi di precisione, ONG e agenzie governative partecipano a questo programma, che offre corsi di formazione per far rispettare le Linee guida della community di YouTube.”
La maggior parte, tuttavia, del controllo dei video viene eseguita dall'IA - qualcosa che è improbabile che cambi a causa dell'enorme quantità di contenuti che viene contrassegnato, sebbene YouTube stia per reclutare migliaia di persone per aiutare in questo lavoro.
“YouTube ha sviluppato sistemi automatici che aiutano a rilevare contenuti che potrebbero violare le nostre norme. Questi sistemi automatizzati si concentrano sulle forme più eclatanti di abuso, come lo sfruttamento dei minori e l'estremismo violento,” legge il rapporto.
“Una volta che il contenuto potenzialmente problematico viene contrassegnato dai nostri sistemi automatici, la revisione umana di quel contenuto verifica che il contenuto viola effettivamente le nostre politiche e consente di utilizzare il contenuto per addestrare le nostre macchine a una migliore copertura in futuro.
“Ad esempio, per quanto riguarda i sistemi automatici che rilevano i contenuti di estremisti, i nostri team hanno rivisto manualmente oltre due milioni di video per fornire grandi volumi di esempi di formazione, che migliorano la tecnologia di segnalazione di apprendimento automatico.”
Va notato che, nel 2017, i sistemi automatizzati hanno contribuito a segnalare contenuti estremistici violenti per la revisione umana e i progressi nell'apprendimento automatico hanno significato che quasi il 70% del contenuto di estremismo violento è stato rimosso entro otto ore e metà di esso in due ore . Sta usando ciò che ha imparato da questo per trattare altri contenuti problematici.
Quando si tratta di contrassegnare questo tipo di video, l'India è in cima alla lista del paese con il contenuto più segnalato, con gli Stati Uniti al secondo posto - il Regno Unito è sesto.
Se desideri vedere come funziona il sistema di segnalazione di YouTube in un modo stranamente triste, vai al video qui sotto.
- I bambini di YouTube non stanno bene e questo deve cambiare, in fretta