Perché i bot che prendono il posto di (alcuni) giornalisti potrebbero essere una buona cosa
notiziaA volte è facile essere cinici. Quando leggo pezzi che suggeriscono che in futuro i robot faranno tutto il giornalismo, mi chiedo: non è già successo? I miei feed di notizie sono pieni di pezzi che evidenziano i buffi tweet che ho visto ieri, rigurgitando i comunicati stampa e incorporando clip di YouTube di qualcuno che non riconosco essere "totalmente distrutto!" da qualcuno di cui non ho sentito parlare. Probabilmente potresti automatizzarlo in un pomeriggio.
Siamo già abituati all'aggregazione delle notizie, in cui gli algoritmi creano feed personalizzati. Potrebbe il prossimo passo essere la scrittura automatica?
- Hai un'idea geniale per la prossima grande innovazione tecnologica? Partecipa alla nostra competizione Tech Innovation for the Future e potresti vincere fino a £ 10.000!
Shallow non è stupido
Non così veloce, bot. Buzzfeed è un giornalismo brillante e importante, così come molte altre proprietà dei media che pubblicano anche le cose superficiali. Nella nostra utopia orientata alla pubblicità, in cui quasi nessuno vuole più pagare le notizie, il fluff è spesso ciò che paga le bollette, e sta finanziando le cose buone, perché un buon giornalismo richiede tempo, impegno e denaro; quello che è importante raramente è quello che sta portando gli occhi per gli inserzionisti.
La Mappa della conoscenza del Washington Post aggiunge automaticamente informazioni contestuali e di sfondo agli articoli
Se i robot possono subentrare nel lavoro dei grugniti, che in molti casi possono farlo, questo può potenzialmente ridurre i costi delle organizzazioni dei media e consentire loro di spendere una percentuale maggiore del loro reddito pubblicitario su materiale più serio. Questa è una pessima notizia per chiunque il cui compito attuale sia quello di spingere Twitter per i tweet un po 'smodati dei reality show contest, ma una grande notizia per le organizzazioni che finanziano il giornalista del Guardian Carole Cadwalladr, che ha rotto lo scandalo di Facebook / Cambridge Analytica. Non è vero??
Quali newsbots possono (e non possono) fare
Un sacco di giornalismo è semplice segnalazione: dice semplicemente, “ecco una cosa che è successo”. E questo può essere molto prezioso.
Quando il Met Office del Regno Unito emette un avviso meteorologico, questa è un'informazione fondamentale per gli agricoltori. Quando un'azienda emette un avvertimento commerciale o le banche centrali considerano l'aumento dei tassi di interesse, questo è importante per i mercati finanziari. Quando una pubblicazione in una parte del mondo pubblica una storia, potrebbe essere davvero un'informazione utile per le organizzazioni in un'altra parte del mondo, e così via. Automatizzare questo tipo di cose è piuttosto semplice, così per esempio un bot potrebbe prendere il comunicato stampa finanziario di un'azienda e sintetizzarlo per un sito di notizie finanziarie.
Siamo già abituati all'aggregazione delle notizie, con algoritmi che creano feed personalizzati per noi. Potrebbe il prossimo passo essere automatizzato la scrittura di storie?
La tecnologia può aiutare con un sacco di report di base. Ad esempio, il progetto Radar della UK Press Association (Reporters And Data And Robots) ha lo scopo di automatizzare un sacco di notizie locali riportando informazioni da agenzie governative, autorità locali e polizia. Sarà ancora supervisionato da “giornalisti umani qualificati”, almeno per il prevedibile futuro, ma la scrittura vera e propria sarà automatizzata: utilizza una tecnologia chiamata Natural Language Generation, o NLG in breve. Pensa a Siri, Alexa o ai recenti demo di Google Duplex che imitano il linguaggio umano, ma dedicati alla scrittura piuttosto che alla parola.
Secondo il caporedattore di Urbs Media, Gary Rogers, che sta lavorando con la PA per il progetto RADAR, “i giornali locali non hanno lo staff per scrivere quelle storie e nessuna operazione centralizzata - anche a livello di PA - sta per scrivere su 250 storie localizzate. Ci siamo resi conto che se siamo in grado di scrivere questa automazione nel processo di produzione di notizie locali, non stiamo prendendo il lavoro di qualcuno, stiamo facendo qualcosa che nessun altro sta facendo.”
Strumenti del mestiere
Dove l'automazione diventa interessante è quando assiste i giornalisti anziché sostituirli. Lo spremiagrumi della BBC “prende articoli dalla BBC e da altri siti di notizie, li analizza automaticamente e li etichetta con le entità DBpedia correlate. Le entità sono raggruppate in quattro categorie: persone, luoghi, organizzazioni e cose (tutto ciò che non rientra nei primi tre).”
L'app Editor del New York Times, nel frattempo, analizza, classifica e contrassegna gli articoli per eseguire il crunch dei dati più rapidamente di quanto possano fare gli umani. La Mappa della conoscenza del Washington Post assiste i lettori collegando automaticamente i contenuti correlati “fornendo informazioni pertinenti, informazioni aggiuntive o risposte alle domande più frequenti, quando il lettore lo desidera”.
La BBC's Juicer analizza e classifica storie da più fonti per aiutare i giornalisti nella loro ricerca
Combattere i falsi
La mia più grande preoccupazione per le storie di scrittura dell'intelligenza artificiale è che se metti la spazzatura, ottieni dei rifiuti. Nonostante la presunta battaglia contro le notizie false, Facebook è stato riluttante a escludere il sito politico InfoWars dalla sua piattaforma - anche se InfoWars ha riferito in vari modi che l'orribile massacro di scolari di Sandy Hook era una burla e che la NASA ha una piattaforma di schiavi su Marte. Su YouTube, l'algoritmo degli argomenti di tendenza spesso privilegia le sciocchezze da tinfoil su fatti verificabili; su Twitter, abbiamo visto l'avvento di bot che pubblicano incessantemente le stesse affermazioni spesso infondate. Un'IA che vede tali fonti come credibili è un'intelligenza artificiale che promuove le notizie false invece di combatterle.
Le notizie false non sono un nuovo problema - questo fumetto è del 1894 - ma la tecnologia lo ha armato.
E naturalmente le notizie false hanno conseguenze molto reali, che si tratti di imbrogli che causano violenza nel mondo reale o ciarlataneria e pseudoscienza che resuscitano malattie mortali che pensavamo di aver eliminato per sempre.
Combattere il fuoco con il fuoco
La risposta potrebbe essere più AI. Ad esempio, lo startup AdVerif.ai utilizza l'intelligenza artificiale per rilevare notizie false e altri contenuti problematici per conto di inserzionisti che non desiderano che i loro annunci vengano visualizzati accanto a contenuti inventati. Si descrive come “come PageRank per notizie false, sfruttando le conoscenze del web con un apprendimento approfondito”. In pratica ciò significa controllare non solo il contenuto della pagina ma l'affidabilità del suo editore, e confrontarlo con un database di articoli di notizie falsi noti. È nelle sue fasi iniziali e gli errori riescono a passare, ma esso e i sistemi come questo hanno il potenziale per aiutarci a separare i fatti dalla finzione.
Poi di nuovo, come internet ha dimostrato di volta in volta, i cattivi trovano il modo di usare anche la tecnologia, e spesso superano i bravi ragazzi. Non è difficile immaginare un futuro non troppo lontano in cui una serie di IA combattono notizie false, mentre un altro set propone metodi sempre più inventivi per combattere il primo gruppo di IA.
Potrebbe AI condurre a una corsa agli armamenti online tra fakebot e newsbot come quello tra inserzionisti e pubblicitari? Il mio lato ottimista dice no, ma due decadi e mezzo trascorsi online mi dicono di sì.
Forse dovrei chiedere a Siri di indagare.
TechRadar di Serie Next Up è portato in associazione con Honor
- Pensi di avere la migliore idea di innovazione? Quindi potresti vincere £ 10.000!