Computer assisted reporting, tra censura e analisi delle fonti aperte disponibili in rete

Standard
Spread the love

Girl Geek Dinners Bologna

(Questi sono i contenuti dell’intervento di oggi al barcamp organizzato per le Girl Geek Dinners Bologna). C’è chi dice che espressioni come “giornalismo investigativo” e “giornalismo di precisione” non esistono perché per sua natura il giornalismo deve investigare con metodologie scientifiche nel modo più neutrale possibile. Attraverso questo processo ne deve dunque derivare una “realtà” oggettiva – che qualcuno chiama anche “verità” – inconfutabile. Una “realtà” che deve essere una verifica rigorosa per lo più delle affermazioni del “potere”, in base alle quali spesso la “realtà” viene modificata per far pendere la bilancia verso uno schieramento politico, partitico o lobbistico specifico. Dunque il giornalista per sua natura deve essere il “cane da guardia” a tutela della collettività contro le deformazioni del potere (di qualunque genere esso sia).

L’altra sera Armando Spataro, magistrato antiterrorismo e procuratore aggiunto a Milano, presentando il suo libro “Ne valeva la pena” che ruota intorno al rapimento dell’iman Abu Omar, ha raccontato un episodio: si trovava negli Stati Uniti e parlando con un collega procuratore, di nomina politico-elettorale e non concorsuale, gli ha chiesto: “Ma voi come fate a garantire ai cittadini di gestire i loro interessi e non quelli della lobby politica a cui appartenete?” La risposta è stata: “Da noi c’è la stampa”.

Certo, un po’ troppo idealistica (e forse interessata), come risposta. Ma sempre da un punto di vista ideale rispecchia bene quale dovrebbe essere il ruolo del cosiddetto “quarto potere”. Adesso vi risparmio le regole fondamentali del “quarto potere” (sia quelle tecniche che deontologiche, sulle quali credo che ci sia già una discreta conoscenza) e passo a parlare del nocciolo di questa professione, che ancor prima di diventare notizia si chiama “fonte”. Le fonti si possono suddividere in varie tipologie, che in sostanza, sono distinguibili in:

  • la fonte umana: alla prima si applicano metodologie derivate più dalla psicologia sociale
  • la fonte documentale: alla seconda si può applicare il cosiddetto computer assisted reporting
    • La prima, per quanto importante, ha un valore relativo, dal punto di vista strettamente giornalistico, senza la seconda: può costituire un punto di partenza di una “pista”, ma non fa “realtà” di per sé. Mentre la seconda può esistere indipendentemente dalla prima (anche se spesso occorre sempre una fonte umana che produca una fonte documentale). Le fonti documentali si possono suddividere a loro volta sostanzialmente in due categorie:

      • la fonte aperta (articoli e archivi di giornale, bilanci delle società, redditi dei cittadini, sentenze di tribunale, atti giudiziari dopo l’avviso di fine indagine)
      • la fonte chiusa o riservata (gli atti giudiziari prima dell’avviso di fine indagine, informative di forze dell’ordine o di servizi segreti, piani militari, documentazione – governativa, aziendale, dell’esercito – a uso solo interno)

      Per esempio chi si ricorda dei documenti di Halloween? Erano una serie di memorandum privati di Microsoft in cui l’azienda sosteneva senza mezzi termini di considerare GNU/Linux una minaccia al mercato (soprattutto al proprio) e di volervisi opporre con ogni mezzo (anche illecito). Questi sono stati “fonti chiuse” fino a quando, alla fine dell’ottobre 1998 (da qui il nome di Halloween), qualcuno non li fece uscire da Microsoft e li consegnò ad Eric Raymond, prima esponente di spiccio del mondo del software libero e poi fondatore della Open Source Initiative, che li divulgò via Internet rendendo palesi gli intenti bellicosi (e gangsteristici) di Microsoft.

      L’esempio oggi più eclatante di fonte documentale che da riservata trasforma una fonte in aperta è Wikileaks, che sta cambiando le regole del gioco giornalistico sotto molti punti di vista:

      • trattamento della fonte umana: il rapporto è intermediato dall’anonimato garantito dalla tecnologia. Il giovane militare incriminato per aver fornito i primi 90 mila documenti dell’esercito statunitense è stato individuato perché lui stesso ha parlato del ruolo che ha avuto, non per una falla nel “sistema di protezione” della fonte umana
      • coinvolgimento della comunità giornalistica: al di là delle sinergie create con “organi di informazione tradizionale” (con cui viene concordata la data di uscita di documenti e articoli per molteplici ragioni), la verificabilità della fonte avviene attraverso l’analisi condotta da team nazionali che individuano la plausibilità o meno della fonte documentale
      • la pubblicazione senza intermediazione: i documenti vengono messi a disposizione dei cittadini senza alcuna forma di censura (anche sulle parti più delicate, come i nomi dei locali che collaborano a vario titolo con l’esercito statunitense) e sono consultabili attraverso sistemi sempre più affinati (motori di ricerca e sistemi di filtraggio). Non c’è commento o interpretazione, che viene lasciata ai media tradizionali

      Che Julian Assange sia o meno un agente di un qualche servizio segreto (da non escludere, ma tutto da dimostrare) o tralasciando in questo caso le polemiche innescate con Reporter Senza Frontiere ed Emergency sulla pubblicazione dei nomi dei collaboranti in Iraq e Afghanistan, rimaniamo asetticamente sul discorso della fonte documentale, che da riservata è diventata pubblica. A questo punto, su questa fonte, anzi, su questa mole di fonti, si possono applicare tecniche del cosiddetto computer assisted reporting (o Car), che viene definito da due connotazioni:

      • ricerca e verifica delle informazioni online
      • analisi informatica delle banche dati offline

      La nascita del Car (e del collegato e per certi versi integrato concetto di “database journalism”) viene fatto risalire agli anni Cinquanta, anche se è diventato (quasi) un fenomeno esteso tra gli addetti ai lavori (sempre troppo pochi, però) da vent’anni scarsi e cioè con l’avvento di Internet, nel 1991. La sua prima applicazione concreta è del 1952 quando, per la prima volta, la Cbs utilizzò un sistema di calcolo – un Univac 1 – per analizzati i dati elettorali delle presidenziali statunitensi. Ma il Car si consolidò in due occasioni successive:

      • durante la rivolta di Detroit del 1967 (che provocò 43 morti) dopo che a Newark la popolazione nera si ribellò allo stato di assoggettamento a cui era sottoposta dai bianchi; la rivolta si estese in 64 città degli Stati Uniti e un giornalista del Detroit Free Press, Philip Meyer, pubblicò un’inchiesta in cui dimostrava – dati alla mano, dopo averli incrociati e analizzati secondo un sistema scientifico e statistico – un fattore: alle rivolte parteciparono persone tra le quali non c’erano marcate differenze di ceto, etnia e scolarizzazione pregressa (dai gradi elementari fino all’università, compreso il dato dell’abbandono scolastico)
      • prima dell’omicidio di Martin Luther King (avvenuto a Memphis il 4 aprile 1968), il Miami Herald aveva pubblicato un’inchiesta sulla vita – abitudini e comportamenti – della popolazione nera della Florida. Dopo la morte di King, poté dimostrare, riprendendo ed estendendo l’inchiesta precedente, che quell’omicidio non aveva scalfito le istanze politiche e sociali del movimento a sostegno della popolazione di colore, ma anzi le aveva consolidate e rafforzate

      Il lavoro di Meyer, il giornalista dei moti di Detroit, gli darà lo spunto per un libro successivo, uscito in prima edizione nel 1969 e poi continuamente ripubblicato, che si intitola Precision Journalism (titolo italiano: Giornalismo e metodo scientifico. Ovvero il giornalismo di precisione). La tesi di fondo è la seguente: tra la professione del giornalista e quella dello scienziato vi sono più punti di contatto di quanto di primo acchito si possa ipotizzare. Un’anteprima del libro si trova qui.

      Venendo a esempi più recenti, va citata l’inchiesta del Stephen Grey sulle extraordinary rendition: per cercare di dimostrare l’esistenza e per trarre anche un dato quantitativo verosimile sui rapimenti effettuati dalla Cia di presunti terroristi a scopo di tortura, Grey si avvalse della Rete e trovò l’elenco dei voli civili (privati e di linea) in un database pubblico. Incrociando questi dati con piani di volo, rotte e scopi dei viaggi, riuscì a estrarne un ristretto numero che poteva corrispondere a quelli utilizzati per le extraordinary rendition. Verifiche ulteriori confermarono l’attendibilità del dato individuato. Tutto ciò venne fatto usando in questo caso usando solo fonti aperte e snidando così un’attività di intelligence che in genere viene coperta da forme varie di classificazione.

      Sofia Basso, poi, ha spiegato, in argomento del tutto diverso ma con un procedimento analogo, l’esistenza sulla rete viaria italiana di strade più pericolose di altre per realizzazione, mantenimento del manto stradale o altre attività di manutenzione. Ma gli esempi possono essere molteplici e altri possono essere rintracciati sulla pagina di Wikipedia che parla del database journalism con relative note e link di approfondimento.

      Il Car predica una forma di giornalismo assolutamente asettica, che lavori solo in base al metodo scientifico e abbia un’interazione con le fonti umane quanto più limitata possibile. Personalmente sono convinta che l’elemento umano e il “consumare le scarpe” a forza di camminare dietro una notizia rimangano elementi imprescindibili, al pari dell’analisi statistico-matematica dei dati. Sta di fatto che oggi, comunque, è diventato più semplice fare Car grazie ai motori di ricerca, ai database online, al citizen journalism o a quella che negli anni Settanta si chiamava “controinformazione” (sono molti i cittadini – si vedano le associazioni vittime – che pubblicano atti giudiziari per esempio su nodi importanti della storia italiana, come nel caso delle stragi della strategia della tensione). Ma anche grazie ai social network che ha molti punti positivi, ma anche qualcuno negativo, tra cui due in particolare:

      • scarsa consapevolezza degli utenti della propria privacy e tendenza a condividere anche aspetti molto riservati della propria vita (ignorando il fatto che “la rete non dimentica niente”)
      • sfruttamento da parte di alcuni social network (Facebook in primis) di questa scarsa consapevolezza, coniugata parallelamente a una certa disinvoltura nella gestione della privacy dei propri utenti

      Questo dà vita a un importante bacino di informazioni a cui i giornalisti possono attingere (spesso malamente, se non in modo sciagurato: si veda per tutti il caso Scazzi). Ma così come a questi dati possono attingere i giornalisti, altrettanto possono fare le forze dell’ordine e gli analisti di apparati di intelligence demandanti allo studio delle fonti aperte. Dunque, ben prima della domanda “ma è vero che su Facebook ci sono i servizi segreti?” o di eventuali accordi tra governi e polizia, è il cittadino che deve preoccuparsi della propria tutela. Ma questo è un altro discorso.

4 thoughts on “Computer assisted reporting, tra censura e analisi delle fonti aperte disponibili in rete

  1. Superba spiegazione, la ripubblico :)
    In Italia viene chiamato maccaronicamente Giornalismo di Precisione, da Precision Journalism. C’è la voce in italiano che ho fatto io sulla traduzione di CAR e database journalism –> http://it.wikipedia.org/wiki/Giornalismo_di_precisione
    Io ho anche registrato l’indirizzo http://www.giornalismodiprecisione.it e il 14 di aprile si tiene a Perugia un workshop … cmq il caso di Stephen Gray non lo conoscevo! Ora cerco sta’ Sofia Basso
    Grazie!

Comments are closed.