Una dichiarazione di questi giorni del Premier Matteo Renzi, a proposito dei risultati raggiunti dalla Agenzia delle Entrate e un articolo di Repubblica del 27 ottobre, portano agli onori della cronaca il problema della data quality, cioè della qualità dei dati che si devono analizzare.

Facciamo un rapido riassunto: lunedì scorso dal Perù, dove è in visita di Stato, il  premier Matteo Renzi ha dichiarato, parlando dell’operato dell’Agenzia delle Entrate: “…abbiamo trovato 220mila nostri connazionali che si erano dimenticati di pagare le tasseCi è bastato un click…”. Si riferiva ai controlli che da qualche tempo l’Agenzia svolge impiegando l’analisi dei Big Data per scovare, attraverso controlli incrociati e analisi di diversi database, i cittadini che non pagano quanto dovuto.

Tutto bene, dunque? Non proprio. Secondo il quotidiano La Repubblica, infatti, a quanto sembra l’efficienza del sistema Big Data dell’Agenzia sarebbe pregiudicato dalla scarsa qualità dei dati contenuti nei database.  L’articolo spiega che ci sarebbero molti dati in entrata non filtrati e senza controlli di qualità, differenze di formato (troppi o troppo pochi zeri nelle cifre, ad esempio) e differenze nei metodi di storage che limitano l’utilità e l’efficienza del sistema.

Tutte cose che chi lavora abitualmente con i dati conosce bene, ma che dimostrano, se ce ne fosse ancora bisogno, che se non si cura la data quality si finisce per pregiudicare l’efficienza e l’efficacia di qualsiasi progetto di Business Intelligence o di Analytics, per quante risorse si abbiano a disposizione.

Anzi, addirittura a volte la qualità dei dati è un problema esiziale per l’intero progetto, visto che – secondo una ricerca di Ernst & Young che abbiamo già citato nel post precedente a questo, oltre il 50% dei manager delle grandi aziende considera la scarsa qualità dei dati un grosso ostacolo nella pianificazione di un progetto di Big Data Analytics.

Insomma, come sintetizza Davide Mauri in questa intervista di qualche mese fa: “Data without quality, are trash”.

fullsizerender-940x530

Per questo SolidQ ha sviluppato, negli anni, un framerwork esclusivo per l’analisi dei dati che, attraverso una serie di sistemi automatizzati e algoritmi che analizzano i dati in modo automatico fin dall’inizio, evidenziano rapidamente almeno il 90% delle difformità e delle imprecisioni esistenti. In questo modo i professionisti dell’azienda possono correggere facilmente i restanti errori in poco tempo e senza ricadute negative sui costi, rendendo più rapido l’avvio dei progetti di Business Intelligence.

SolidQ Think Big, Move Fast.