Il punto di vista che mi ha guidato nel prendere le mosse dal Data Management, in una scelta potenziale tra una vastità di argomenti, è stato quello di essermi posto una considerazione che reputo fondamentale: la centralità del dato quale aspetto fondante dell’informatica, dalle origini fino ad oggi.
Ripercorriamo insieme il ragionamento seguito.
All’aspetto di base, centralità del dato, se ne affiancano subito altri due: l’algoritmo e la funzione di utilità.
Il dato come aspetto fondante nella “computer science”, così come nel mondo è generalmente tradotta l’informatica (“informatics” è piuttosto riferito al complesso di discipline teoriche sottostanti alla computer science) è la sostanza primigenia alla quale si applica tutto il resto: “data first”.
Al secondo posto, l’algoritmo.
Nel processo informatico, il dato viene fornito, c’è, pronto ad essere utilizzato.
Per trasformarsi da dato a qualcosa che possa essere utilizzato proficuamente, il dato deve essere trasformato in informazione, che possiamo definire come un insieme di dati organizzati in una struttura coerente (ricordiamo il concetto di “metadati”).
È allora necessario sottoporre il dato ad un primo livello di trasformazione mediante algoritmi specifici rispetto all’informazione che si vuole ottenere.
Tipicamente gli algoritmi, per questo primo livello di trasformazione, fanno parte del classico paradigma ETL (Extraction, Transformation, Loading).
“Transformation” é quella che produce l’informazione.
Quanto alla funzione di utilità, essa, per essere esplicata, necessita che le informazioni generino conoscenza; ossia l’insieme dei fatti rappresentati dall’informazione.
La conoscenza è tipicamente raccolta e resa disponibile in apposite basi di dati (Loading).
Sulla base della conoscenza memorizzata, sarà quindi possibile attribuire significati e determinare le azioni utili ai fini informativi voluti applicando le funzioni di utilità.
Possiamo perciò individuare nel processo ETL - riguardanti dati, algoritmi e funzioni di utilità - l’insieme dei processi che può essere in generale denominato, appunto, Data Management.
Il data management costituisce quindi, complessivamente, il sistema tecnologico-organizzativo essenziale, per ogni azienda, per gestire il proprio portafoglio di applicazioni in modo efficiente e affidabile.
Riassumendo: il sistema di gestione si articola sostanzialmente nelle fasi denominate Extract, Transform, Loading (ETL), che costituiscono un processo di raccolta ed organizzazione dei dati da un numero illimitato di sorgenti e della loro memorizzazione in repository, dai quale successivamente essi saranno analizzati per le diverse finalità applicative, come per esempio la business intelligence.
Il processo ETL é adottato da molto tempo e rappresenta, classicamente, il modo in cui, nei sistemi informativi, i dati disponibili, originati dai diversi sottosistemi vengono trasformati in informazioni utili per il loro utilizzo business o social.
Leggi l'approfondimento sui 15 migliori strumenti ETL nel 2022.
Scopri il servizio di Data Management all'interno di ThinkOpen.
References
https://www.oracle.com/autonomous-database/what-is-cloud-data-platform/
https://www.ibm.com/it-it/it-infrastructure/storage/data-protection
https://www.dell.com/it-it/dt/learn/data-protection/vmware-backup.htm
https://www.sciencedirect.com/science/article/abs/pii/S2214579615000155
https://it.wikipedia.org/wiki/Business_intelligence
https://www.oracle.com/it/what-is-business-intelligence/
https://www.researchgate.net/profile/RogerChiang/publication/262314931