Fonte: Altalex
Siamo nell’era della data economy in cui i dati rappresentano un vero e proprio fattore della produzione.
Le aziende la cui attività si fonda sull’elaborazione di dati necessitano di strumenti automatizzati – in altre parole, strumenti di ICT – per raccogliere dati da fonti presenti in internet che, per tale condizione, non sono strutturate (i dati non strutturati presenti in rete, di solito sono rappresentati in formato HTML).
La pratica nota come data scraping descrive un’attività di raccolta di informazioni, condotta di regola in rete, con l’ausilio di opportuni software che estraggono dati – anche di natura personale – da siti web, data base, file o dal corpo delle comunicazioni elettroniche effettuate via e-mail. Si pensi, ad esempio, all’attività di estrazione di testi dai social network a fini di sentiment analysis o per mettere in atto strategie di data driven marketing.