Novara, 22 Ottobre 2013

Nel corso del primo workshop “Identification of threats against critical infrastructures and relevant Decision Support“, Holmes ha rivelato i propri piani per la creazione per fine 2014 di una piattaforma investigativa basata sull’analisi semantica di testi “open source” (OSINT). La presentazione di Luca Dini propone  un’architettura di riferimento che integri risorse di analisi semantica e tecnologie “Big Data”, al fine di semplificare i compiti più significativi dell’intelligenza investigativa, quali l’identificazione dei segnali deboli, il reperimento di potenziali “Lone wolves” (terroristi che agiscono indipendentemente dalle organizzazioni criminal) e la segnalazione di focolai di malcontento.

Da un  punto di vista tecnico la presentazione (disponibile qui ) enfatizza come l’unica strada percorribile per affrontare questo tipo di problemi sia data dalla fusione di tecnologie statistiche (basate su apprendimento) e tecnologie simboliche (basate su regole).

 

Riportiamo di seguito l’abstract dell’intervento:

In questo intervento si analizzeranno le complessità legate alla realizzazione di un sistema di prevenzione dei rischi basato sull’analisi di testi in linguaggio naturale, con una particolare attenzione  al dominio del trasporto di materie chimiche. Si cominciarà con il  mostrare che tanto tecnologie derivate dallo studio di fonti aperte (forums, blogs, etc.) quanto approcci più legati alla gestione della conoscenza interna, rappresentano un ottimo punto di partenza per il design del sistema. Verrà mostrato come un punto particolarmente interessante sia rapresentato dalle modalità con cui questi due “mondi” sono connessi.

Si presenterà poi la struttura di una piattaforma di intelligence ideale, composta di tre macrocomponenti, ovvero recupero delle fonti, analisi ed estrazione dell’informazione pertinente ed infine visualizzazione e “scoperta” di fatti nuovi. Stanti le competenze disponibile presso Holmes Semantic Solutions, l’intervento concentrerà sul modulo di estrazione mettendo in evidenza come sia necessario andare verso un’osmosi ed un’armonizzazione di tecnologie simboliche (basate su regole) e tecnologie statistiche (basate su apprendimento automatico).

Verrà infine proposta un’architettura di riferimento basata su componenti open source e moduli proprietary, in grado di rispondere alle evidenti necessità di scalabilità, configurabilità ed ergonomia.