Le connessioni tra le metodologia statistiche e quelle informatiche divengono vieppiù solide quanto più la complessità dei problemi che si intendono risolvere con il computer va aumentando. Abbandonando le formulazioni più elementari e schematiche, i problemi di calcolo anche routinari vengono necessariamente a mostrare la loro valenza statistica, vuoi per la mole dei dati alla base dei problemi vuoi per la loro incertezza allorché li si vada a rappresentare con la necessaria precisione. Non ultima, una grande fonte di aleatorietà comincia ad essere intrinseca anche allo strumento di calcolo con il quale li si vanno a processare al variare delle dimensioni dei microcircuiti. Un'icona molto diffusa sotto la quale ricade l'insieme delle metodologie sviluppate per affrontare questi aspetti della computazione è il granular computing. In questo viene messa in evidenza e debitamente processata l'informazione rappresentata, sia pure in maniera imprecisa, dai singoli dati. In tal senso il granular computing raggruppa una vasta famiglia di metodologie ed algoritmi all'interno della quale nella nostra ricerca verranno studiati i seguenti filoni:
1. quantum computing
La ricerca è volta alla modellazione del rumore e della dissipazione nel modello di calcolo di Feynman.Alcuni aspetti termodinamici del modello di Feynman sono già stati esplorati in 2434/34862; la dissipazione è stata esplorata nel sottospazio ad una particella in 2434/58326.Futuri sviluppi riguarderanno l'aspetto "Quantum Langevin" dell'equazione di Kostin introducendo, accanto all'attrito, il rumore. A tal fine si svilupperanno metodi di simulazione numerica del quantum noise per sistemi di molti fermioni, e si studieranno le relazioni tra la QLE e le equazioni di Nakajima-Zwanzig.
2. identificazione di modelli di mobilità.
A superamento dei processi di diffusione puramente casuale riconducibili al moto browniano, negli ultimi tempi stanno diventando rilevanti processi di mobilità riconducibili alle dinamiche interne ai social networks. A differenza delle particelle di un gas, gli agenti di questi networks si muovono seguendo dei movimenti intenzionali che fanno emergere dinamiche di ensemble più prossime ai processi di Levy, dunque frattali ma di difficile rappresentazione. Questo filone del progetto si propone di mettere a punto metodi di inferenza specifici, atti a identificare i parametri liberi di tale famiglia di processi.
3. statistica medica
La crescente disponibilità di grandi basi di dati clinici permette di soddisfare, utilizzando tecniche statistiche, la duplice esigenza di valutare la ragionevolezza di ipotesi che i medici abitualmente formulano basandosi sulla propria esperienza e di rivelare informazioni che sono implicite nei dati. Verranno considerati algoritmi di apprendimento da applicare in questo contesto che riguardano per esempio la ricerca di una struttura all’interno dei dati, l’uso di serie temporali, l’impiego di alberi di decisione.