Formazione

Processi, metodi e strumenti di utilizzo secondo le migliori pratiche industriali, in linea con gli standard internazionali con cenni specifici agli  standard delle industrie aerospaziali e alle normative (USA-EU-IT). Sono trattate le discipline tecniche e manageriali necessarie alla direzione di progetti complessi, nelle aree di strategia, di gestione delle relazioni (negoziato, contratti, organizzazione) e strumenti professionali, in supporto e a complemento delle tecniche decisionali.

 

Contenuti del corso

1.   Introduzione al corso con sintesi sull’evoluzione delle certificazioni e legislazioni che regolano il project management.
Informazioni generali e obiettivi del corso. Origini e sviluppo del project management: dall’esercito romano alla II guerra mondiale. Definizioni secondo gli standard ISO 21500 e ANSI PMI®. Le origini degli standard di PM. Ricerca operitiva e presa di decisioni. MIL-STD 881/ EIA 748 / DoD DAG / DoD IMS implementation. PM dominio di conoscenze e alcuni riferimenti normativi.

 

2.   Il project management nella gestione dei cambiamenti e della complessità. Aspetti culturali e organizzativi. Allineamento dei processi di project management secondo gli standard prevalenti.
I compiti del project manager. Inquadramento del progetto. Organizzazioni. La complessità. Asset organizzativi ed elementi ambientali. Definizioni secondo gli standard ISO 21500 e ANSI PMI®. Ciclo di vita. Mappa dei processi e aree di conoscenza.

 

3.   Impostazione del progetto. Inquadramento nei Programmi e nella gestione dl Portafoglio. Relazione con la strategia di gestione dei rischi: allinemento alla governance e alle strategie.
Gli strumenti software di supporto al PM. Allineamento strategico. Autorizzazione al progetto. Governance. Esempi di cicli di vita negli ambiti: ingegneria civile, oil & gas, ESA, DoD. Total cost of ownerhip.

 

4.   Avvio del progetto.
Selezione e valutazione dei progetti. Sostenibilità. Il project charter. Gli stakeholder. Coinvolgimento degli stakeholder. Il piano delle comunicazioni. Strutture organizzative. La strategia di progetto.

 

5.   La pianificazione e i processi correlati. Definizione del progetto.
Un piano per il piano del progetto. Il piano di project management. La gestione dell’ambito. Definizione de requisiti. La matrice di tracciabilità.

 

6.   Fondamenta del del piano di progetto. Il triplo vincolo.
La struttura del progetto: work breakdown structure. Implementazioni: MIL-STD 881. Stime e budget. La schedulazione.

 

7.   La schedulazione e le stime dei componenti.
Costruire la rete. La gestione dei costi. Il cronoprogramma - DPR 554. Baseline. Integrated master schedule.

 

8.   Lo stato di avanzamento.
Gestione della qualità. La strategia di collaudo. Il registro degli incidenti. Modulo FMEA. Lezioni apprese.

 

9.   Gestione degli approvvigionamenti.
Approvvigionamento. DAG - Defense Acquisition Guidebook. Tipi di contratto. Gare e scelta dell’offerta migliore. Il negoziato.

 

10.   Le modifiche in corso d’opera. Integrità del progetto.
La gestione dell’integrazione. Gestione della configurazione. Che cosa si considera una modifica. ICC - Integrated Change Control. Il comitato di controllo modifiche - CCB. ICC - il ruolo e le responsabilità del PM.

 

11.   La gestione delle risorse.
Gestione delle risorse umane. Strategie di sviluppo del gruppo. Il conflitto. Stili di leadership. Le comunicazioni. Il sistema informativo e Protezione dei dati.

 

12.   Lo stato di avanzamento
Controllo di costi e avanzamento. Il metodo classico - EVM - EIA 748 - DoD form 1-5. Simplex: fondamenti. Analisi delle riserve - Controllo delle riserve.

 

13.   Gestione dei rischi
La gestione dell’incertezza. ISO 31000. Strategia di gestione. Tavola sinottica degli strumenti. Tecniche di identificazione. Il metalinguaggio. Il registro dei rischi.

 

14.   Analisi qualitativa e quantitative
Matrice probabilità-impatto. Valutare la severità dei rischi. Eseguire l’analisi quantitativa. Strategie di risposta. Costo del piano di risposta.

 

15.   Il piano esecutivo e la consegna. Coinvolgimento degli utenti.
Il piano del progetto si aggiorna. Outcome readiness. Chiudere fasi e progetti. Revisione del progetto. Fattori di successo - Project KSF.

 

16.   La chiusura del progetto.
I rapporti sulle prestazioni. Riferimenti.

In tutte le nostre attività, sia nella vita privata sia in quella lavorativa, ci troviamo a dover prendere delle decisioni e a confrontarci con l'incertezza: incertezza sugli avvenimenti futuri e sulle loro conseguenze, incertezza sulla completezza e affidabilità delle informazioni in nostro possesso, incertezza sui possibili fattori esterni che possono influire sulla buona riuscita dei nostri programmi. Un corretto processo decisionale deve basarsi su una valutazione quantitativa di queste incertezze e questo richiede il ricorso alla nozione di probabilità. Questo corso presenta i vari aspetti che dovrebbero essere considerati per avvicinarci alle cosiddette scelte data-driven, ossia basate sull’opportuno utilizzo di valutazioni quantitative: la corretta valutazione delle probabilità sulla base delle informazioni a disposizione, l’attenzione da prestare ai possibili bias di tipo psicologico e cognitivo che potrebbero influire sulle decisioni, le valutazioni di carattere etico e reputazionale che non possono essere trascurate quando si devono prendere decisioni efficaci a lungo termine. Il corso sarà accompagnato dalla presentazione e discussione di un nutrito gruppo di esempi tratti dalla letteratura militare, storica ed industriale e dall’analisi di alcuni casi di studio e di business frutto dell’esperienza di Pangea Formazione nell’ambito dell’applicazione dell’approccio probabilistico Bayesiano e dei metodi quantitativi a supporto delle decisioni in ambito strategico, aziendale e industriale.

Contenuti del corso

  1. Il concetto di decisione razionale
    Cosa si intende per decisioni razionali. Decisioni razionali in contesti strategico e aziendale. Possibili errori legati all’incertezza ed all’eccesso di informazioni. Aspetti etici legati al decision making.
  2. Introduzione agli strumenti quantitativi come supporto alle decisioni
    Strumenti quantitativi a supporto della valutazione di rischi e conseguenze delle decisioni. L’importanza della creazione di un modello del processo su cui si deve decidere.
  3. Introduzione alla statistica inferenziale e al ragionamento probabilistico bayesiano
    Richiami sui concetti di probabilità ed incertezza, con una introduzione ai concetti fondamentali della statistica. Problemi nel valutare in modo consistente e coerente le probabilità. L’approccio bayesiano ed il processo inferenziale. Costruzione di un modello probabilistico e sua importanza nelle applicazioni reali. Valutazione del modello.
  4. Introduzione alle reti bayesiane
    Breve introduzione alle reti bayesiane e loro caratteristiche principali. Variabili osservate e inferenza sulle variabili non osservate. Costruzioni di rete bayesiane e parameter learning. Esempi didattici di reti bayesiane per compiere il processo di inferenza. Esempi di applicazione delle reti bayesiane per compiere predizioni e valutazioni in ambito aziendale.
  5. Teoria dei giochi
    La teoria dei giochi: overview storica e concetti principali. Il gioco come un naturale strumento per l’estensione del decision making in ambito competitivo. L’equilibrio di Nash come soluzione desiderabile di un gioco. Esempi e toy model. Esistenza di equilibri di Nash in alcuni esempi di semplice gioco. L’emergere del bluff come componente di una strategia di equilibrio in condizioni di incertezza.
  6. Violazioni della razionalità nelle decisioni reali
    La teoria dell’homo oeconomicus come paradigma del decisore razionale. ‘Paradossi’ nelle decisioni umane (risk aversion, Allais’ paradox, ecc.). Bias ed euristiche che influenzano la razionalità delle scelte umane: euristica della rappresentatività, framing effect e altri. Introduzione alla neuroeconomia.
  7. Applicazione dell’approccio probabilistico in vari ambiti
    Esempi di applicazione nell’ambito del fraud management aziendale, della gestione delle manutenzioni predittiva di asset tecnologici, dell’utilizzo dei big data per prevedere trend di interesse, del controllo di stormi di droni, della scienza forense e della storia militare (con particolare focus sulla decrittazione dei messaggi cifrati con le macchine Enigma durante la Seconda Guerra Mondiale e con il risk assessment di incidenti nucleari durante la guerra fredda).

La corretta gestione dei rischi e delle incertezze è un'attività fondamentale in moltissimi contesti: da quello scientifico a quelli giuridico, sociale ed economico. Si pensi ad esempio al processo stesso di misura, che è alla base di ogni scienza ed è necessariamente soggetto a piccole variazioni e imprecisioni sia strumentali che ambientali. Per una corretta valutazione delle imprecisioni strumentali, eseguita in fase di taratura dello strumento, e quella delle imprecisioni ambientali, la soluzione consiste nel ripetere più volte il processo di misura. La successiva trattazione statistica fornisce quindi non soltanto un valore centrale, il risultato cioè della misura, ma anche una intervallo di possibili valori associati ad una certa probabilità. Oltre che in ambito scientifico, sono moltissimi i campi dove la descrizione e la trattazione probabilistica è importante: dalle società di assicurazioni alle società finanziarie, dalla medicina al campo forense. Tuttavia il concetto di probabilit à, in particolare di eventi condizionati e composti, non è molto intuitiva ed è facilmente soggetta a fraintendimenti: è quindi fondamentale sapere comprendere correttamente il significato delle affermazioni probabilistiche per valutarne la loro rilevanza. In questo corso verranno presentati i principali strumenti della probabilità e della statistica, e verranno approfonditi i loro utilizzi nel campo della scienza forense. Inoltre verrà mostrata l'importanza della creazione di un modello che descriva il processo considerato e come utilizzare i dati raccolti per convalidare e aggiornare i parametri del modello stesso attraverso l'inferenza. Infine si presenterà l'approccio probabilistico bayesiano, che è al cuore del processo inferenziale, e le reti bayesiane, che rappresentano uno strumento di enorme potenza sia nell'ambito forense che a supporto del processo decisionale in condizioni di incertezza.

Contenuti del corso

  1. Introduzione alla probabilità
    Necessità di gestire le incertezza; diverse forme di incertezza; il concetto di probabilità; probabilità come frequenza, come grado di credenza, come valore di una scommessa; proprietà fondamentali della probabilità; esempi di uso (e fraintendimento) della probabilità; concetto di distribuzione di probabilità ed esempi delle principali distribuzioni; probabilità condizionate.
  2. Introduzione alla statistica
    Statistica descrittiva e introduzione ai principali strumenti per descrivere variabili univariate e multivariate; media, varianza, quantile, covarianza, istogrammi, grafici di dispersione, matrice di confusione; esempi di errori o "Paradossi" statistici (paradosso di Simpson, paradosso dell'accuratezza, correlazioni artificiali, scambiare il rumore per un segnale).
  3. Introduzione al linguaggio di programmazione R
    L’ambiente di sviluppo R (installazione e utilizzo); oggetti del linguaggio R e loro semplici manipolazioni; vettori, matrici, data.frame e liste; importare dati da file esterni e DB; R e la statistica: funzioni statistiche, modelli per l’analisi dei dati e funzioni di visualizzazione.
  4. Statistica inferenziale e test di ipotesi
    Necessità di un modello (ipotesi) per la descrizione dei dati; ipotesi discrete e ipotesi continue; il processo di misura come test di ipotesi; analisi del significato di test di ipotesi e possibili fraintendimenti; il concetto di verosimiglianza (likelihood) delle ipotesi; diversi approcci al test di ipotesi; test di ipotesi classico (frequentista); il p-value e il suo significato; i possibili pericoli e fraintendimenti del p-value; probabilità delle ipotesi e approccio bayesiano; aggiornamento probabilità delle ipotesi; esempi applicativi e differenze tra i due approcci.

Processi, metodi e strumenti di utilizzo secondo le migliori pratiche industriali, in linea con gli standard internazionali con cenni specifici a standard derivanti da industrie aerospaziali e normative (USA-EU-IT). Il corso è erogato con moduli didattici in aula, con esercitazioni di gruppo o di classe su casi a scopo didattico. L’ultima giornata è prevalentemente dedicata ad una esercitazione strutturata allo scopo di simulare il ciclo completo di gestione del rischio

Contenuti del corso

  1. Introduzione alla statistica inferenziale e al ragionamento probabilistico bayesiano
    Richiami sui concetti di probabilità ed incertezza, con una introduzione ai concetti fondamentali della statistica. Problemi nel valutare in modo consistente e coerente le probabilità. L’approccio bayesiano ed il processo inferenziale. Costruzione di un modello probabilistico e sua importanza nelle applicazioni reali. Valutazione del modello.
  2. Introduzione al corso di risk management con sintesi sull’evoluzione delle certificazioni e legislazioni che lo regolano
    Normative per project e risk management. Certificazioni. Modelli, metodi e strumenti. Ambiti: progettuale, operativo, governance. Panoramica degli approcci nei tre ambiti.
  3. Il risk management nella gestione dei cambiamenti, dei progetti e dei contratti: allineamento dei processi di project e risk management secondo gli standard prevalenti
    Standard ISO di rilievo (modelli ISO 31000, ANSI, MIL-STD882E, IMO- MSC1023). I processi fondamentali comuni al risk management. Le sfide per il risk manager.
  4. Strategia di gestione dei rischi: allineamento alla governance e alle strategie pertinenti
    Obiettivi e schema del processo di sviluppo del piano di gestione dei rischi. Il processo del piano di gestione. Il livello di gestione dei processi aziendali e la gestione dei rischi. Sviluppo del Risk Management Plan: delimitazionedell’ambito, definizione delle strategie, valutazione di attitudine, tolleranza e soglie di rischio. I contenuti del Risk Management Plan. Strumenti e applicazioni software.
  5. Identificazione dei rischi potenziali: ambiente, strumenti e procedure
    Obiettivi e schema del processo di identificazione dei rischi. Categorie di rischio. Alcuni schemi di analisi: ICAO (SHELL), Azzardo Operativo (Hazop), Swiss cheese. Matrice minacce/asset. Coinvolgimento delle parti in causa (stakeholder). Metalinguaggi di identificazione. Fonti. Nidi di rischio. Tecniche di identificazione. L’Unità di Rischio. Il registro dei rischi.
  6. Analisi qualitativa dei rischi: valutare rischi ed impatti
    Obiettivi e schema del processo di analisi qualitativa dei rischi. Le matrici P-I. Criteri di classificazione. Metodi di valutazione. Metriche: Indici- Indicatori-Scale. Elaborazioni qualitative e semi-quantitative.Il pannello dei rischi. Decisioni critiche dell’analisi qualitativa.
  7. Analisi quantitativa dei rischi: teoria e simulazioni
    Obiettivi e schema del processo di analisi quantitativa dei rischi. Registro dei rischi. Matrici P-I quantitative. Tecniche di stima. Analytical Hierarchical Process per decisioni e stime multi-criteri. Teorema del limite centrale e calcolo analitico del profilo di rischio: metodo e limiti. Metodi di simulazione e strumenti software. I modelli di simulazione. Errori di valutazione vs incertezze esterne.
  8. Risposta ai rischi
    Obiettivi e schema del processo di risposta ai rischi. Categorie di risposta. Mappa delle risposte. La convalida della strategia di risposta. Analisi dei rischi residui e identificazione dei rischi secondari. Rivalutazione del profilo di rischio. Modifica dei piani di progetto e delle procedure operative. Assegnazione delle responsabilitaà.
  9. Gestione del rischio
    Obiettivi e schema del processo di gestione dei rischi. Monitoraggio degli indicatori. Gestione dei problemi. Monitoraggio del piano di prevenzione. Esecuzione del piano di mantenimento. Gestione degli incidenti. Esecuzione del piano di contenimento e ripristino. Documentazione delle lezioni apprese. Aggiornamento degli asset aziendali.
  10. Analisi partecipata di un caso di studio

DNA is now routinely used in criminal investigations and court cases, although DNA samples taken at crime scenes are of varying quality and therefore present challenging problems for their interpretation. An innovative and appealing practical modelling framework for complex forensic genetic problems can be provided by Bayesian networks. In particular, in the presence of complicating features such as missing data on individuals, mutation and mixed trace evidence, these problems become extremely challenging both logically and computationally. Using object-oriented Bayesian networks (OOBNs) it is possible to specify a “construction set” of basic model components, which can then be combined flexibly to model and solve a wide variety of problems such as these. Statistical inference is then made efficiently by probability propagation methods for Bayesian networks. Complex problems in criminal identification, paternity testing, identification in DNA mixtures will be illustrated and solved using Hugin software for inference in Bayesian networks. Bayesian networks have been used to structure and solve cases of forensic identification involving DNA traces that might be mixtures of several DNA profiles. Models for a DNA mixture may utilize both discrete information about the alleles present in the mixture and continuous information on the peak heights. The R-package DNAmixtures exploits Bayesian network techniques for efficient statistical analysis of DNA mixtures. DNAmixtures uses the R-package RHugin, which makes Hugin functionality available within R. This course gives a comprehensive overview of the basic knowledge, modelling capabilities and methodology for the probabilistic evaluation of scientific evidence in forensic genetics applications. It will familiarize participants with the basic concepts of Bayesian networks and object-oriented Bayesian networks. It will illustrate the ways in which uncertainty affects the coherent evaluation of forensic evidence and how this issue can be addressed. Extensions of the basic forensic genetic models to account for uncertain allele frequencies (UAF), identity by descent (IBD), and heterogeneous populations (HET) which all generate dependence among founding genes in forensic genetics problems will also be given. Each topic will be illustrated on casework data, partly through hands-on practical tutorials using Hugin software and the R package DNAmixtures. Finally, we aim to enable participants to recognize potential applications of Bayesian networks in their own field of expertise.

Recommended reading:

  • Dawid, A. P., Mortera J., Pascali V. and van Boxel D. (2002). Probabilistic Expert Systems for Forensic Inference from Genetic Markers. Scandinavian J. of Statistics, 29, 577-595.
  • Mortera J., Dawid A. P., Lauritzen S. L. (2003) Probabilistic Expert Systems for DNA Mixture Profiling, Theoretical Population Biology, 63, 191-205.
  • Dawid A. P., Mortera J. and Vicard P. (2007) Object-Oriented Bayesian Networks for Complex Forensic DNA Profiling Problems, Forensic Science International, 169, 195-205.
  • Green P., Mortera J. (2009). Sensitivity of inferences in forensic genetics to assumptions about founding genes. The Annals of Applied Statistics, 3, pp. 731-763, doi: 10.1214/09-AOAS235
  • • R. G. Cowell, T. Graversen, S. Lauritzen, and J. Mortera (2015). Analysis of DNA mixtures with artefacts. Journal of the Royal Statistical Society, Series C. (with discussion), 64, 1–-48. Read before the Royal Statistical Society on 11 June 2014.
  • Mortera J. (2016) Statistical evaluation of forensic DNA mixtures from multiple traces. In Topics on Methodological and Applied Statistical Inference. Springer International Publishing. doi:10.1007/978-3-319-44093-4_16
  • Green, P. J. and Mortera J. (2016) Paternity testing and other inference about relationships from DNA mixtures, On ArXiv: arxiv.org/abs/1609.09638.

Course content:

  1. Forensic identification using DNA profiles.
  2. Likelihood ratios; calculating the weight of evidence.
  3. Bayesian Networks and Object-Oriented Bayesian Networks (OOBN); Hugin software.
  4. Bayesian networks and OOBNs for forensic identification; simple criminal identification and paternity cases as well as complex cases with missing information.
  5. Generalizations of models for founding genes: uncertain allele frequencies (UAF), identity by descent (IBD), and heterogeneous populations (HET).
  6. DNA mixtures:
    • Identification and deconvolution
    • Models using discrete information on allele presence
    • Models using peak height information
  7. Statistical inference about relationships from DNA mixtures.
  8. Case analysis using Hugin and the R package DNAmixtures.

In ogni contesto una corretta decisione deve prendere in considerazione tutti gli elementi ed i dati rilevanti a disposizione. Con la diffusione capillare dei social network e degli smartphone e con la crescita esponenziale del traffico dati su internet, un'enorme mole di informazioni viene automaticamente generata in conseguenza di tante attività quotidiane ed ignorarla porterebbe a prendere decisioni non ottimali in taluni contesti. L’enorme avanzamento nelle tecniche computazionali applicate alla gestione ed analisi di questi 'big data' ha portato alla nascita di una nuova disciplina quantitativa: la Data Science. Al contempo, però, la necessità di analizzare automaticamente grandi quantità di dati rende indispensabile la formulazione di modelli che possano descrivere il processo di interesse per l'analisi, così da rendere possibile l'interpretazione di trend e correlazioni rilevati, distinguendo in particolare tra le correlazioni casuali che rischiano di invalidare le conclusioni dell'analisi e le correlazioni effettivamente esistenti. In questo corso, verranno presentate le principali tecniche utilizzate per analizzare automaticamente grandi moli di dati, con particolare attenzione per gli algoritmi di classificazione e di machine learning che possono aiutare ad estrarre informazioni dai dati. Inoltre verranno richiamate le basi del ragionamento probabilistico inferenziale che giocano un ruolo di primo piano nella valutazione dei risultati dell'analisi automatica e nella validazione dei parametri di un modello. A supporto del corso verrà introdotto il linguaggio R, uno degli strumenti più potenti e flessibili per le applicazioni di Data Science, divenuto ormai uno standard de facto in questo ambito: la presenza di numerose funzioni specifiche per operazioni di analisi statistica dei dati, assieme alla natura open source e all’esistenza di una vasta community di sviluppatori che contribuiscono allo sviluppo di numerose componenti addizionali, fanno di R un ottimo strumento per sviluppare applicazioni di Data Science. Infine verranno presentate alcune delle componenti più diffuse per la gestione di grandi moli di dati, con particolare attenzione per i programmi dell’ecosistema di Hadoop ed il modello di programmazione MapReduce. Il corso sarà accompagnato da numerosi esercitazioni in cui le principali funzioni del linguaggio di programmazione R saranno utilizzate per analizzare alcuni dataset pubblici provenienti dalla letteratura o da basi dati Open Data e per scaricare informazioni direttamente da pagine web, per integrarle nella formulazione di modelli predittivi.

Contenuti del corso

  1. Introduzione alla Data Science
    Cosa eè la Data Science; quale valore si nasconde nei dati; potenziali rischi nell’applicazione acritica degli strumenti della Data Science.
  2. Il ragionamento probabilistico bayesiano
    Richiami sui concetti di probabilità ed incertezza; problemi nel valutare in modo consistente e coerente le probabilità; l’approccio bayesiano ed il processo inferenziale; costruzione di un modello probabilistico e sua importanza nelle applicazioni reali; valutazione del modello.
  3. Il linguaggio di programmazione R e la Data Science
    Breve introduzione all’ambiente di programmazione R e alle sue funzioni di base; visualizzare i dati in maniera efficace; gli algoritmi di regressione, classificazione e machine learning in R; usare R per analizzare big data.
  4. Raccogliere ed organizzare dati social e dati non strutturati
    Algoritmi per automatizzare la ricerca di dati; tecniche e API per estrarre dati di interesse dalla rete; come organizzare i dati non strutturati per facilitare la loro analisi.
  5. Tecniche di Data Mining & Machine Learning
    Ricerca di pattern e informazioni nei dati; tecniche di clustering (clustering partitivo e clustering gerarchico) e utilizzo di diverse metriche di similarità; algoritmi di machine learning: algoritmi di classificazione automatizzati, random forest, reti neurali, reti bayesiane, kNN.

Pangea Formazione offre corsi di alta formazione che mirano a formare le varie figure manageriali sull'analisi delle decisioni in termini probabilistici, applicata a diversi settori dell'attività manageriale o industriale. I corsi, della durata di uno o più giorni, possono essere ideati e organizzati secondo le esigenze e gli interessi del cliente e in ogni caso è prevista la creazione e realizzazione di appositi case-study riguardanti gli aspetti specifici del settore di provenienza dei destinatari del corso.

 

ARGOMENTI DEI CORSI:

In tutte le nostre attività, sia nella vita privata sia in quella lavorativa, ci troviamo a dover prendere delle decisioni e a confrontarci con l'incertezza: incertezza sugli avventimenti futuri e sulle loro conseguenze. Un corretto processo decisionale deve basarsi su una valutazione quantitativa di queste incertezze e questo richiede il ricorso alla nozione di probabilità.

Le reti bayesiane costituiscono un potente strumento logico e di calcolo, utilizzabile in moltissimi contesti nei quali sia necessario modellizzare e gestire l’incertezza e le relazioni di dipendenza tra un numero anche molto grande di variabili. Nel corso verranno introdotte le basi teoriche e saranno discussi casi in cui tale approccio ha ottenuto notevoli successi. Infine verrano presentati software per la costruzione e l'implementazione di reti bayesiane.

La gestione del rischio riguarda tutte le realtà manageriali e industriali. Alla base di un corretto processo di risk management c'è la quantificazione sia delle incertezze relative ai possibili scenari, sia delle conseguenze degli stessi. Un aspetto collegato è quello dell'analisi dell'affidabilità (dal guasto di un componente a disastri in centrali energetiche, fino all'analisi di sopravvivenza in un quadro biologico). Una trattazione unificata dei diversi contesti puó essere affrontata vantaggiosamente all'interno dell'approccio bayesiano con l'utilizzo delle metologie che lo caratterizzano.

La teoria dei giochi è lo studio matematico dei conflitti e della cooperazione tra agenti razionali. Inventata e sviluppata grandemente nella seconda metà del secolo scorso, trova importanti risvolti applicativi in molti campi, tra cui l'economia comportamentale, le gare di contrattazione, l'analisi dei social network e l'individuazione di strategie di marketing complesse.

È preferibile prevedere anche senza certezza alcuna,
che non prevedere affatto
Henri Poincare

Questo sito web utilizza i cookie per capire come viene utilizzato il sito e per permettere l'accesso all'area riservata. I cookie non permettono di identificare l'utente. I cookie sono salvati sul tuo browser e sono utlizzati per personalizzare la tua esperienza sul nostro sito web. Continuando la navigazione sul nostro sito senza modificare le impostazioni, accetti il nostro utilizzo dei cookie. Comunque potrai modificare le tue impostazioni dei cookie in qualsiasi momento.