Qualità On-Line delle Acque Reflue: il Sistema di Controllo “EarlyWarning” WPR (Water Pollution Rate index)

Applicazione di Soft Computing per il controllo “On-Line/Early Warning” della Qualità delle Acque Reflue  e del Trend dell’indicatore WPR, sulla base di misure on-line convenzionali (nei canali, in ingresso/uscita impianti, ecc.).

_________________________________________________________________

Principio di Funzionamento: WPR (Water Pollution Rate Index) si ispira al più noto WQI (Water Quality Index), che è uno degli indici di qualità più usati, messo a punto nel 1970, da un centinaio di esperti della qualità dell’acqua, provenienti dall’EPA (Environmental Protecion Agency) e dall’NFS (National Sanitation Foundation). Infatti, con il WQI si misurano i cambiamenti della qualità dell’acqua in particolari tratti di un fiume e per paragonare la qualità delle acque anche in fiumi diversi. Su tale indice si basa anche il progetto globale di monitoraggio delle acque dei fiumi proposto dal GREEN (Global Rivers Enviroment Education Network).

WQIwaterWQI2
Esempio di campionamento on-line e monito-raggio automatico delle acque in ingresso ed in uscita da impianti di depurazione. Nella figura a sinistra si evidenziano i campioni di acqua collocati in un area XY tra il rosso (bassa qualità) e il verde (buona qualità); nella figura a destra è evidenziato il confronto tra la traccia verde (acque reflue in ingresso) e la traccia azzurra (acque depurate in uscita) rispetto ad un riferimento normalizzato (linea rossa).

Componenti del Sistema WPR:

  1. Strumentazione analitica di misura on-line di parametri di qualità delle acque (pH, redox, OD, T, EC, torbidità, portata, ecc.);
  2. Centralina PLC/PC di elaborazione segnali e collegamento alla rete di Telecontrollo (SCADA);
  3. Accessori funzionali di installazione e funzionamento.

In generale, l’applicabilità dell’indice WPR si basa sul seguente approccio: per quanto riguarda le acque reflue civili o industriali, si è esteso il concetto dell’indice WQI (Water Quality Index) per le acque primarie,  tenendo conto che per queste ultime, l’attributo del Grado di Qualità non si riferisce solo al bilancio di concentrazione di sostanze più o meno indesiderate presenti (es. acque destinate all’utilizzo umano), ma anche al concetto di Idoneità all’Uso che se ne vuol fare, fermo restando la necessità di stabilire il “limite”di accettabilità rispetto al quale generare stati di allerta in tempo reale (Early Warning).

Per la caratterizzazione delle acque reflue sia grezze, che depurate, è quindi possibile utilizzare il tracciamento dei campioni on-line di acqua in termini di WPR su un piano di controllo XY (v. Fig.) nel quale sull’asse delle Y (WQI) vi è tracciata la qualità dell’acqua secondo il contenuto stimato di carico di sostanze inquinanti (SST, BOD, TDS, ecc.); lungo l’asse X (Qualità Complementare) la compatibilità ad es. rispetto alla trattabilità (se si tratta di acqua all’ingresso di un impianto di depurazione), piuttosto che sua alla immissione in un corpo idrico recettore (se si tratta di acqua depurata in uscita dall’impianto di depurazione) rispetto ai limiti normativi di riferimento. Con riferimento alla Fig. , il sistema di rilevazione della qualità delle acque proposto, riassume in un’unica traccia (verde per le acque in ingresso, azzurro per le acque in uscita) lo scostamento dal valore di riferimento (normalizzato) indicata da una linea rossa: in questo modo è possibile rilevare tempestivamente (Early Warning) situazioni perduranti di scarico anomalo.

In generale, l’applicabilità del concetto di “indice WPR” si basa sullo sviluppo dei seguenti principi:

  • I principio: acque appartenenti ad una “classe nota” (acque civili depurate): per la valutazione dell’intera gamma di parametri di qualità delle acque, si considera che tra i parametri di qualità delle acque naturali o pseudo-naturali esista un sottoinsieme di valori tali che, se sono fuori limite alcuni di essi, lo sono anche altri.
  • II principio: “indice di qualità” delle acque WQI applicabile alla classe di riferimento: si utilizza l’NSF-WQI (Water Quality Index), sviluppato negli Stati Uniti nel 1970 dalla Fondazione Nazionale della Sanità (NSF) per le acque naturali, apportando alcune correzioni attraverso l’introduzione di un Indice di Qualità Complementare che tiene conto di eventuali valori anomali dei parametri fondamentali, quali, ad esempio, il pH e la percentuale di ossigeno disciolto in condizioni di saturazione. In tal modo si è definito un Indice Bidimensionale di Qualità con carattere di oggettività. Per le acque reflue viene utilizzato il WPR (Water Pollution Rate index), indice derivato da un’appropriata base di conoscenza e che permette una misura on-line multi-clustering.
  • III principio: “individuabilità di un livello di qualità minima di riferimento”: attraverso i primi due principi è possibile individuare un insieme di riferimento rispetto al quale confrontare lo scostamento della qualità dell’acqua in ingresso e lo scostamento della qualità dell’acqua in uscita rispetto ad un valore minimo accettabile. In particolare lo scostamento dell’acqua in uscita è valutato rispetto ai limiti di legge.

La scala normalizzata utilizzata per il WQI (nel WPR) per la valutazione della qualità dell’acqua, va da 0 a 100, dove acqua di qualità max assumerà valore 100.

L’indice può essere valutato mediante rilevazione on-line di 9 parametri (otto chimici e uno batteriologico): BOD5, DO, pH, Temperatura (T), TDS, Torbidità, Azoto Totale (TN), Fosforo Totale (TP) and Coliformi Fecali (FC). Vista l’eterogeneità dei modi di esprimere i dati e la diversità delle unità di misura è impossibile un confronto tra questi e risulta altresì difficoltoso valutare l’importanza da attribuire ad ogni singolo parametro. Viene effettuata così una procedura di Normalizzazione che consiste nel trasformare i dati rilevati in valori confrontabili (Valore Q). Una volta calcolato l’indice WPR per l’acqua in uscita dall’impianto di depurazione verrà effettuato un confronto con i limiti di legge.

Operatività Target del Sistema WPR: sulla base delle misure on-line dei parametri analitici (di tipo elettrochimico, nefelometrico, ISE, ecc.) disponibili sul mercato a costi sostenibili, il Sistema WPR elabora l’indice bidimensionale  qualità, tracciando il trend su piano XY quotato (v.Fig.). In particolare, l’applicazione di WPR per le acque reflue grezze richiede in generale, l’utilizzo di misure on-line di potenziale redox (ORP), pH, temperatura dell’acqua, torbidità, livello nel collettore e/o portata idraulica), eventualmente (anche se più costosi) misure on-line di ammoniaca e nitrati (sensori ISE):

  • Monitoraggio delle Acque Reflue Grezze (in ingresso all’impianto di depurazione):

    WPR_in = Fuzzy [ORP, pH, T, EC, NTU, LV, Q]

L’applicazione di WPR per le acque reflue depurate richiede in generale, l’utilizzo di misure on-line di potenziale redox (ORP), torbidità, portata idraulica, eventualmente misure on-line di ammoniaca e nitrati (sensori ISE):

  • Monitoraggio delle Acque Reflue Depurate (in uscita dall’impianto di depurazione):

     WPR_out = Fuzzy [ORP, NTU, Q]

Le funzioni operative principali del Sistema WPR sono:

  • restituzione grafica e numerica dei valori degli indici di qualità delle acque;
  • confronto continuo tra gli indici di qualità e i limiti di riferimento;
  • segnalazione stati di pre-allarme (Early Warning) e allarme per superamento continuato dei limiti di riferimento;
  • archiviazione e gestione dei dati storici;
  • guida/Trouble Shooting  sul sistema WPR.

ASWR-Fuzzy-Logic-Water-Quality-Index-and-Importance-of-Water-Quality-Parame.pdf_2189

________________________________

Per Info:

SISTEMA SENSORISTICO – Progetto INDUSTRIA 2015 – ENEA Centro Ricerche Casaccia (Roma)

Elenco Componenti della Strumentazione di Misura del Sistema di Monitoraggio in Continuo MSD   

Relazione Allegato: ALL-Sensori

STRUMENTAZIONE DI PROCESSO (Sensori Esterni MSD)

STAZIONE METEO-AMBIENTALE (Sensori Esterni MSD)

    • – Componenti Strumentazione LSI
      • – Misura combinata di Velocità e Direzione del Vento
      • – Termoigrometro
      • – Barometro
      • – Palo Montaggio Sensori + Accessori
      • – Data Logger + Custodia IP65
      • – Accessori Hw/Sw

 STRUMENTAZIONE DI RIFERIMENTO EMISSIONI (Naso Elettronico)

Per INFO:

Modello di Business “fai da te” per Piccole Imprese ed Esercizi Commerciali: un “Modello di Conoscenza” per non commettere errori (1°Parte)

small-biz1Se hai una buona idea di business e vuoi realizzarla, non importa se non sei già un imprenditore da generazioni; non importa se hai perso il lavoro e sei costretto ora ad inventarne uno; non importa se le persone a cui si sei rivolto ti hanno prospettato scenari economico-finanziari scoraggianti e un “Business Plan” da decine di pagine…ciò che è veramente importante che TU sappia veramente quello che fai, PRIMA di farlo!  

Ti serve uno strumento pratico e potente che ti aiuti a valutare in maniera oggettiva la tua idea, come possibile attività imprenditoriale che produca innanzi tutto profitto, nonché ti consenta di simulare le varie configurazioni possibili e per te sostenibili del business a cui stai puntando. Ti voglio regalare quì un pratico Modello Economico di Business (Small-Business PILOT1), che non è il solito “bla, bla, bla… ” che trovi in giro o su Internet, ma uno strumento logico-matematico essenziale, oggettivo e funzionale. Ma Andiamo ai FATTI.

Small-Business PILOT1 (prima parte) Innanzi tutto partiamo dalla tua idea di business: qual’è il problema che aiuti a risolvere al potenziale cliente? Quali sono i fattori distintivi per cui un potenziale cliente dovrebbe scegliere te? Quanto sarebbe disposto a pagare per il tuo prodotto/servizio? Quanto tempo (n. anni) si può stimare che duri il tuo business? Supponiamo per esempio, che ci riferiamo ad un prodotto/servizio che vale unitariamente “x” Euro, indichiamo ad es. : Valore offerto per ogni “pezzo”  Vo = 500 Euro/p.  Bene, per poterlo vendere devi trovare il Mercato (MK) di clienti, segmentando la quota parte che meglio risponde alla tua offerta Vo. Definiamo praticamente quanto vale (n° ordini) MK e chiamiamo:

  • Nca: numero di clienti acquisibili per anno (es.: = 80 clienti/anno in media)
  • Noc: numero di ordini acqusibili per ciascun cliente (es.: = 1,5 ordini/cliente in media)
  • Nab: numero di anni di vita stimabile del business  (es.: 10 anni)

Allore risulta che il tuo mercato, come somma dei possibili ordini per l’intero arco di vita del business vale: MK = Nca x Noc x Nab = 1200 ordini. Moltiplicando MK x Vo = (500 x 1200) = 600.000 Euro tot. (Valore complessivo dei Ricavi R: Fatture Attive), ovvero  R = (MK x Vo)/Nab  (60.000 Euro/anno).

In altri termini, stiamo parlando di un (piccolo) business  ad es. da 600 mila euro di Ricavi in 10 anni. Supponendo che la “cosa” risulti per te interessante, facciamo un passo successivo chiedendoci:

  • Come faccio e quanto mi costa il Prodotto/Servizio Vo offerto?
  • Quanto mi costa sviluppare il mercato MK = Nca x Noc x Nab  ?

Qui entrano in gioco naturalmente:

  • CE: Costi Esterni per anno (Partners Chiave, Magazzino, Canali di Vendita) = Fatture Passive
  • CC: Costi Commerciali per anno (Relazioni con i Clienti, Canali)
  • CL: Costi del Lavoro per anno (Risorse Chiave)
  • CG: Costi Generali di Struttura per anno (affitto, servizi di rete, attrezzature, ecc.)

Considerando che il Valore Aggiunto VA (Euro/anno) realmente generato dal tuo business vale VA = R-CE (ciò significa che un business sostenibile dovrebbe avere CE molto minore di CE), si ha che possiamo scrivere il Modello di Business MB (a lordo di tutti gli oneri fiscali e finanziari) come:

MB (Euro/anno) = VA – (CL – CC – CG)     (Small-Business PILOT1)

In conclusione, per verificare e controllare la validità e sostenibilità della tua idea imprenditoriale devi compiere i seguenti passi:

# VALORE AGGIUNTO OFFERTO:

  1. Valore Vo che si intende offrire;
  2. Valore MK del mercato di riferimento (Segmenti di Clientela);
  3. Flusso dei Ricavi R = MK x Vo;
  4. Costi Esterni CE (Fatture passive da Fornitori, Partners, ecc.);
  5. Valore Aggiunto VA = R-CE

# STRUTTURA DEI COSTI delle Attività Chiave:

  1. Costo del Lavoro CL (Risorse Chiave);
  2. Costi Generali CG di Struttura (affitto, servizi di rete, attrezzature, ecc.);
  3. Costi Commerciali CC (Relazioni con i Clienti, Canali)

# COSTI GENERALI CG (affitto, servizi di rete, attrezzature, ecc.)

.

A questo punto, non ti resta che provare a ipotizzare quelli che sono i “numeri” del tuo business e verificare se sono sostenibili, prima che tu scenda in campo…

_____________________________________

P.S.: Se ti interessa approfondire l’argomento Small-Business PILOT1 e/o vuoi ricevere anche un foglio di calcolo (MS-Excel) con gli algoritmi del modello già implementati e funzionanti, allora compila il FORM seguente indicando la tua richiesta e la tua email di invio, grazie. Giovanni Mappa.

Perché e Come Verificare il “Lavoro Competitivo”: alcuni semplici Modelli di Conoscenza a riguardo…

rba1_03_XSChe cosa significa “lavoro competitivo” nello scenario attuale? Crisi a parte, dobbiamo constatare che negli ultimi 20 anni il “ciclo di vita” del lavoro, ovvero l’arco di tempo massimo possibile lavorativo di una persona (fino alla pensione), è andato via via ad allungarsi, anche se in maniera intermittente: dai circa max 30 anni lavorativi che si avevano fino agli anni’90, ai quasi 50 anni attuali.

Caratteristica  conseguente di questa dilatazione della finestra temporale lavorativa (per i più”fortunati”), è quindi la necessità (costrizione/opportunità) di cambiamento di attività lavorativa o di variazione di carriera, più volte nel corso della vita lavorativa, ma anche quella di dover lavorare molto di più anni (v.Fig. seg.)

LavComp10

 Work Life Cycle Scenario

Questa considerazione preliminare, ne nasconde delle altre, molto importanti soprattutto per i giovani (ma non solo) che si preparano al mondo del lavoro (v. professionalità emergenti): qualunque cosa si intenda o si voglia fare come mestiere o professione, si dovrà tener conto che sarà comunque molto difficile trovarlo ed eventualmente, farlo per tutta la vita lavorativa!  Pertanto sarà meglio pianificare e dotarsi degli strumenti decisionali più opportuni per affrontare questa sfida.

Semplici Modelli di Conoscenza (Logico-Matematici) ci aiutano anche in questo caso, a focalizzare l’attenzione sui meccanismi funzionali “oggettivi” che ci consentono di massimizzare i fattori distintivi (Skill) per l’ottenimento di un posto lavoro (dipendente o autonomo) e/o il per suo mantenimento nel tempo, in un mercato sempre più caratterizzato dalla competitività più accesa.

Possibili Modelli di Valutazione del “Lavoro Competitivo” (L.C.) rispetto al proprio mercato di riferimento, nascono dal definire un criterio oggettivo di misurabilità delle prestazioni lavorative.

Dal momento che LC è la forza e il motore delle nuove imprese basate sul capitale intellettuale (Knowledge Intensive), risulta utile, in analogia alle leggi della Fisica, estrapolare e trasporre il concetto di Forza, Potenza ed Energia: ciò ci consentirà di sviluppare un Modello oggettivo di valutazione del valore di quest’ultimo e di stigmatizzare delle Leggi Lavorative Fondamentali, qui di seguito riportate.

___________________________________________________________________________________

1° Legge (Valore) : L.C. è tale se produce Valore Aggiunto, vera forza trainante dell’impresa

Il concetto di Forza del Lavoro viene trasposto a quello di Valore Aggiunto (forza dell’impresa) che si può esprimere come:

VA = VEp · ∑Fi /∑ci

dove VEp esprime il Valore Economico Prodotto ed è correlato al prezzo pattuito nel contratto fornitore/cliente, ovvero nal ricavo del fornitore:    VEp = Ricavo – Costi esterni

Inoltre, ∑Fi rappresenta la sommatoria delle “funzionalità” da realizzare nel prodotto/servizio fornito e  ∑ci rappresenta la corrispondente sommatoria dei costi unitari di produzione ciascuna funzionalità sviluppata. Pertanto,  ∑Fi /∑ci non è altro che il contenuto della Specifica Funzionale di Contratto (v. Capitolato Tecnico). Dato che sia VEp che ∑ci sono espressi in unità di moneta (€), risulta che VA ha le dimensioni delle funzionalità ∑Fi  fornite.

Esempi:

a) Perdita di VA: nel caso vengano realizzate più funzionalità Fi rispetto a quelle  richieste dal cliente, venendosi comunque a generare dei costi Ci, a parità di VEp da contratto, il valore aggiunto VA prodotto dal Knowledge Worker sarà percepito dalla sua azienda come inferiore a quello previsto, in quanto la stessa azienda ha dovuto sostenere il relativo costo unitario aggiuntivo rispetto alle funzionalità non richieste. Discorso equivalente è quello  vale nel caso che invece di una funzionalità non richiesta, si tratti di un errore di  progettazione di funzionalità (ovvero di interpretazione) che, come tale deve essere corretta o ri-sviluppata del tutto.

b) Svalorizzazione di VA: nel caso  di VEp molto basso (o addirittura nullo), VA diminuisce proporzionalmente e indipendentemente dal fatto che ∑ci possa essere molto alto, ovvero che i costi di produzione sostenuti dall’azienda fornitrice siano stati elevati.

Si può concludere come il valore aggiunto VA prodotto dal L.C. dipenda essenzialmente da 2 fattori:

  • dalle competenze  (Know-How, R&S, Innovazione) necessarie allo sviluppo delle ∑Fi;
  • dalla valorizzazione commerciale VEp operata in fase di offerta e del successivo contratto.

Vedi anche: Modello del “Valore dei Prodotti/Servizi”

___________________________________________________________________________________

2° Legge (Comunicazione): L.C. è tale se si lavora in maniera produttiva, ovvero se è in grado non solo di “fare”, ma anche di rendere “utilizzabile” il proprio lavoro svolto.

Il concetto di Lavoro (= Forza x spostamento) viene trasposto a quello di Lavoro Produttivo:

Lp = VA · COMe

dove COMe esprime il concetto di “Comunicazione efficace” bidirezionale verso il cliente, ovvero la capacità di “capire e farsi capire” sul prodotto/servizio da fornire (in fase di offerta), nonché di proporre una soluzione efficace la cui conferma derivi dall’effettivo utilizzo da parte del cliente. COMe è il risultato ottenuto dal sapiente mix di utilizzo degli strumenti della comunicazione verbale, scritta e visiva, più opportuni al caso (situazione, cliente), che consentano il pieno trasferimento (tecnologico) del VA al cliente (che lo utilizza di fatto).

Fanno parte di una COMe:

  • la capacità di comprendere il “linguaggio” del cliente e il suo scenario di riferimento;
  • la capacità di dialogare efficacemente con il cliente attraverso la comunicazione aziendale: specifiche tecniche, relazioni, verbali riunioni, email, fax, ecc.
  • la capacità di relazionarsi in maniera “credibile” e “professionale” per riuscire ad avere “il controllo della situazione” con il cliente costantemente, per tutto il tempo necessario allo sviluppo delle funzionalità di prodotto/servizio e, possibilmente, anche oltre.

Esempi:

a) Perdita di Lp: nel caso venga realizzato un VA, ovvero vengano sviluppate le funzionalità richieste con un VEp adeguato, ma si fallisca sul trasferimento al cliente a causa di una COMe inappropriata, si viene a vanificare, in parte o in toto, il lavoro fatto. In altri termini, il valore del lavoro produttivo Lp effettuato equivale a quello corrispondente ad un VA proporzionalmente più basso, che penalizza le competenze L.C., con conseguente perdita di valore di Lp.

b) Inconsistenza di Lp: nel caso in cui sia il valore di VA ad essere basso, mentre il trasferimento COMe si è effettuato con successo, significa che a fronte di una comunicazione bidirezionale efficace è venuto a mancare la concretezza della soluzione sviluppata (v. “venditore di fumo…”). Ciò può accadere quando una valida competenza commerciale non è supportata da un’altrettanto valida competenza tecnico-produttiva.

___________________________________________________________________________________

3° Legge (Tempestività): la capacità L.C. di “far presto e bene” lo rende più competitivo (potente)

Il concetto di Potenza ( = Lavoro nell’unità di tempo) viene trasposto a quello di Potenza Lavorativa:  

Pl = Lp / t

La potenza lavorativa LC si può esprimere come la capacità di sviluppare un lavoro produttivo nell’unità di tempo t, ovvero in un tempo che deve essere il minimo possibile compatibilmente con i requisiti di VA e COMe di Lp.  Data la necessità di realizzare un lavoro Lp, il K.W. che lo realizza in un tempo più lungo, esprime una potenza lavorativa più bassa, sia che ciò sia avvenuto per mancanza di competenze appropriate, sia per spreco di tempo per qualsivoglia causa.

___________________________________________________________________________________

4° Legge (Saturazione): ogni L.C. possiede un proprio “Potenziale” che si deve trasformare in energia produttiva, ma come in Formula1, innovazione metodologica/tecnologica e carburante fanno la differenza. 

 Il concetto di Energia viene trasposto a quello di Potenzialità Produttiva espressa tenendo conto di un “fattore di saturazione” della potenzialità lavorativa, il cui valore diminuisce in genere con gli anni di attività lavorativa, nonché di un “fattore di Skill” il cui valore viene ottenuta come media di una pagella (scorecard) attribuita al L.C. rispetto ad una o più di competenze di riferimento e/o ad attitudini comportamentali:

Ep = (1-anni/(k+anni)) ·SKILLm

Dove:

  • anni = anni di attività lavorativa professionale
  • Skillm =    valore medio normalizzato [0÷1] del punteggio assegnato al K.W. nel periodo considerato (ad es. dal Resp. del Personale) rispetto a valutazioni di parametri del tipo: autonomia decisionale, spirito di gruppo, riflessività/concentrazione, attività/produttività, competenza/apprendimento, responsabilità/direzionalità, ecc.
  • K = coefficiente legato al ciclo di vita lavorativo utile

___________________________________________________________________________________

5° Legge (Qualità): il K.W. esiste se esiste almeno un cliente che lo percepisca e lo apprezzi

Si richiama il Concetto della Qualità ISO9000 e del Sistema di Gestione della Qualità.

Qualità: è l’insieme delle caratteristiche e delle proprietà che conferisce ad un prodotto/servizio la capacità di soddisfare le esigenze espresse o implicite del cliente

Sistema di Gestione Qualità: ha la funzione di garantirsi e garantire al cliente, in maniera preventiva che la qualità dei propri prodotti/servizi:

  • corrisponde ai bisogni del cliente;
  • è ripetibile;
  • è costante;
  • è continuamente migliorata.

Pertanto, tra le leggi lavorative L.C. è possibile definire il seguente parametro di efficienza legato al rispetto dei requisiti della Qualità e al suo Sistema di Gestione e denominato Rendimento in Qualità η:

ηq = (VA · COMe)/ (VA · COMe)max ≥ K cliente

Dove:

  • (VA· COMe)max = valore di riferimento assunto dal migliore “competitor” presente sul mercato nel periodo
  • Kcliente =  valore del livello di qualità attribuibile, in base ad una scala di rif. normalizzato [0÷1], a ciascuna tipologia di cliente classificabile in base alla sua “sensibilità”, piuttosto che al suo livello tecnologico-organizzativo, ecc.

___________________________________________________________________________________

5° Legge (Coinvolgimento): L.C. massimo si ottiene quando per dare il meglio di se, si è in grado di vivere “normalmente” livelli elevati di coinvolgimento emotivo e di stress  

SkillStress

___________________________________________________________________________________

In conclusione,  il livello di Lavoro Competitivo è possibile misurarlo attraverso le sopraindicate leggi (Modelli di Conoscenza Logico-Matematica) e, in sintesi, rispetto a:

  1. proprio Potenziale:                                   Ep = (1-anni/(k+anni)) ·SKILLm
  2. ciò che si sa fare:                                       Lp = VA · COMe  ;     Pl = Lp/t
  3. come lo si sa fare:                                      ηq = (VA · COMe)/(VA · COMe)max ≥ K cliente

Per svolgere un lavoro competitivo non è sufficiente essere in grado di produrre Valore (1° Legge) senza capacità di Comunicazione v. 2°Legge): sarebbe molto rischioso; si rischierebbe di fare la fine del genio incompreso! La storia del lavoro è piena di lavoratori altamente qualificati che “stazionano” ad un basso profilo di carriera. Per soddisfare la legge di mercato della domanda/offerta, è necessario produrre valore, ma anche essere in grado di comunicarlo correttamente (al nostro cliente interno o esterno) e tempestivamente (prima che lo facciano altri…). Inoltre, essere un lavoratore competitivo significa fare in fretta e meglio: è necessario controllare il nostro “potenziale” (v. 3°, 4°, 5° e 6° Legge), in relazione alla nostra età/esperienza lavorativa e, più di tutto, la soddisfazione del cliente che è poi, l’obiettivo finale L.C.

Il concetto di Valore ha una moltitudine di significati soggettivi e oggettivi: dipende dall’ambito di riferimento e dall’area di applicazione. In questo contesto, si fa riferimento al ” core” del Valore come la capacità incrementale di soddisfare una domanda / bisogno. Un altro punto di vista in merito al concetto di Valore è rappresentato dalla diversa visione tra consumatore e produttore: lo stesso Valore di prodotto/servizio  viene valutato come profitto, piuttosto che convenienza di mercato (o benefit).

LavComp2

The model of the costs, the price and the value

http://www.ecocostsvalue.com/httpdocs/content/html/3-concept.html

In questo caso:     Valore = Qualità del Prodotto + Qualità del Servizio + Qualità Percepita

Articolo Tratto da:  Interdisciplinary Thinking by Knowledge Synthesis (Giovanni Mappa, 2011)

___________________________________________________________________________________

Per commenti, chiarimenti e/o informazioni sono a Vs disposizione:

Risparmio Energetico e Miglioramento Depurativo mediante Controllo a SetPoint Dinamico dell’Ossigeno Disciolto: WDOxy Fuzzy

Porcellino3Risparmio Costi di Gestione con WDOxy-Fuzzy Controller

Il Modello WDOxy Fuzzy è una procedura di calcolo real-time per il Set-Point Variabile dell’OD, ovvero della concentrazione di ossigeno disciolto necessaria per le effettive esigenze real-time del metabolismo batterico della rimozione del carbonio e dell’azoto.

La procedura WDOxy Fuzzy è stato sviluppato sulla base di algoritmi bio-processistici in “Logica Fuzzy” e sull’utilizzo in “input” della misura on-line del valore di concentrazione NH4 (in alternativa: ORP), oltre alla misura on-line dell’OD; restituisce in “output” in tempo reale, il valore di set-point ottimale di OD. WDOxy Fuzzy è applicabile sia a impianti biologici ad aerazione continuata che intermittente.

Concentrazione dell’Ossigeno Disciolto e Controllo Energetico: un controllo adeguato del funzionamento di un impianto di depurazione e in particolare, del reattore biologico  (CSTR a “fanghi attivi” e con rimozione di N e P), si rende necessario sia per garantire la qualità dell’effluente e il rispetto dei limiti di legge, sia per contenere le spese di gestione: aspetto quest’ultimo che sta assumendo un’importanza sempre maggiore a causa dei crescenti costi dell’energia.  Infatti, il controllo della fornitura di aria in un impianto a fanghi attivi è importante per le seguenti motivazioni:

  • la fornitura di ossigeno è una delle principali voci di costo gestionali (10÷30 %);
  • la fornitura di ossigeno è un fattore determinante per l’affidabilità della qualità dell’effluente depurato;
  • la fornitura di ossigeno è un fattore determinante per l’efficienza della sedimentazione dei fanghi e dello stato di salute della biomassa.

Concentrazione dell’Ossigeno Disciolto e Bulking Filamentoso: la concentrazione dell’ossigeno disciolto (OD) nel reattore è un parametro di input di enorme importanza per la sua influenza sul bulking filamentoso e quindi, sulla sedimentabilità dei fanghi. La relazione tra il OD e lo SVI è direttamente influenzata dal carico organico (F/M): più elevato è il carico organico, più alta è la concentrazione di ossigeno disciolto necessaria per prevenire il bulking. La proliferazione di alcuni batteri filamentosi quali lo S.Natans, tipo 1701, e l’H. hydrossis in condizioni di basso ossigeno disciolto può essere attribuita all’elevata affinità (bassa costante di semisaturazione) che essi hanno per l’ossigeno.

Il controllo tradizionale con  Set-Point Prefissato dell’ossigeno disciolto:

  • Non si tiene conto della resa del processo di depurazione: necessaria la misura di un altro parametro (efficienza abbattimento NH4)
  • Non si tiene conto della variabilità del carico entrante: si fornisce troppo o troppo poco ossigeno per la maggior parte del tempo
  • Scarsa stabilità di controllo: i metodi di controllo tradizionali sono troppo semplificati e danno luogo ad instabilità

WDOxy

Vantaggi del sistema a Set-Point OD Dinamico WDOxy-Fuzzy rispetto al sistema tradizionale a Set-Point Prefissato: 

  • Risposta immediata a picchi entranti e condizioni di variabilità di carico entrante grazie ad un adattamento continuo del set-point di ossigeno disciolto: adattamento del processo biologico alle variazioni di carico in ingresso. Il sistema a set-point OD Dinamico, a differenza del sistema di controllo tradizionale (a set – point fisso di ossigeno disciolto) che evidenzia ampie oscillazioni, dimostra una notevole stabilità nel raggiungimento delle condizioni di processo ottimali, anche di fronte a significative variazioni del carico entrante
  • Maggiore stabilità di processo ed efficienza depurativa, con particolare riferimento al processo di nitrificazione;
  • Elevato risparmio energetico 15-20%  e contestuale eliminazione degli eccessi di nitrificazione, in quanto viene evitata la fornitura di aria in eccesso ed ottenendo un miglior rendimento di trasferimento di ossigeno da parte dei diffusori.
  • Assicura l’efficienza del rendimento di rimozione richiesto.

_________________________________________________________________________________

WDOxydevPackage di Acquisto WDOxy Fuzzy:

  • Software di Valutazione Dimensionamento/Configurazione
  • Codice in Logica Fuzzy (PLC)
  • Servizio di Assistenza Tecnica

Per ulteriori informazioni o quotazioni di offerta compila il form quì di seguito.

_________________________________________________________________________________

Esempio Applicativo WDOxy Fuzzy a Set-Point Dinamico:

Liquicontrol NDP  

Lc

EH

Liquicontrol NDP è un innovativo sistema di gestione e controllo dell’ossigeno disciolto in vasca d’aerazione e della concentrazione dell’azoto ammoniacale nell’effluente. Il valore di Azoto ammoniacale viene misurato in continuo, confrontato in tempo reale con il valore desiderato ed infine, utilizzato per il calcolo del set-point variabile dell’ossigeno disciolto. Il valore del set-point di ossigeno disciolto è poi confrontato con la misura dell’ossigeno disciolto presente in vasca in quel momento e determina, grazie ad una regolazione con logica fuzzy, l’erogazione dell’aria.

Brocure: Liquidcontrol NDP

Per la stima del risparmio energetico relativo al sistema Liquicontrol NDP, è possibile utilizzare un parametro denominato Indice di Prestazione ENergetica: rapporto tra l’energia attiva assorbita dal comparto di aerazione ed i più significativi carichi inquinanti rimossi, pesati secondo l’effettivo contributo alla fornitura d’aria:

IPEN = Energia (kWh/d) / [0,3*CODrimosso (kg/d)+0,7*NH4+rimosso(kg/d)]

SISI-EHLiquicontrol

Referenze in primo piano:

__________________________________________________________________________________

Per ulteriori informazioni o quotazioni di offerta compila il form:

Sviluppare una “Conoscenza Efficiente” con i Modelli di Conoscenza (ITKS)

Modelli di Conoscenza come Catalizzatori di Efficienza Cognitiva e Strumento di Sviluppo di Sistemi Decisionali

_____________________________________________________________________________________________

I Modelli di Conoscenza e il loro utilizzo: per definire in maniera esaustiva il concetto di Modello di Conoscenza (Knowledge Model)  bisognerebbe addentrarsi nei meandri delle Scienze Cognitive; per constatarne invece la loro utilità operativa e applicabilità pratica, l’ambito di riferimento è l’Ingegneria della Conoscenza: su questi argomenti esiste infatti un immenso patrimonio di letteratura tecnico-scientifica, a partire addirittura dagli anni ’50. In termini generali, può essere sufficiente affermare come un Modello di Conoscenza sia un algoritmo di “sintesi logico-matematica” in grado di elaborare (inferenziare) una moltitudine di dati/informazioni acquisiti come input da fonti esterne eterogenee, per restituire come output informazioni decisionali rispetto ad un target  prefissato.

In questo contesto, si intende mettere in evidenza come i modelli di conoscenza siano già a noi familiari da tempo e addirittura insiti nella nostra natura di esseri viventi in grado di osservare quanto ci circonda, interpretare tempestivamente gli eventi, gestire le incertezze e prendere delle decisioni di buon senso. Infatti, tutti noi seguiamo dei modelli di riferimento che possono riguardare l’etica, la famiglia, la politica, ecc., come insieme di regole e valori condivisi e collaudati. Esempi tipici di modelli di conoscenza si ritrovano addirittura negli aforismi o nei proverbi, nati dall’esperienza e dalla saggezza popolare: ci aiutano in qualche modo a riflettere e a metterci in allerta (early warning) di fronte ad eventi di pertinenza.

Peraltro, nell’era in cui viviamo dell’Economia della Conoscenza e della ricerca dello sviluppo sostenibile, ciò si tradurrebbe da un lato, nella necessità di gestire la conoscenza secondo principi “tangibili” di economia, introducendo strumenti di misurazione del valore della conoscenza e dall’altro sviluppando un approccio sistematico e interdisciplinare alla risoluzione dei problemi. Tutto ciò si traduce nella necessità di gestire la conoscenza in maniera efficiente, ovvero in maniera tale da raggiungere gli obiettivi nel minor tempo e con la massima economicità, mentre ora sappiamo farlo già in maniera efficace e stiamo ancora imparando a farlo in maniera economica: Net-Economy, Big-Data, Green Energy, Smart City  sono solo alcuni dei possibili contesti che ci richiamano il concetto di conoscenza efficiente [22][23][24][25]. I Modelli di Conoscenza ci aiutano a questo scopo: sono dei “Knowledge Pattern”, sintesi di regole già note o rese tali da opportuni procedimenti di estrazione di conoscenza (Data Mining /Knowledge Extraction), che forniscono le chiavi di lettura della complessità trasformandola in un sistema di knowledge pattern più semplici e sintetici. In altri termini, i modelli di conoscenza fungono da “scorciatoia” o da catalizzatori  nei processi cognitivi per aumentarne l’efficienza. L’approccio dei Modelli di Conoscenza è stata presentato ufficialmente dall’autore della presente memoria per la prima volta nel 1993 a Palermo, in occasione del Congresso ANDIS, come sviluppo di un Sistema Esperto per la gestione dei processi biologici di depurazione delle acque, dimostrando come fosse possibile prevenire le anomalie di processo, incrociando i dati chimico-fisici di processo con le informazioni quali-quantitative relative al comportamento biologico (non-deterministico) dei microorganismi depurativi.

Un modello di conoscenza non è necessariamente qualcosa di complicato, anzi può essere molto semplice, ad esempio se consideriamo la seguente espressione del Valore di un prodotto/servizio:

Ke1

 Se un prodotto/servizio fornisce le funzionalità f1+f2+f3, il costo di produzione corrispondente sarà c1+c2+c3 e pertanto:

  • se si sbaglia a fornire una o più funzionalità fi perché non corrispondente a quanto richiesto o perché non necessaria, si avrà comunque un costo corrispondente ci e quindi, il Valore Vp sarà inferiore al dovuto: ciò esprime il concetto di Qualità del Prodotto/Servizio;
  • se a parità di fi, riduco i costi ci dislocando l’azienda in paesi dell’estero ove è possibile farlo o acquistando materie prime più economiche il Valore Vp aumenta (virtualmente), ma dal momento che ci (al denominatore) può al limite tendere a zero, dopo di che il prodotto/servizio è perso inevitabilmente: ciò esprime il concetto di una Visione (suicida) di Cash-Flow di breve periodo del Prodotto/Servizio;
  • solo migliorando e incrementando le fi, ovvero investendo in ricerca e innovazione si ha che il Valore si incrementa realmente (al limite all’infinito) ed è in grado di competere sul mercato: ciò esprime il concetto di una Visione (imprenditoriale) di medio-lungo periodo del Prodotto/Servizio;

Come è facile constatare, un semplice rapporto come quello sopraindicato  esprime da solo, un modello di conoscenza che se fosse stato utilizzato dalla politica economica degli ultimi vent’anni, l’Italia oggi si troverebbe a competere con un rafforzato  Made in Italy senza la necessità di svendere le aziende italiane e il patrimonio nazionale [7].

Concetti e Principi Base:Modelli di Conoscenza (Knowledge Models) sono quindi algoritmi che utilizzano il “linguaggio universale” della matematica per sviluppare in maniera quali-quantitativa sintesi di regole, di concetti e di scenari. Entrando più nel merito dell’argomento, è possibile enucleare alcuni concetti sui quali si basa applicazione della metodologia. Risulta necessario infatti definire alcuni punti chiave:

a) Catena della Conoscenza: si tratta del primo principio sul quale si basa la struttura dei modelli di conoscenza, ovvero quello relativo alla Knowledge Chain DIKW (Data/Info/Knowledge/Wisdom), nella quale si distinguono i dati dalle informazioni e queste ultime dalla conoscenza, fino ad arrivare al concetto di saggezza. I dati sono definibili come entità statiche, “fotografie” di fatti e sono quindi espliciti, in genere sono espressi in forma alfanumerica, prodotti da fonti (database, sensori,…) che ne condizionano poi la loro “qualità”.  Le informazioni sono entità dinamiche ed evolutive, caratterizzate da un proprio ciclo di vita, nascono in forma esplicita o latente, sono correlate ad uno o più processi (mentali, personali, ambientali, produttivi, ecc.) ed esercitano su tali processi una propria influenza (o “peso”).  Ad esempio: misurando la temperatura, la pressione atmosferica e l’umidità relativa esterna (dati), si ottiene un’informazione che può essere correlata all’abbigliamento da indossare (processo), condizionata dal “peso” che la stessa informazione ha su una determinata persona piuttosto che su un’altra e dura lo spazio temporale (ciclo di vita) limitato alla rispettive necessità di uscire da casa.

Ke2

Fig.1 – La Catena della Conoscenza DIKW

La catena della conoscenza  DIKW non è solo un legame funzionale, ma esprime anche una azione: “ La conoscenza è informazione in azione“[21]. Con riferimento al DIKW e alle precedenti considerazioni, si potrebbe quindi definire la conoscenza come la facoltà umana risultante dall’interpretazione delle informazioni finalizzata all’azione (Knowledge in Action), ovvero il risultato di un processo di inferenza e di sintesi (ragionamento), a partire da dati verso la saggezza (come ulteriore livello di astrazione dalla conoscenza acquisita).

b)  Indipendenza Strutturale della Conoscenza dal contesto di riferimento: il principio base più innovativo è senza dubbio quello che esprime l’indipendenza della conoscenza dalla struttura lessicale e dal particolare glossario dei termini utilizzato: la struttura della conoscenza non è legata al peculiare ambito applicativo, ovvero: i processi di ragionamento fautori di conoscenza non sonofigli unici di madre vedova”, ma seguono dinamiche trasversali e interdisciplinari che sono ripetitive secondo classi tipologiche che fanno parte di un sistema inerziale nel quale valgono universalmente i principi base della Natura e dell’uomo (v. Piramide dei Bisogni Primari di A.Maslow [20]), a prescindere dagli scenari tecnologici, politici e di mercato del momento. Un esempio per tutti di indipendenza strutturale della conoscenza: l’Ingegneria Biomedica è nata quando finalmente discipline diverse dal punto di vista lessicale e dei contenuti, come la medicina, la fisica, l’ingegneria, la biologia, ecc., si sono incontrate “interdisciplinarmente” nel suddetto sistema di riferimento inerziale, al fine di soddisfare un bene primario come quello della salute.  L’esistenza di una struttura comune della conoscenza consente un’interazione più facile con nuove aree di conoscenza e favorisce lo sviluppo dell’approccio di ragionamento interdisciplinare o “Interdisciplinary Thinking” [7], in quanto anche trovandosi in un contesto nuovo di conoscenza, è possibile riconoscere la struttura (comune) di ragionamento di riferimento e adattarsi velocemente allo specifico lessico e al glossario dei termini utilizzato e infine, essere in brevissimo tempo pro-attivi fornendo il proprio contributo cognitivo.

c)  Propagazione del Grado di Certezza (vs Probabilità): altro principio fondamentale e distintivo dei modelli di conoscenza rispetto ad esempio, all’approccio statistico e probabilistico utilizzato normalmente nello sviluppo di strumenti inferenziali complessi come le ”Reti Bayesiane”, è che nella realtà  industriale (e non solo) è poco frequente disporre di dati sufficientemente numerosi ed affidabili, nonché rappresentativi di un prefissato fenomeno in esame. Spesso viene confusa ad es. l’esistenza di un fenomeno con la frequenza con cui esso appare, fino a commettere l’errore di negarne l’esistenza soltanto perché “poco probabile”: è superfluo sottolineare come le catastrofi che puntualmente si verificano (in Italia e nel mondo) in occasione di ogni evento naturale “anomalo”, siano anche frutto di valutazioni a bassa probabilità… I modelli di conoscenza operano sulla propagazione della certezza, la quale si basa sul seguente concetto: se due o più informazioni input hanno un contenuto informativo inferenziale, eventualmente anche parziale o incerto a favore di una certa conclusione output, quest’ultima, frutto dell’intersezione ”insiemistica “ delle prime due, acquisirà un grado di certezza maggiore di quello contenuto in ciascuna delle informazioni di origine.

d) Computazione Non-Deterministica: i Modelli Matematici possono essere considerati come un particolare sottoinsieme dei Modelli di Conoscenza, ma mentre nei primi si rappresenta la realtà dei fenomeni secondo procedimenti  deterministici e subordinata in genere a delle ipotesi iniziali semplificative, nei modelli di conoscenza la realtà è rappresentata anche nella propria natura non-deterministica, attraverso un approccio sistemico e procedimenti che tengono conto della “naturale” incertezza nei dati e nelle informazioni, rispetto alla minimizzazione degli errori e alla ricerca di soluzioni di “buon senso” (common sense).  Poniamoci infatti, la seguente domanda: nel ragionare e prendere ad es. una decisione, il nostro cervello risolve un sistema di equazioni o risolve per caso un’espressione algebrica? Certo che no. Allora forse c’è un “gap” tra quello che ci hanno insegnato a scuola nell’ambito delle computazione di dati (v. Matematica) e il modo “naturale” di computare informazioni proprie del nostro cervello e poi trasferito alle macchine (v. Intelligenza Artificiale). La computazione non deterministica ci consente di fare operazioni con le informazioni quali-quantitative anziché con i dati, ovvero  con il contenuto informativo che i dati possono o meno esprimere. Un dato può essere considerato come un “insieme” che ha un contenuto informativo percentualmente differente a seconda del contesto e del target a cui è destinato. Ritornando all’esempio precedente sulle condizioni atmosferiche, un valore di temperatura dell’aria esterna di 15 °C rispetto alla scelta di vestirsi in maniera adeguata per uscire di casa fornisce una indicazione decisionale solo parziale (% certezza), se non è sovrapposta alle altre informazioni come ad es. la pressione atmosferica e l’umidità relativa. L’insieme risultante dall’intersezione dei tre insiemi di partenza ottenibile rispetto ad un target di “tempo di pioggia” o di “tempo soleggiato”, fornisce un valore % risultante di certezza più elevato rispetto a quello che ciascun dato di partenza può esprimere singolarmente: se consideriamo che la temperatura di 15°C rispetto al target “meteo-pioggia”, contribuisce per il 30%, mentre la pressione atmosferica per il 25% e l’umidità relativa per il 35%, si avrebbe che la decisione di vestirsi in un certo modo piuttosto che in un altro avrebbe un grado di certezza complessivo del 65,875% (somma insiemistica), che è superiore al 50% di soglia, anche se con ancora un 34,125% di % incertezza che potrebbe essere soddisfatto da un’altra “intersezione insiemistica” fornito da un ulteriore dato (ad es. dal valore della velocità del vento). Alle stesse conclusioni si potrebbe arrivare con dati differenti (v. es. millimetri di pioggia), sia in termini di contenuto informativo che  numerici.

e) Modellazione Reticolare della Conoscenza: dal punto di vista logico, ogni modello di conoscenza è rappresentabile da una “cella informativa base” dotata di “n” dati/info in ingresso (input) e “m” meta-informazioni in output: all’interno della cella è possibile avere differenti relazioni di inferenza input/output: dalla semplice inferenza XY (curva di conoscenza n=1, m=1), fino a intere matrici “n*m” inferenziali. Gli “m” output di una cella possono a loro volta diventare in parte o in toto, input per un’altra cella e così via fino a realizzare una rete di celle in grado di elaborare un numero teoricamente infinito di informazioni.

Un processo tipico di “modellazione” della conoscenza, soprattutto nella realizzazione di sistemi on-line di controllo, segue alcuni passi fondamentali come la formalizzazione e validazione dei dati acquisiti da sorgenti eterogenee esterne, la normalizzazione rispetto ai range di operatività, l’inferenziazione di cross-matching (inferentation-integration-data fusion),  la de-normalizzazione dei risultati target ottenuti (v. Fig.2).Ke3

Fig.2 -Processo tipico di Modellizzazione della Conoscenza (Knowledge in Action)

Dal punto di vista concettuale [7], questo processo di modellazione della conoscenza è raffigurabile anche come una rete neurale artificiale costituita da “nodi” (neuroni) come unità base di elaborazione delle informazioni (Basic-Info) e “collegamenti” (sinapsi) come adduttori di inferenza caratterizzata da un grado di certezza (“peso” dinamico non probabilistico).

Grado di innovazione rispetto allo “Stato dell’Arte”: il grado di innovazione di questa metodologia rispetto allo “Stato dell’Arte”, risiede essenzialmente nei seguenti punti:

  1. rispetto alle Reti Neurali Artificiali (ANN) ogni nodo-neurone i-esimo è in grado di elaborare dinamicamente un numero elevato di input/output (multidimensionalità inferenziale), anziché un solo input/output con un’unica (e spesso statica), funzione di inferenza (attivazione);
  2. l’elaborazione inferenziale all’interno di ciascun nodo ha un adattamento continuo (apprendimento), ma rimane sempre “visibile”: è possibile in ogni momento ispezionare la configurazione di ciascun nodo della rete e dei relativi collegamenti-sinapsi, per cui il processo cognitivo è sempre tracciabile (cosa in genere non possibile nelle ANN);
  3. rispetto ai  procedimenti statistico-probabilistici ed in particolare alle Reti Bayesiane, i Modelli di Conoscenza operano sul grado di certezza dei contenuti informativi, secondo un processo incrementale che ne riduce progressivamente l’errore, ottimizzando realisticamente il valore del processo cognitivo: ciò cambia totalmente il punto di vista rispetto al problema della disponibilità di dati storici e dei campioni statisticamente significativi, essendo in grado di utilizzare tutte le informazioni quantitative, qualitative o anche incerte di cui si è a disposizione, giungendo sempre ad una conclusione, con un livello di qualità ovviamente inversamente proporzionale alla stessa qualità degli input.

Campi di Applicazione: l’utilizzo di questi Modelli di Conoscenza offre diverse possibilità, con riferimento sia ai sistemi on-line/real-time e di Early-Warning (EWS), sia ove vi sia la necessità di supportare la diagnostica e la presa di decisione, particolarmente in situazioni caratterizzate da interdisciplinarietà, eterogeneità quantitativa e qualitativa dei dati, come ad es., nei processi ambientali, nella gestione dei processi industriali  e addirittura, nella valutazione di beni intangibili come ad es. il valore della conoscenza stessa.

Lo spettro di azione dello sviluppo dei modelli di conoscenza è comunque molto ampio: a partire dai casi  più semplici (2D) nei quali i modelli di riferimento (in questo caso “Curve di Conoscenza”) sono già noti ed esplici,  ovvero i modelli sono  impliciti e derivanti dall’elaborazione dati storici e dall’esperienza, fino a casi più complessi nei quali si hanno moltissime informazioni quanti-qualitativamente eterogenee derivanti da differenti sorgenti di dati (v. Big-Data), dove è necessario lo sviluppo di modelli di conoscenza del tipo Rete Neurali a Neuroni Esperti (v. Fig.2  XBASE tool, ANOVA).

Ke4

Fig.3 -Processo tipico di Modellizzazione della Conoscenza (ANOVA XBASE tool – Fig. da ENEA/BATTLE)

Le esperienze applicative dei modelli di conoscenza sviluppate dallo scrivente dal 1993 ad oggi, riguardano soprattutto l’ambito dei Sistemi Esperti di Supporto alle Decisioni, dei Sistemi on-line/real-time di Monitoraggio “Consapevole” e dei Sensori Software Intelligenti. In particolare, sono stati realizzati sistemi per:

  • la rilevazione early-warning del rischio/credito;
  • per il recupero di centri storici post-sisma;
  • sistemi di controllo processo in ambito alimentare (mosto/vino, olio d’oliva EV, caseario),
  • il monitoraggio on-line  della qualità delle acque e del loro trattamento depurativo;
  • il controllo early-warning degli Incendi boschivi e della salvaguardia ambientale;
  • il monitoraggio early-warning degli odori molesti da impianti di trattamento rifiuti;
  • il controllo energy saving di processi biologici;
  • la gestione early-warning/predittiva della manutenzione di impianti industriali;
  • diversi studi fattibilità operativa.

Note conclusivesi è presentata una metodologia sperimentata da parte dell’autore oramai nell’arco di un ventennio e che, nata per sviluppare sistemi basati sulla conoscenza (Knowledge Based System) e sistemi esperti di controllo, ha consentito una generalizzazione dell’approccio mentale rivelatasi molto utile nei processi decisionali. L’esperienza applicativa ha infatti mostrato la possibilità di considerare questa metodologia, oltre che uno strumento per rendere più performanti i sistemi informatici e di controllo automatico, anche come una  vera e propria nuova “forma mentis” che consente di gestire la conoscenza in maniera interdisciplinare ed efficiente (Interdisciplinary Thinking)[7].

Conoscere per competere perché il futuro non è il prolungamento del passato…[7]

Bibliografia

  • [1] Kendal, S.L.; Creen, M. (2007), An introduction to knowledge engineering, London: Springer, ISBN  9781846284755, OCLC 70987401
  • [2] Jackson, Peter (1998), Introduction To Expert Systems (3 ed.), Addison Wesley, p. 2, ISBN 978-0-201-87686-4
  • [3] Mohsen Kahani – “Expert System & Knowledge Engineering in Wikipedia” (2012)
  • http://fumblog.um.ac.ir/gallery/435/Expert_System_Knowledge_Engineering_in_Wikipedia.pdf
  • [4] Pejman Makhfi – “Introduction to Knowledge Modeling” (2013) –  http://www.makhfi.com/KCM_intro.htm#What
  • [5] Luca Console “Problem Solving Diagnostico: Evoluzione e Stato dell’Arte” – Dipartimento di Informatica – Università di Torino – AI*IA Notizie – Anno X n°3 Settembre 1997.
  • [6] L. Console, P. Torasso: “Diagnostic Problem Solving: Combining Heuristic, Approximate and Causal Reasoning”, Van Nostrand Reinhold, 1989.
  • [7] Giovanni Mappa “Interdisciplinary Thinking by Knowledge Sysnthesis” – IlMioLibro Editore (2011). http://ilmiolibro.kataweb.it/schedalibro.asp?id=647468
  • [8] N. Brancati, G. Mappa (2009) “Capturing Knowledge in Real-Time ICT Systems to Boost Business Performance” ANOVA – Cognitive and Metacognitive Educational Systems: Papers from the AAAI Fall Symposium (FS-09-02)
  • [9] Henrion, M. (1987). “Uncertainty in Artificial Intelligence: Is probability epistemologically and heuristically adequate?” In Mumpower, J., editor, Expert Judgment and Expert Systems, pages 105–130. Springer-Verlag, Berlin, Heidelberg.
  • [10] G.Mappa ‐ “Distributed Intelligent Information System for Wastewater Management Efficiency Control” INFOWWATER‐ Wastewater Treatment Standards and Technologies to meet the Challenges of 21s t Century 4‐ 7th April 2000 AD – Queen’s Hotel, Leeds, UK ‐ 2000
  • [11] G.Mappa, et Alii ‐ “Sistema di monitoraggio e gestione del trattamento delle acque cromiche” ‐ AI*IA99 – 6° Congresso della Associazione Italiana per l’Intelligenza Artificiale 7 Settembre 1999 ‐ Facoltà di Ingegneria– BOLOGNA ‐ 1999
  • [12] EDILMED ‐ Convegno “Tecnologie Post‐Industriali trasferibili all’Architettura e all’Edilizia” ‐ Mostra d’Oltremare ‐19‐21 Maggio. Presentazione relazione su XBASEtool: “La Tecnologia dei Sistemi Esperti nell’Edilizia: Qualità Edilizia e Manutenzione Intelligente” ‐ G.Mappa‐ Napoli, 1995.
  • [13] G. Mappa, R. Tagliaferri, D. Tortora – “On- line Monitoring based on Neural Fuzzy Techniques applied to existing hardware in Wastewater Treatment Plants” – AMSEISIS’ 97 – INTERNATIONAL SYMPOSIUM on INTELLIGENT SYSTEMS – September 12, 1997.
  • [14] G. Mappa, G. Falivene, M. Meneganti, R. Tagliaferri – “Fuzzy Neural Networks for Function Approximation” – Proceedings of the 6th International Fuzzy Systems Association World Congress IFSA (1997).
  • [15] G. Mappa – “Distributed Intelligent Information System for Wastewater Management Efficiency Control” – Wastewater Treatment Standards and Technologies to meet the Challenges of 21s t Century 4-7th April 2000 AD – Queen’s Hotel, Leeds, UK.
  • [16] G. Mappa, G. Salvi, G. Tagliaferri, R.  (1995) “A Fuzzy Neural Network for the On-Line Detection of B.O.D.” – Wirn Vietri ’95, VII Italian Workshop on Neural Nets ITALY.
  • [17] G. Mappa, A. Sciarretta, S. Moroni e M. Allegretti (1993) “Sistema Esperto per la Gestione degli Impianti di Trattamento delle Acque Urbane” ‐ Congresso Biennale ANDIS’93 ‐ Palermo ‐ 21‐23 Settembre ‐Vol.II. ‐ 1993
  • [18] “The Fractal Nature of Knowledge”  Arnold Kling – Posted on December 4, 2008 by sethearley. http://sethearley.wordpress.com/2008/12/04/the-fractal-nature-of-knowledge/
  • [19] Benoît B. Mandelbrot, Les objets fractals: forme, hasard et dimension, 1986
  • [20] Abraham Harold Maslow, A Theory of Human Motivation, Psychological Review 50(4) (1943):370-96.
  • [21] Carla O’Dell and C. Jackson Grayson, Jr. – “If Only We Knew What We Know,” Free Press, 1998.
  • [22] http://www.conoscenzaefficiente.it/
  • [23] http://waterenergyfood.net/2013/08/08/it-en-algoritmi-sullo-sviluppo-della-interdisciplinarieta-del-buonsenso-e-del-valore/
  • [24] http://waterenergyfood.net/2013/06/10/il-valore-della-conoscenza-nellera-della-net-economy-2-parte/
  • [25] http://waterenergyfood.net/2013/06/18/il-valore-della-conoscenza-nellera-della-net-economy-3-parte/

Company Overview (in English)

 AnovaWeblogo_sfondo_trasparente
Knowledge in Action >

ENG English abstract in progress… 

  • WATERENERGYFOOD.net  K-Commerce ANOVA of Info-Solutions for Business, Water Industry, Energy and Food Sustainability.

Knowledge in Action = +Value Costs      

Knowlegde Modeling (Expert Decision Support Systems EDSS) for interdisciplinary application of Engineering Management and Early-Warning Process Control in the field of Business, Environment and Industry.
Professional services based on Systemic Approach  and Logical-Mathematical Tools as catalyst for a more Cognitive Efficiency in Decisions Making and in Resolution Complexity.
Knowledge in Action > Knowledge Engineering for development of Ideas, Value, Innovation.
 

WBFuzzy control: Produzione Biogas da Biomasse

system WBFuzzy Control:  Modello di Early Warning per il Controllo della Digestione Anaerobica di Biomasse finalizzato alla massimizzazione della Resa Produttiva di Biogas 

_________________________________

WBFuzzy Control è una procedura software per il controllo real-time del processo di digestione anaerobica di biomasse eterogenee, finalizzato alla massima resa produttiva di biogas, nel minor tempo possibile. Elementi di rilievo nella soluzione adottata sono principalmente:

  1. l’utilizzo di strumentazione on-line già disponibile sul mercato (a costi sostenibili), i cui segnali vengono interpretati da un processo inferenziale atto a produrre informazioni tempestive (early warning) circa lo stato di stabilità (VFA, pH, alcalinità, COD) e di performance del processo (portata biogas, %CH4);
  2. la gestione real-time integrata dell’alimentazione del digestore, in termini sia “quantitativi”, che soprattutto “qualitativi” rispetto alle caratteristiche biochimiche delle biomasse (matrici organiche), con riferimento alla produzione potenziale di biogas (BMP Biechemical Methane Potential), nonché al costo unitario di approvvigionamento delle biomasse stesse.
  3. l’utilizzo di logiche di controllo multi-Fuzzy, ovvero basate sulla conoscenza (Sistema Esperto), in grado di interpretare e controllare tempestivamente le derive funzionali, tenendo conto della dinamica lenta (20gg) e latente, tipica dei processi di digestione anaerobica.

________________________

WBFuzzyPEarlyDIG

Software Gestione Anomalie EarlyDIG

L’applicativo software Early Dig analizza il funzionamento di un digestore anaerobico per fanghi di origine mista, civile ed industriale e ne aiuta la gestione mediante:

  • Rilevazione e Diagnostica di instabilità presenti, individuandone le possibili cause;
  • Segnalazione Early-Warning di instabilità, individuandone anche in questo caso le possibili cause;
  • Truobleshooting, fornendo indicazioni sui possibili rimedi, una volta individuate le cause di instabilità.

Il suo scopo è favorire la scelta delle condizioni di alimentazione più opportune, grazie ad un monitoraggio e controllo intelligente sul processo, evitando così i grossi problemi legati allo smaltimento di considerevoli quantità di fango non stabilizzato e ai lunghi tempi di intervento.

Guida Utente software EarlyDIG

____________________________________

Per ulteriori informazioni:

MICROexpert: Modello di Conoscenza per la Diagnosi della Disfunzioni del Fango Attivo nei Processi di Depurazione Biologica

Stumento professionale per prevenire il Problema della Sedimentabilità dei Fanghi

Diagnosi e Gestione delle Disfunzioni del Fango Attivo nei processi di di Depurazione Biologica

MICRO 

MICROexpert è un Modello di Conoscenza (software tool) a supporto della diagnosi e per la ricerca delle soluzioni correttive per le disfunzioni del fango attivo. In particolare, si riferisce alla biomassa sospesa nei tradizionali processi aerobici per la rimozione del Carbonio o nei sistemi con Rimozione dei Nutrienti (N, P), in reattori biologici del tipo CSTR (Continuous Stirred Tank Reactor) o Plug Flow.

I principali obiettivi funzionali di MICROexpert sono:

  • Rilevazione tempestiva di anomalie funzionali o di instabilità in essere;
  • Individuazione delle possibili azioni correttive per prevenire i problemi di sedimentabilità del fango (bulking, foaming, rising, pin point floc, etc.), 
  • Prevenire i problemi sulla qualità dell’effluente.

img232

http://www.ncsafewater.org/Pics/Training/SpringFling/SC2010/SC10Presentations/WW.Monday.PM.0130.Wagoner.pdf

JM MeD

Il Modello MICROexpert si basa su un approccio olistico alla diagnosi attraverso l’integrazione (data-fusion) dei differenti dati e informazioni quali-quantitative disponibili:

  • Analisi Microscopica sulla Microfauna e individuazione dell’Indice Biotico del Fango (SBI), della Struttura Morfologica del Fiocco e Analisi della crescita di Batteri Filamentosi;
  • Tipiche Analisi Fisico-Chimiche di Laboratorio;  
  • Parametri Operativi di Esercizio dell’impianto (OD, T, F/M, ecc.);
  • Ispezioni Visive relativamente alla qualità dell’effluente e sullo stato di efficienza del processo.

Il controllo di processo con il supporto di MICROexpert consente di sfruttare la peculiare dinamica “lenta” di evoluzione biologica dei fanghi attivi e il loro tempo caratteristico di incubazione (giorni prima che gli effetti delle anomalie si evidenzino) per prevenire con una diagnosi tempestiva le possibili disfunzioni

RISING19_1

________________________________________________________

Per info:

DATA Intelligence

DataIntelligenceAnalisi e Modellazione dei Dati per il Controllo di Qualità e di Efficienza

DATI sono entità statiche“fotografie” di fatti che si presentano in forma esplicita; in genere sono espressi in forma alfanumerica, sono prodotti da fonti (database, sensori,…) che ne condizionano poi la loro “qualità”.  Le INFORMAZIONI sono entità dinamiche ed evolutive, caratterizzate da un proprio ciclo di vita, nascono in forma esplicita o latente dai dati, sono correlate ad uno o più processi (mentali, personali, ambientali, produttivi, ecc.) ed esercitano su tali processi una propria influenza (o “peso”).

Servizi di DATA INTELLIGENCE finalizzati alla gestione di Qualità dei DATI e delle INFORMAZIONI  (SISTEMA_XE04-ANOVA):

  • Sistemi di Telemetria Web-Server, installati e configurati presso i clienti;
  • Fornitura via Web di Report di “Analisi/Qualificazione dei Dati”, “Analisi dei Trend” e di “Rilevazione delle Anomalie;
  • Sviluppo di Modelli Funzionali/Econometrici di Ottimizzazione dei costi energetici e di manutenzione;
  • Controllo Processo in Tempo Reale e Rilevazione di Eventi Anomali e di Pre-Allarme EWS-Early-Warning System.

[EN] DEMO youtube: Dairy Trend Analysis

L’acquisizione di dati alfanumerici da sensori, dispositivi elettronici e informatici, è un processo (non gratuito) di fondamentale importanza per ottenere informazioni e per implementare nuova conoscenza. La qualità dei dati influenza l’intero sistema informativo e di comunicazione e può rendere le attuali avveniristiche tecnologie ICT e di condivisione delle informazioni inesorabilmente fallaci, se non addirittura dannose. La scarsa Qualità dei Dati può ostacolare o danneggiare seriamente l’efficienza e l’efficacia di organizzazioni e imprese. La crescente consapevolezza di tali ripercussioni ha condotto a importanti iniziative pubbliche come la promulgazione del “Data Quality Act” negli Stati Uniti e della direttiva 2003/98 del Parlamento Europeo.

(http://www.epa.gov/quality/informationguidelines/documents/EPA_InfoQualityGuidelines.pdf).

Servizi per la qualità e ottimizzazione degli impianti:

si possono distinguere tre livelli operativi:

1. DATA ANALYSIS (DA): Qualificazione Dati/Informazioni – report prestazionali (KPI)

Il servizio (DA) prevede un primo intervento finalizzato alla qualificazione dei dati sulla base della identificabilità e tracciabilità (spazio-temporale) degli stessi della verifica del formato e del grado di accuratezza, nonchè della necessità di una riconciliazione degli errori. Viene effettuata inoltre un’analisi del trend storico e lavalutazione di indicatori di Controllo e di Efficienza Prestazionale KPI.

2. EVENT DETECTION (ED): Controllo Avanzato di Processo – Rilevazione Anomalie & Diagnosi

Il servizio (ED) si basa sulle seguenti attività fondamentali:

  • Analisi Multidimensionale dei dati;
  • Rilevazione e Identificazione di Eventi Anomali (FDD);
  • Estrazione di Conoscenza dai dati (KE).

L’estrazione di “Conoscenza” dai dati e dalle informazioni dello scenario di riferimento (impianto/processo), consente di “mettere in chiaro” i modi ed i comportamenti (regole) del sistema di monitoraggio, ciò consentirà di operare una successiva fase di modellazione finalizzata al controllo ed ottimizzazione di processo

3. DATA MODELLING (DM): Modellazione Funzionale/Econometrica di supporto Decisionale

In sintesi le attività previste per lo sviluppo del servizio prevedono la realizzazione di:

  • Modelli di Controllo Funzionale ed Ottimizzazione di Processo;
  • Modelli di Controllo Predittivo (MPC);
  • Modelli Funzionali/Econometrici a Supporto delle Decisioni di Gestione.

_____________________________________________________________________________________________________