Sviluppare una “Conoscenza Efficiente” con i Modelli di Conoscenza (ITKS)

Modelli di Conoscenza come Catalizzatori di Efficienza Cognitiva e Strumento di Sviluppo di Sistemi Decisionali

_____________________________________________________________________________________________

I Modelli di Conoscenza e il loro utilizzo: per definire in maniera esaustiva il concetto di Modello di Conoscenza (Knowledge Model)  bisognerebbe addentrarsi nei meandri delle Scienze Cognitive; per constatarne invece la loro utilità operativa e applicabilità pratica, l’ambito di riferimento è l’Ingegneria della Conoscenza: su questi argomenti esiste infatti un immenso patrimonio di letteratura tecnico-scientifica, a partire addirittura dagli anni ’50. In termini generali, può essere sufficiente affermare come un Modello di Conoscenza sia un algoritmo di “sintesi logico-matematica” in grado di elaborare (inferenziare) una moltitudine di dati/informazioni acquisiti come input da fonti esterne eterogenee, per restituire come output informazioni decisionali rispetto ad un target  prefissato.

In questo contesto, si intende mettere in evidenza come i modelli di conoscenza siano già a noi familiari da tempo e addirittura insiti nella nostra natura di esseri viventi in grado di osservare quanto ci circonda, interpretare tempestivamente gli eventi, gestire le incertezze e prendere delle decisioni di buon senso. Infatti, tutti noi seguiamo dei modelli di riferimento che possono riguardare l’etica, la famiglia, la politica, ecc., come insieme di regole e valori condivisi e collaudati. Esempi tipici di modelli di conoscenza si ritrovano addirittura negli aforismi o nei proverbi, nati dall’esperienza e dalla saggezza popolare: ci aiutano in qualche modo a riflettere e a metterci in allerta (early warning) di fronte ad eventi di pertinenza.

Peraltro, nell’era in cui viviamo dell’Economia della Conoscenza e della ricerca dello sviluppo sostenibile, ciò si tradurrebbe da un lato, nella necessità di gestire la conoscenza secondo principi “tangibili” di economia, introducendo strumenti di misurazione del valore della conoscenza e dall’altro sviluppando un approccio sistematico e interdisciplinare alla risoluzione dei problemi. Tutto ciò si traduce nella necessità di gestire la conoscenza in maniera efficiente, ovvero in maniera tale da raggiungere gli obiettivi nel minor tempo e con la massima economicità, mentre ora sappiamo farlo già in maniera efficace e stiamo ancora imparando a farlo in maniera economica: Net-Economy, Big-Data, Green Energy, Smart City  sono solo alcuni dei possibili contesti che ci richiamano il concetto di conoscenza efficiente [22][23][24][25]. I Modelli di Conoscenza ci aiutano a questo scopo: sono dei “Knowledge Pattern”, sintesi di regole già note o rese tali da opportuni procedimenti di estrazione di conoscenza (Data Mining /Knowledge Extraction), che forniscono le chiavi di lettura della complessità trasformandola in un sistema di knowledge pattern più semplici e sintetici. In altri termini, i modelli di conoscenza fungono da “scorciatoia” o da catalizzatori  nei processi cognitivi per aumentarne l’efficienza. L’approccio dei Modelli di Conoscenza è stata presentato ufficialmente dall’autore della presente memoria per la prima volta nel 1993 a Palermo, in occasione del Congresso ANDIS, come sviluppo di un Sistema Esperto per la gestione dei processi biologici di depurazione delle acque, dimostrando come fosse possibile prevenire le anomalie di processo, incrociando i dati chimico-fisici di processo con le informazioni quali-quantitative relative al comportamento biologico (non-deterministico) dei microorganismi depurativi.

Un modello di conoscenza non è necessariamente qualcosa di complicato, anzi può essere molto semplice, ad esempio se consideriamo la seguente espressione del Valore di un prodotto/servizio:

 Se un prodotto/servizio fornisce le funzionalità f1+f2+f3, il costo di produzione corrispondente sarà c1+c2+c3 e pertanto:

  • se si sbaglia a fornire una o più funzionalità fi perché non corrispondente a quanto richiesto o perché non necessaria, si avrà comunque un costo corrispondente ci e quindi, il Valore Vp sarà inferiore al dovuto: ciò esprime il concetto di Qualità del Prodotto/Servizio;
  • se a parità di fi, riduco i costi ci dislocando l’azienda in paesi dell’estero ove è possibile farlo o acquistando materie prime più economiche il Valore Vp aumenta (virtualmente), ma dal momento che ci (al denominatore) può al limite tendere a zero, dopo di che il prodotto/servizio è perso inevitabilmente: ciò esprime il concetto di una Visione (suicida) di Cash-Flow di breve periodo del Prodotto/Servizio;
  • solo migliorando e incrementando le fi, ovvero investendo in ricerca e innovazione si ha che il Valore si incrementa realmente (al limite all’infinito) ed è in grado di competere sul mercato: ciò esprime il concetto di una Visione (imprenditoriale) di medio-lungo periodo del Prodotto/Servizio;

Come è facile constatare, un semplice rapporto come quello sopraindicato  esprime da solo, un modello di conoscenza che se fosse stato utilizzato dalla politica economica degli ultimi vent’anni, l’Italia oggi si troverebbe a competere con un rafforzato  Made in Italy senza la necessità di svendere le aziende italiane e il patrimonio nazionale [7].

Concetti e Principi Base:Modelli di Conoscenza (Knowledge Models) sono quindi algoritmi che utilizzano il “linguaggio universale” della matematica per sviluppare in maniera quali-quantitativa sintesi di regole, di concetti e di scenari. Entrando più nel merito dell’argomento, è possibile enucleare alcuni concetti sui quali si basa applicazione della metodologia. Risulta necessario infatti definire alcuni punti chiave:

a) Catena della Conoscenza: si tratta del primo principio sul quale si basa la struttura dei modelli di conoscenza, ovvero quello relativo alla Knowledge Chain DIKW (Data/Info/Knowledge/Wisdom), nella quale si distinguono i dati dalle informazioni e queste ultime dalla conoscenza, fino ad arrivare al concetto di saggezza. I dati sono definibili come entità statiche, “fotografie” di fatti e sono quindi espliciti, in genere sono espressi in forma alfanumerica, prodotti da fonti (database, sensori,…) che ne condizionano poi la loro “qualità”.  Le informazioni sono entità dinamiche ed evolutive, caratterizzate da un proprio ciclo di vita, nascono in forma esplicita o latente, sono correlate ad uno o più processi (mentali, personali, ambientali, produttivi, ecc.) ed esercitano su tali processi una propria influenza (o “peso”).  Ad esempio: misurando la temperatura, la pressione atmosferica e l’umidità relativa esterna (dati), si ottiene un’informazione che può essere correlata all’abbigliamento da indossare (processo), condizionata dal “peso” che la stessa informazione ha su una determinata persona piuttosto che su un’altra e dura lo spazio temporale (ciclo di vita) limitato alla rispettive necessità di uscire da casa.

ke2.jpg (1040×296)

Fig.1 – La Catena della Conoscenza DIKW

La catena della conoscenza  DIKW non è solo un legame funzionale, ma esprime anche una azione: “ La conoscenza è informazione in azione“[21]. Con riferimento al DIKW e alle precedenti considerazioni, si potrebbe quindi definire la conoscenza come la facoltà umana risultante dall’interpretazione delle informazioni finalizzata all’azione (Knowledge in Action), ovvero il risultato di un processo di inferenza e di sintesi (ragionamento), a partire da dati verso la saggezza (come ulteriore livello di astrazione dalla conoscenza acquisita).

b)  Indipendenza Strutturale della Conoscenza dal contesto di riferimento: il principio base più innovativo è senza dubbio quello che esprime l’indipendenza della conoscenza dalla struttura lessicale e dal particolare glossario dei termini utilizzato: la struttura della conoscenza non è legata al peculiare ambito applicativo, ovvero: i processi di ragionamento fautori di conoscenza non sonofigli unici di madre vedova”, ma seguono dinamiche trasversali e interdisciplinari che sono ripetitive secondo classi tipologiche che fanno parte di un sistema inerziale nel quale valgono universalmente i principi base della Natura e dell’uomo (v. Piramide dei Bisogni Primari di A.Maslow [20]), a prescindere dagli scenari tecnologici, politici e di mercato del momento. Un esempio per tutti di indipendenza strutturale della conoscenza: l’Ingegneria Biomedica è nata quando finalmente discipline diverse dal punto di vista lessicale e dei contenuti, come la medicina, la fisica, l’ingegneria, la biologia, ecc., si sono incontrate “interdisciplinarmente” nel suddetto sistema di riferimento inerziale, al fine di soddisfare un bene primario come quello della salute.  L’esistenza di una struttura comune della conoscenza consente un’interazione più facile con nuove aree di conoscenza e favorisce lo sviluppo dell’approccio di ragionamento interdisciplinare o “Interdisciplinary Thinking” [7], in quanto anche trovandosi in un contesto nuovo di conoscenza, è possibile riconoscere la struttura (comune) di ragionamento di riferimento e adattarsi velocemente allo specifico lessico e al glossario dei termini utilizzato e infine, essere in brevissimo tempo pro-attivi fornendo il proprio contributo cognitivo.

c)  Propagazione del Grado di Certezza (vs Probabilità): altro principio fondamentale e distintivo dei modelli di conoscenza rispetto ad esempio, all’approccio statistico e probabilistico utilizzato normalmente nello sviluppo di strumenti inferenziali complessi come le ”Reti Bayesiane”, è che nella realtà  industriale (e non solo) è poco frequente disporre di dati sufficientemente numerosi ed affidabili, nonché rappresentativi di un prefissato fenomeno in esame. Spesso viene confusa ad es. l’esistenza di un fenomeno con la frequenza con cui esso appare, fino a commettere l’errore di negarne l’esistenza soltanto perché “poco probabile”: è superfluo sottolineare come le catastrofi che puntualmente si verificano (in Italia e nel mondo) in occasione di ogni evento naturale “anomalo”, siano anche frutto di valutazioni a bassa probabilità… I modelli di conoscenza operano sulla propagazione della certezza, la quale si basa sul seguente concetto: se due o più informazioni input hanno un contenuto informativo inferenziale, eventualmente anche parziale o incerto a favore di una certa conclusione output, quest’ultima, frutto dell’intersezione ”insiemistica “ delle prime due, acquisirà un grado di certezza maggiore di quello contenuto in ciascuna delle informazioni di origine.

d) Computazione Non-Deterministica: i Modelli Matematici possono essere considerati come un particolare sottoinsieme dei Modelli di Conoscenza, ma mentre nei primi si rappresenta la realtà dei fenomeni secondo procedimenti  deterministici e subordinata in genere a delle ipotesi iniziali semplificative, nei modelli di conoscenza la realtà è rappresentata anche nella propria natura non-deterministica, attraverso un approccio sistemico e procedimenti che tengono conto della “naturale” incertezza nei dati e nelle informazioni, rispetto alla minimizzazione degli errori e alla ricerca di soluzioni di “buon senso” (common sense).  Poniamoci infatti, la seguente domanda: nel ragionare e prendere ad es. una decisione, il nostro cervello risolve un sistema di equazioni o risolve per caso un’espressione algebrica? Certo che no. Allora forse c’è un “gap” tra quello che ci hanno insegnato a scuola nell’ambito delle computazione di dati (v. Matematica) e il modo “naturale” di computare informazioni proprie del nostro cervello e poi trasferito alle macchine (v. Intelligenza Artificiale). La computazione non deterministica ci consente di fare operazioni con le informazioni quali-quantitative anziché con i dati, ovvero  con il contenuto informativo che i dati possono o meno esprimere. Un dato può essere considerato come un “insieme” che ha un contenuto informativo percentualmente differente a seconda del contesto e del target a cui è destinato. Ritornando all’esempio precedente sulle condizioni atmosferiche, un valore di temperatura dell’aria esterna di 15 °C rispetto alla scelta di vestirsi in maniera adeguata per uscire di casa fornisce una indicazione decisionale solo parziale (% certezza), se non è sovrapposta alle altre informazioni come ad es. la pressione atmosferica e l’umidità relativa. L’insieme risultante dall’intersezione dei tre insiemi di partenza ottenibile rispetto ad un target di “tempo di pioggia” o di “tempo soleggiato”, fornisce un valore % risultante di certezza più elevato rispetto a quello che ciascun dato di partenza può esprimere singolarmente: se consideriamo che la temperatura di 15°C rispetto al target “meteo-pioggia”, contribuisce per il 30%, mentre la pressione atmosferica per il 25% e l’umidità relativa per il 35%, si avrebbe che la decisione di vestirsi in un certo modo piuttosto che in un altro avrebbe un grado di certezza complessivo del 65,875% (somma insiemistica), che è superiore al 50% di soglia, anche se con ancora un 34,125% di % incertezza che potrebbe essere soddisfatto da un’altra “intersezione insiemistica” fornito da un ulteriore dato (ad es. dal valore della velocità del vento). Alle stesse conclusioni si potrebbe arrivare con dati differenti (v. es. millimetri di pioggia), sia in termini di contenuto informativo che  numerici.

e) Modellazione Reticolare della Conoscenza: dal punto di vista logico, ogni modello di conoscenza è rappresentabile da una “cella informativa base” dotata di “n” dati/info in ingresso (input) e “m” meta-informazioni in output: all’interno della cella è possibile avere differenti relazioni di inferenza input/output: dalla semplice inferenza XY (curva di conoscenza n=1, m=1), fino a intere matrici “n*m” inferenziali. Gli “m” output di una cella possono a loro volta diventare in parte o in toto, input per un’altra cella e così via fino a realizzare una rete di celle in grado di elaborare un numero teoricamente infinito di informazioni.

Un processo tipico di “modellazione” della conoscenza, soprattutto nella realizzazione di sistemi on-line di controllo, segue alcuni passi fondamentali come la formalizzazione e validazione dei dati acquisiti da sorgenti eterogenee esterne, la normalizzazione rispetto ai range di operatività, l’inferenziazione di cross-matching (inferentation-integration-data fusion),  la de-normalizzazione dei risultati target ottenuti (v. Fig.2).

Fig.2 -Processo tipico di Modellizzazione della Conoscenza (Knowledge in Action)

Dal punto di vista concettuale [7], questo processo di modellazione della conoscenza è raffigurabile anche come una rete neurale artificiale costituita da “nodi” (neuroni) come unità base di elaborazione delle informazioni (Basic-Info) e “collegamenti” (sinapsi) come adduttori di inferenza caratterizzata da un grado di certezza (“peso” dinamico non probabilistico).

Grado di innovazione rispetto allo “Stato dell’Arte”: il grado di innovazione di questa metodologia rispetto allo “Stato dell’Arte”, risiede essenzialmente nei seguenti punti:

  1. rispetto alle Reti Neurali Artificiali (ANN) ogni nodo-neurone i-esimo è in grado di elaborare dinamicamente un numero elevato di input/output (multidimensionalità inferenziale), anziché un solo input/output con un’unica (e spesso statica), funzione di inferenza (attivazione);
  2. l’elaborazione inferenziale all’interno di ciascun nodo ha un adattamento continuo (apprendimento), ma rimane sempre “visibile”: è possibile in ogni momento ispezionare la configurazione di ciascun nodo della rete e dei relativi collegamenti-sinapsi, per cui il processo cognitivo è sempre tracciabile (cosa in genere non possibile nelle ANN);
  3. rispetto ai  procedimenti statistico-probabilistici ed in particolare alle Reti Bayesiane, i Modelli di Conoscenza operano sul grado di certezza dei contenuti informativi, secondo un processo incrementale che ne riduce progressivamente l’errore, ottimizzando realisticamente il valore del processo cognitivo: ciò cambia totalmente il punto di vista rispetto al problema della disponibilità di dati storici e dei campioni statisticamente significativi, essendo in grado di utilizzare tutte le informazioni quantitative, qualitative o anche incerte di cui si è a disposizione, giungendo sempre ad una conclusione, con un livello di qualità ovviamente inversamente proporzionale alla stessa qualità degli input.

Campi di Applicazione: l’utilizzo di questi Modelli di Conoscenza offre diverse possibilità, con riferimento sia ai sistemi on-line/real-time e di Early-Warning (EWS), sia ove vi sia la necessità di supportare la diagnostica e la presa di decisione, particolarmente in situazioni caratterizzate da interdisciplinarietà, eterogeneità quantitativa e qualitativa dei dati, come ad es., nei processi ambientali, nella gestione dei processi industriali  e addirittura, nella valutazione di beni intangibili come ad es. il valore della conoscenza stessa.

Lo spettro di azione dello sviluppo dei modelli di conoscenza è comunque molto ampio: a partire dai casi  più semplici (2D) nei quali i modelli di riferimento (in questo caso “Curve di Conoscenza”) sono già noti ed esplici,  ovvero i modelli sono  impliciti e derivanti dall’elaborazione dati storici e dall’esperienza, fino a casi più complessi nei quali si hanno moltissime informazioni quanti-qualitativamente eterogenee derivanti da differenti sorgenti di dati (v. Big-Data), dove è necessario lo sviluppo di modelli di conoscenza del tipo Rete Neurali a Neuroni Esperti (v. Fig.2  XBASE tool, ANOVA).

Fig.3 -Processo tipico di Modellizzazione della Conoscenza (ANOVA XBASE tool – Fig. da ENEA/BATTLE)

Le esperienze applicative dei modelli di conoscenza sviluppate dallo scrivente dal 1993 ad oggi, riguardano soprattutto l’ambito dei Sistemi Esperti di Supporto alle Decisioni, dei Sistemi on-line/real-time di Monitoraggio “Consapevole” e dei Sensori Software Intelligenti. In particolare, sono stati realizzati sistemi per:

  • la rilevazione early-warning del rischio/credito;
  • per il recupero di centri storici post-sisma;
  • sistemi di controllo processo in ambito alimentare (mosto/vino, olio d’oliva EV, caseario),
  • il monitoraggio on-line  della qualità delle acque e del loro trattamento depurativo;
  • il controllo early-warning degli Incendi boschivi e della salvaguardia ambientale;
  • il monitoraggio early-warning degli odori molesti da impianti di trattamento rifiuti;
  • il controllo energy saving di processi biologici;
  • la gestione early-warning/predittiva della manutenzione di impianti industriali;
  • diversi studi fattibilità operativa.

Note conclusivesi è presentata una metodologia sperimentata da parte dell’autore oramai nell’arco di un ventennio e che, nata per sviluppare sistemi basati sulla conoscenza (Knowledge Based System) e sistemi esperti di controllo, ha consentito una generalizzazione dell’approccio mentale rivelatasi molto utile nei processi decisionali. L’esperienza applicativa ha infatti mostrato la possibilità di considerare questa metodologia, oltre che uno strumento per rendere più performanti i sistemi informatici e di controllo automatico, anche come una  vera e propria nuova “forma mentis” che consente di gestire la conoscenza in maniera interdisciplinare ed efficiente (Interdisciplinary Thinking)[7].

Conoscere per competere perché il futuro non è il prolungamento del passato…[7]

Bibliografia

  • [1] Kendal, S.L.; Creen, M. (2007), An introduction to knowledge engineering, London: Springer, ISBN  9781846284755, OCLC 70987401
  • [2] Jackson, Peter (1998), Introduction To Expert Systems (3 ed.), Addison Wesley, p. 2, ISBN 978-0-201-87686-4
  • [3] Mohsen Kahani – “Expert System & Knowledge Engineering in Wikipedia” (2012)
  • http://fumblog.um.ac.ir/gallery/435/Expert_System_Knowledge_Engineering_in_Wikipedia.pdf
  • [4] Pejman Makhfi – “Introduction to Knowledge Modeling” (2013) –  http://www.makhfi.com/KCM_intro.htm#What
  • [5] Luca Console “Problem Solving Diagnostico: Evoluzione e Stato dell’Arte” – Dipartimento di Informatica – Università di Torino – AI*IA Notizie – Anno X n°3 Settembre 1997.
  • [6] L. Console, P. Torasso: “Diagnostic Problem Solving: Combining Heuristic, Approximate and Causal Reasoning”, Van Nostrand Reinhold, 1989.
  • [7] Giovanni Mappa “Interdisciplinary Thinking by Knowledge Sysnthesis” – IlMioLibro Editore (2011). http://ilmiolibro.kataweb.it/schedalibro.asp?id=647468
  • [8] N. Brancati, G. Mappa (2009) “Capturing Knowledge in Real-Time ICT Systems to Boost Business Performance” ANOVA – Cognitive and Metacognitive Educational Systems: Papers from the AAAI Fall Symposium (FS-09-02)
  • [9] Henrion, M. (1987). “Uncertainty in Artificial Intelligence: Is probability epistemologically and heuristically adequate?” In Mumpower, J., editor, Expert Judgment and Expert Systems, pages 105–130. Springer-Verlag, Berlin, Heidelberg.
  • [10] G.Mappa ‐ “Distributed Intelligent Information System for Wastewater Management Efficiency Control” INFOWWATER‐ Wastewater Treatment Standards and Technologies to meet the Challenges of 21s t Century 4‐ 7th April 2000 AD – Queen’s Hotel, Leeds, UK ‐ 2000
  • [11] G.Mappa, et Alii ‐ “Sistema di monitoraggio e gestione del trattamento delle acque cromiche” ‐ AI*IA99 – 6° Congresso della Associazione Italiana per l’Intelligenza Artificiale 7 Settembre 1999 ‐ Facoltà di Ingegneria– BOLOGNA ‐ 1999
  • [12] EDILMED ‐ Convegno “Tecnologie Post‐Industriali trasferibili all’Architettura e all’Edilizia” ‐ Mostra d’Oltremare ‐19‐21 Maggio. Presentazione relazione su XBASEtool: “La Tecnologia dei Sistemi Esperti nell’Edilizia: Qualità Edilizia e Manutenzione Intelligente” ‐ G.Mappa‐ Napoli, 1995.
  • [13] G. Mappa, R. Tagliaferri, D. Tortora – “On- line Monitoring based on Neural Fuzzy Techniques applied to existing hardware in Wastewater Treatment Plants” – AMSEISIS’ 97 – INTERNATIONAL SYMPOSIUM on INTELLIGENT SYSTEMS – September 12, 1997.
  • [14] G. Mappa, G. Falivene, M. Meneganti, R. Tagliaferri – “Fuzzy Neural Networks for Function Approximation” – Proceedings of the 6th International Fuzzy Systems Association World Congress IFSA (1997).
  • [15] G. Mappa – “Distributed Intelligent Information System for Wastewater Management Efficiency Control” – Wastewater Treatment Standards and Technologies to meet the Challenges of 21s t Century 4-7th April 2000 AD – Queen’s Hotel, Leeds, UK.
  • [16] G. Mappa, G. Salvi, G. Tagliaferri, R.  (1995) “A Fuzzy Neural Network for the On-Line Detection of B.O.D.” – Wirn Vietri ’95, VII Italian Workshop on Neural Nets ITALY.
  • [17] G. Mappa, A. Sciarretta, S. Moroni e M. Allegretti (1993) “Sistema Esperto per la Gestione degli Impianti di Trattamento delle Acque Urbane” ‐ Congresso Biennale ANDIS’93 ‐ Palermo ‐ 21‐23 Settembre ‐Vol.II. ‐ 1993
  • [18] “The Fractal Nature of Knowledge”  Arnold Kling – Posted on December 4, 2008 by sethearley. http://sethearley.wordpress.com/2008/12/04/the-fractal-nature-of-knowledge/
  • [19] Benoît B. Mandelbrot, Les objets fractals: forme, hasard et dimension, 1986
  • [20] Abraham Harold Maslow, A Theory of Human Motivation, Psychological Review 50(4) (1943):370-96.
  • [21] Carla O’Dell and C. Jackson Grayson, Jr. – “If Only We Knew What We Know,” Free Press, 1998.
  • [22] http://www.conoscenzaefficiente.it/
  • [23] http://waterenergyfood.net/2013/08/08/it-en-algoritmi-sullo-sviluppo-della-interdisciplinarieta-del-buonsenso-e-del-valore/
  • [24] http://waterenergyfood.net/2013/06/10/il-valore-della-conoscenza-nellera-della-net-economy-2-parte/
  • [25] http://waterenergyfood.net/2013/06/18/il-valore-della-conoscenza-nellera-della-net-economy-3-parte/

Company Overview (in English)

 AnovaWeblogo_sfondo_trasparente
Knowledge in Action >

ENG English abstract in progress… 

  • WATERENERGYFOOD.net  K-Commerce ANOVA of Info-Solutions for Business, Water Industry, Energy and Food Sustainability.

Knowledge in Action = +Value Costs      

Knowlegde Modeling (Expert Decision Support Systems EDSS) for interdisciplinary application of Engineering Management and Early-Warning Process Control in the field of Business, Environment and Industry.
Professional services based on Systemic Approach  and Logical-Mathematical Tools as catalyst for a more Cognitive Efficiency in Decisions Making and in Resolution Complexity.
Knowledge in Action > Knowledge Engineering for development of Ideas, Value, Innovation.
 

Prodotti software ANOVA per il Controllo di Processo: Qualità Acque – Produzione Biogas

Prodotti Software SWT

ID Q.tà DESCRIZIONE della Fornitura Prodotti/Servizi ANOVA um Prezzo € (IVA escl.)
WP

WQI_online  

– per Acque Primarie e ReflueSistema On-Line di Monitoraggio e Controllo della Qualità delle AcqueIl Sistema si basa sull’utilizzo integrato di strumentazione analitica on-line predisposta su uno o più Nodi Intelligenti e su modelli Cross-Matching di interpretazione proattiva (EarlyWarning) dei dati rilevati.Il Sistema utilizza Logiche di Controllo Fuzzy per il controllo e regolazione della qualità dell’acqua, nonché della gestione “Energy Saving” delle apparecchiature energivore (motori elettrici, pompe, ecc.) dell’impiantistica di supporto.Le funzionalità fondamentali del Sistema sono le seguenti:

  • Valutazione On-Line Indice di Qualità (WQI)
  • Riconoscimento Eventi Anomali (Event Detection/EarlyWarning)
  • Filtraggio “Falsi Allarmi”
  • Analisi di Compatibilità della Qualità dell’Acqua
  • Gestione Energy Saving dell’Impiantistica di supporto

http://waterenergyfood.net/2013/04/11/water-quality-earlywarning-2wqi-on-line-index/

(richiedere offerta)
TM

Data Intelligence Service (DIS)

Servizi di Telemetria – Qualità dei Dati – Estrazione di Inormazioni – per Acque Primarie e Reflue

Il servizio (DIS) è finalizzato alla acquisizione e qualificazione dei dati sulla base della identificabilità e tracciabilità (spazio-temporale) degli stessi, della verifica del formato e del grado di accuratezza, nonché della riconciliazione degli errori. Viene effettuata inoltre un’analisi del trend storico e lavalutazione di indicatori di Controllo e di Efficienza Prestazionale KPI.EVENT DETECTION: Controllo Avanzato di Processo – Rilevazione Anomalie & Diagnosi.  Il servizio si basa sulle seguenti attività fondamentali:

  • Analisi Multidimensionale dei dati;
  • Rilevazione e Identificazione di Eventi Anomali (FDD);
  • Estrazione di Conoscenza dai dati (KE).

L’estrazione di “Conoscenza” dai dati e dalle informazioni dello scenario di riferimento (impianto/processo), consente di “mettere in chiaro” i modi ed i comportamenti (regole) del sistema di monitoraggio, ciò consentirà di operare una successiva fase di modellazione finalizzata al controllo ed ottimizzazione di processoDATA MODELLING: Modellazione Funzionale/Econometrica di supporto Decisionale. In sintesi le attività previste per lo sviluppo del servizio prevedono la realizzazione di:

  • Modelli di Controllo Funzionale ed Ottimizzazione di Processo;
  • Modelli di Controllo Predittivo (MPC);
  • Modelli Funzionali/Econometrici a Supporto delle Decisioni di Gestione.

http://waterenergyfood.net/2013/07/02/servizi-di-telemetria-qualita-dei-dati-data-intelligence-knowledge-xeo4-anova/

(richiedere offerta)
WO

WDOxy Fuzzy-control 

per Acque Reflue – Sistema di Controllo per il Risparmio Energetico e il Miglioramento Depurativo dei piccoli Impianti di Depurazione Biologica delle Acque Reflue con Rimozione dei Nutrienti (C,N): WDOxy/Fuzzy-control.Innovativo sistema di gestione e controllo dell’ossigeno disciolto in vasca d’aerazione e  dell’azoto ammoniacale nell’effluente, basato su un Modello di Controllo Processo in logica Fuzzy.WDOxy Fuzzy Control si basa sull’utilizzo di algoritmi bio-processistici e su misure analitiche on-line (low-cost), con il controllo in “output” del sistema di insufflazione aria. Procedura di calcolo della concentrazione di ossigeno disciolto (minima) necessaria per le effettive esigenze real-time del metabolismo batterico della rimozione del carbonio e dell’azoto.http://waterenergyfood.net/2013/06/02/wdoxyfuzzy-control-for-improved-nitrogen-removal-and-energy-saving-in-wwtp-with-predenitrification/

(richiedere offerta)
WF

OXY-FENTON control 

– per Acque Reflue Industriali e SpecialiSistema Automatico di Ossidazione Chimica FENTONVerifica della “Compatibilità” dei Reflui Industriali e Speciali e Sistema Automatico di Controllo del Processo di Ossidazione Chimica FENTON basato sul’applicazione di Algoritmi  Fuzzy (Loop) di Dosaggio dell’Ossidante al variare delle caratteristiche dell’influente (COD in ingresso) e dell’ORP.http://waterenergyfood.net/2013/06/18/sistema-automatico-di-controllo-della-compatibilita-dei-reflui-industriali-e-speciali-per-il-trattamento-depurativo-biologico/

(richiedere offerta)
BG

WBFuzzy control 

– Produzione di Biogas da BiomasseSistema di Ottimizzazione Resa produttiva del Biogas da DASistema di Controllo per la ottimizzazione della resa produttiva di biogas, basato sull’utilizzo di algoritmi Fuzzy di Controllo EarlyWarning della Stabilità e dell’Efficienza del processo di Co-Digestione Anaerobica, con regolazione Quali/Quantitativa della miscela di alimentazione disponibile:

  1. Controllo EarlyWarning Multi-Fuzzy (Loop in Cascata) per il bilanciamento delle fasi del processo (rif.acidogenica/ metanogenica) sulla base di misurazioni on-line come: T, pH, ORP, EC, Portate massiche, Livelli, ecc.
  2. Controllo di FeedBack Loop-Control sulla resa Biogas: misura volumetrica della portata biogas, %CH4 (%CO2)
  3. Loop Fuzzy di Regolazione Portata di Alimentazione/Ricircolo, su base idraulica e in base alla “Classe” Qualitativa della Matrice di alimentazione disponibile  (in base al Potenziale Metanigeno, al Costo Unitario dei Componenti di alimentazione, ecc.)

http://waterenergyfood.net/2013/11/13/wbfuzzy-control-sistema-di-ottimizzazione-resa-produttiva-del-biogas-da-co-digestione/

(richiedere offerta)

La società ANOVA (storia)

ANOVA  è una società privata e indipendente, nata nel 1997 da un accordo di “spin-off” con il SESPIM  (Consorzio di Ricerca per le applicazioni dell’Intelligenza Artificiale  – ALENIA/ Italimpianti SpA), già operante nell’ambito dei servizi alle imprese ad alto valore aggiunto, con lo sviluppo di soluzioni, strumenti interdisciplinari e tecnologie innovative nell’ambito delle applicazioni reali dellIngegneria della Conoscenza.

Il nome “ANOVA” dato alla società, deriva storicamente dall’acronimo (ANalysis Of VAriance) e riguarda una tecnica statistica utilizzata tipicamente per analizzare le differenze tra le medie di tre o più gruppi di dati derivanti da processi aziendali o industriali. Il fondatore della società che porta il suddetto nome, studiando e utilizzando questa tecnica (nel 1986 in Italia era poco conosciuta) restò particolarmente colpito dal fatto che si dimostrava uno strumento “decisionale” molto importante: ha rappresentato poi l’inizio dei successivi studi e utilizzazioni dell’Ingegneria della Conoscenza e successivamente, sulle applicazioni reali dell’Intelligenza Artificiale.

1997 – Lo Start-Up: gli Skill e l’Organizzazione

Viene presentato quello che era lo scenario di ANOVA nel 1997, a partire dalla conclusione della missione del SESPIM (Consorzio Meridionale di Ricerca per le Applicazioni dei Sistemi Esperti alle Industrie e ai Servizi), da cui ANOVA nasce come “spin-off”.

Il Consorzio aveva come maggioritarie ALENIA/Finmeccanica e ITALIMPIANTI SpA (IRI) altre ad altre imprese (tra cui OLIVETTI) ed era stato finanziato dalla L.64/86 MISM (Ministero per gli Interventi Straordinari per il Mezzogiorno).  Vengono illustrate le difficoltà operative nel sviluppare una idea di centro privato di ricerca industriale, lo “start-up”, lo “skill” delle risorse necessarie, non solo per portare aventi attività di ricerca e innovazione, ma  anche fare tutto ciò con poche risorse (team interdisciplinare) con competenze interagenti (MT/MS Multi-Tasking/Multi-Sharing).

2004 – “Core Business”: Servizi “Knowledge Intensive”

La definizione del “Core” delle attività di ANOVA è avvenuta nel 2004, dopo il periodo economico buio incominciato già nel 2001 (bolla informatica, ingresso dell’euro, 11 settembre, ecc.), con la certificazione Qualità ISO9001 del Laboratorio e il successivo accesso all’Albo dei Laboratori di Ricerca del MIUR (Ministero della Ricerca Scientifica).

ANOVA ha continuato a sviluppare prodotti e servizi ICT ad elevato tasso di conoscenza ed esperienza (Knowledge Intensive), ma con la possibilità istruire progetti finanziati, con soluzioni “chiavi in mano” dall’Idea Innovativa iniziale, alla realizzazione e “messa in esercizio”.  

Il Vantaggio Competitivo espresso da ANOVA è legato soprattutto alla conoscenza del “Problema del Cliente” in una ottica allargata di “osservatorio di settore”, nonché al possesso di competenze interdisciplinari in grado di coordinare tutti gli “attori” di un progetto di ricerca e innovazione. Il mercato (habitat) di naturale applicazione di questo tipo di servizi “Knowledge Intensive” è soprattutto quello costituito da Conoscenze implicite e disperse, dove la stessa “estrazione di Conoscenza” dai dati e dalle informazioni disponibili, è di per sé un valore aggiunto spendibile.

Dal 1997 Anova ha sviluppato: oltre 30 progetti di Ricerca Industriale per le PMI, in ambito Nazionale (MIUR, MISE, PON, ecc.) ed Europeo (LIFE, CRAFT, ecc.); oltre 35 Sistemi di Controllo Processo (SCADA, DSS, Sistemi Esperti), nei settori della gestione delle acque, dell’ambiente e dell’energia; decine di Progetti di Ingegneria in ambito idraulico, ambientale e riguardanti l’ efficienza energetica.

logo_sfondo_trasparente_effetto_scolpito

Dal 19 aprile 2004 (D.M.15-4-2004 G.U. n°104 del 5-5-2004), ANOVA è iscritta nell’ALBO dei LABORATORI di RICERCA del MIUR (Ministero dell’Istruzione, dell’Università e della Ricerca), di cui all’Art.14 del D.M. n.593/00.

Gli “Output” ANOVA

Gli “Output” di ANOVA sono numerosi, in termini di progetti di ricerca industriale (finanziata e non) per conto di clienti appartenenti a differenti aree di mercato, alla realizzazione di brevetti (es. misura del Colore On-Line) e di nuovi algoritmi per la realizzazione di sistemi  informatici ICT a supporto del controllo di processo, della manutenzione delle apparecchiature, del monitoraggio intelligente e nelle reti di sensori.

I settori di applicazione esplorati dagli output di ANOVA svariati: dai processi manifatturieri (auto motive, aeronautica, tessile), alla logistica dei trasporti, all’industria agroalimentare (olio d’oliva, vino, latte),  senza contare una specialistica competenza nell’ambito del trattamento delle acque e del monitoraggio ambientale in genere (odori, inquinamento acqua/aria, rifiuti), nonché dell’utilizzo delle energie rinnovabili (solare, biomasse).

AnovaWeb


UNI EN ISO 9001 : 2008 Research Development Innovation – Certif. N.9150.ANVA

Dati formali dell’azienda:

Denominazione della Società ANOVA s.a.s
Anno di Costituzione Atto Costitutivo N.Rep.: 99.176 del 03/12/1998
Sede Legale e Operativa Centro Direzionale, isola G1/scala C – 21° piano – 80143 NAPOLI- Tel.:+39.348.3366137  e-mail g.mappa@anovastudi.com URL: http://www.anovastudi.com
Partita IVA 07385130633
Capitale sociale € 25.823
N° iscrizione CCIAA

N° iscrizione REA

NA-1999-586 
611016   N° 197297  – Ramo “Ricerca”  – Terziario

Settore di Attività ATECO/ATECORI

  • 72.19.09 [73.1]- Ricerca e Sviluppo Sperimentale nel campo delle Scienze Naturali e dell’Ingegneria.
  • 62.01 [72.22]- Realizzazione di Software personalizzato. Consulenza Software
  • 85.59.20 [80.42.2] – Corsi di  Formazione Professionale
ANOVA s.a.s. –  Centro Direzionale, isola G1/c – 80143 NAPOLI (NA) – Italy – email: info@anovastudi.com

La Storia di ANOVA      Conoscere per competere

2007 – La Partnership Olandese: SENSOR INTELLIGENCE  B.V

Singolare è anche l’incontro con strutture di ricerca olandesi (TNO, 2003 – D3 Advies, 2007), che ha portato alla costituzione congiunta di nuova realtà imprenditoriale, la “Sensor Intelligence” B.V. a Leewarden (NL), nata quasi integralmente da outputs di ANOVA.

Interessanti sono state le esperienze di lavoro con la “Friesland Food” olandese, dove si è potuto sperimentare con successo, le tecnologie di controllo di processo più sofisticate, ai fini della ricerca in tempo reale delle “anomalie nascoste” nei processi produttivi del latte in polvere.

Risparmio Energetico: Liquicontrol per il trattamento delle acque reflue

Pubblicato il 30 ottobre 2013: http://automazione-plus.it/liquicontrol-per-il-trattamento-delle-acque-reflue/
.
Liquicontrol_CDC80

Il consumo di energia nella fase biologica è uno dei principali fattori di costo negli impianti di trattamento delle acque reflue. Ciò è dovuto principalmente alle soffianti d’ossigeno nel processo di aerazione. L’ottimizzazione di questo processo offre un enorme potenziale di risparmio energetico e di costi. Le soffianti di ossigeno sono spesso gestite in base al tempo o utilizzando solo una semplice forma di controllo dell’ossigeno. Pertanto spesso funzionano più a lungo del necessario con conseguente spreco di energia. Endress+Hauser offre una soluzione per ilcontrollo dinamico delle soffianti, in funzione del carico effettivo: Liquicontrol. Esso ottimizza i tempi operativi per i processi di nitrificazione e denitrificazione, riducendo al minimo il consumo energetico e i costi operativi. Inoltre, Liquicontrol assicura valori di uscita precisi e affidabili in ogni momento. L’ottimizzazione dei tempi di aerazione nella fase biologica consente di risparmiare energia e ridurre i costi.

Come sistema modulare e scalabile, Liquicontrol può essere utilizzato anche per l’eliminazione del fosfato. Le pompe dosatrici dei precipitanti vengono controllate in base al carico effettivo, offrendo significativi risparmi del costo dei precipitanti. Basata su un PLC e interfacce di segnale individuali, la nostra soluzione è disponibile in versione stand-alone o come una configurazione master-slave per impianti più grandi con più bacini di aerazione. Questo permette una semplice integrazione nel sistema di controllo di processo esistente e l’installazione di nuova strumentazione. Inoltre, la possibilità di accesso remoto consente un monitoraggio di processo flessibile ed efficace. Il personale dell’impianto ha il pieno controllo del processo di aerazione in ogni momento.

Grazie alla misura continua e alla validazione del segnale, Liquicontrol garantisce un funzionamento stabile e uno scarico dell’impianto entro i termini di legge. Nel caso di un valore misurato anomalo o di un funzionamento poco sicuro di una soffiante, il sistema commuta il loop di controllo ad una condizione di fail-safe, impostabile dal gestore, e invia messaggi di errore o di avvertimento. Le impostazioni di funzionamento dell’impianto originali possono essere ripristinati in qualsiasi momento tramite il selettore. Con Liquicontrol, il personale della centrale può passare tra la modalità automatica (intermittente o continua) e la modalità manuale in qualsiasi momento, garantendo massimo controllo in ogni momento.

Approccio Statistico “ANOVA” vs “Modelli di Conoscenza” nell’Analisi di Processi Biologici

A-KM METODOLOGIA DI APPROCCIO: Modelli di Conoscenza

La scelta della metodologia dei “Modelli di Conoscenza”, nasce dall’esigenza di controllare e ottimizzare la funzionalità di un processo complesso che, specialmente se presenta una sezione  “biologica” e input (carichi) variabili quali-quantitativamente nel tempo, non può essere assimilato ad un processo ciclico ripetitivo.

Pertanto, si sceglie in questi casi di non seguire un tradizionale approccio statistico (v. ANOVA– ANalysis Of VAriance), in quanto basato essenzialmente su dati storici e in genere molto costoso, preferendo un approccio più vicino agli esperti di processo, basato sulla “fusione” interdisciplinare tra dati rilevati e conoscenza degli esperti: i Modelli di Conoscenza.

Principi Base del Metodo basato sui Modelli di Conoscenza

a) Approccio Sistemico: realtà suddivisa in processi unitari (input/output), interagenti tra loro

b) Significatività e Rappresentatività delle Misure: è molto importante assicurarsi che i campioni oggetti di indagine siano realmente rappresentativi della realtà operativa o di classi di esse; pertanto le prove vanno eseguite definendo i parametri di caratterizzazione, come ad es.: Valore X = ¦[Xmin, Xmax, Xmed, X+freq, durata(X+freq)]

c) Modellazione delle Inferenze Input/Output: algoritmi di correlazione sistemica.

CONFRONTO METODOLOGIE PRO CONTRO

Modelli Statistici

 

  • Forniscono una analisi più oggettiva rispetto ai dati acquisiti (storici).

 

  • Metodologia più conosciuta.
  • Elaborano dati storici e quindi sono poco generalizzabili: interpretazione dei dati al passato.
  • Più costosi perché necessitano di numerose prove per realizzare un campione statistico rappresentativo
  • Risolvono gli errori e le discrepanze come Varianza Statistica e sulla base di Test Multifattoriali di Significatività (ANOVA – Analysis of Variance) non sempre generalizzabili.
  • Risultati  in Output in genere non generalizzabili e non migliorabili incrementalmente, se non a costo di ripetere l’intera analisi.
Modelli di Conoscenza
  • Interpretazione dei dati rispetto all’attualità operativa, perché si basano su dati il cui valore è quello derivante dall’esperienza operativa aggiornata come “media ragionata” (valore più frequente e plausibile).
  • Meno costosi perché basati su un numero di prove minimo necessario a definire le classi operative di funzionamento.-   Risolvono gli errori e le discrepanze attraverso la Cross-Correlation delle informazioni assunte e sulla base della propagazione della certezza.
  • Risultati in Output generalizzabili (per definizione) e migliorabili incrementalmente.
  • Forniscono una analisi più influenzabile dalla expertise degli operatori  che detengono la conoscenza.

 

  • Metodologia meno conosciuta.

Referenze sulla Tutela e la Valorizzazione della Proprietà Intellettuale (IP)

 

Anno
Cliente
Attività
 Autori
03-04-2009 ENEA – ANOVA Brevetto ENEA-ANOVA N.681 “ODT-On Line Colour Index Detector”. (Diritto d’Autore). 2009001653

RM2008U000117

Casarci Maurizio – Mappa Giovanni – Traverso Dante Marcello – Ciccarelli Claudio – Catalioti Andrea – De Angelis Doina
05-08-2008 ENEA -ANOVA Brevetto ENEA-ANOVA N.670 “Cella per la Determinazione in Continuo della Quantità di Colore e/o Torbidità”.

RM2008U000117

Casarci Maurizio – Mappa Giovanni – Traverso Dante Marcello – Ciccarelli Claudio
 

05-08-2008

ENEA -ANOVA Brevetto ENEA-ANOVA N.671 – Dispositivo per la Determinazione in Linea della Quantità di Colore e/o Torbidità nell’Ambito del Trattamento e Scarico di Reflui Acquosi Industriali e/o Civili.

 

OCD1    RM2008A000428 

Casarci Maurizio – Mappa Giovanni – Traverso Dante Marcello – Ciccarelli Claudio
2008 ANOVA Copyright Smart PILOT – “Strategic Business Positioning Abacus”– Algorithms and Application Software.

Modello innovative di riferimento che consente di individuare tempestivamente e di tracciare il posizionamento strategico di un’azienda o di una unità di business.

Registrazione per elaboratore.

Mappa Giovanni
2008 ANOVA Copyright SWATER Professional – Modello di Dimensionamento e Verifica di Impianti di Trattamento Acque.Registrazione per elaboratore. Mappa Giovanni 
2004 ANOVA Copyright – XBASE-Tool “eXpertise Based Advisor System for Enterprise” –  Artificial Neural Network based on Expert Neuron-Nodes – FuzzyMQC  Algorithms and Application Software.

Registrazione per elaboratore.

Mappa Giovanni  

 

 

SWater Mix5.0: il “Made in Italy” del Dimensionamento/Verifica/Upgrading/ Simulazione di Impianti di Depurazione Acque Reflue Urbane e Industriali

Prodotti Software SWT

   

Oltre al trattamento biologico secondario (Denitro/ Nitro+Defosfatazione)  per la rimozione del Carbonio e dei nutrienti (N,P), la procedura comprende l’intera Linea Acque, dai Pretrattamenti iniziali, all’Affinamento Terziario (filtrazione, defosfatazione di emergenza), inclusa la Linea Fanghi, con la possibilità di utilizzare la digestione anaerobica, oppure quella  aerobica dei fanghi, fino alla disidratazione dei fanghi.

SWater Mix consente di dimensionare anche il pretrattamento chimico-fisico di eventuali conferimenti di liquami di tipo prettamente industriale (bottini), che poi saranno dosati, previa omogeneizzazione, nel trattamento biologico secondario.

SWater Mix utilizza i Modelli Matematici di riferimento della letteratura scientifica del settore (ASM 1/2/3, IAWPRC),  integrati con l’utilizzo di Indicatori di Performance (KPI), i quali forniscono anche indicazioni sulla Capacità Depurativa Residua per ciascuna sezione di trattamento.

SWater (1999) è stato sviluppato specificamente per verificare la rispondenza funzionale (in progetto & in verifica) degli impianti di trattamento delle acque reflue, soprattutto con riferimento ai parametri di qualità dell’effluente depurato (rispetto ai limiti di legge). SWater consente di calcolare sia valori puntuali dei parametri di progetto/verifica, sia i range ottimali di esercizio (ODmin/ODmax; MLSSmin/MLSSmax, ecc.), nonché di simulare dinamicamente la funzionalità dell’impianto nell’intero campo di variabilità dei parametri del trattamento biologico Denitro/Nitro e di sedimentazione secondaria, ottenendo graficamente e numericamente il punto di funzionamento oltre il quale la qualità dell’effluente è fuori i limite di Legge prefissati.

Non ultimo, in termini di importanza, SWater produce automaticamente le Relazioni Tecniche di Processo (in formato MS-Word), sia sezione per sezione di trattamento, sia omni comprensiva di tutte le fasi di trattamento implementate. Gli algoritmi utilizzati nel software sono esplicitamente riportati TUTTI “ in chiaro” in un Libro e nei manuali in .pdf. SWater è semplice e intuitivo da utilizzare e consente con un semplice click,  di passare da progettazione a verifica, ovvero upgrading.

_________________________________________________________________________________

WaterOnLine    IngInfo   

Riferimenti su SWATER e MICROexpert su uno dei più completi e funzionali testi di Ingegneria Sanitaria Ambientale: “ACQUE REFLUE – Progettazione e Gestione di Impianti per il Trattamento e lo Smaltimento” di Giovanni De Feo, Sabino De Gisi e Maurizio Galasso.  (http://www.darioflaccovio.it/pdfdescr/762-DF0118.pdf) MGalassoMGalasso2 FA 27.09.2000

___________________________________________________________________________________

microMICROexpert – SchedaTecnica  Diagnosi e Gestione delle Disfunzioni del Fango Attivo nei processi di di Depurazione Biologica

Verifica Qualitativa della Funzionalità degli Impianti di Depurazione 

Procedure di Controllo “On-Site” dei Processi Depurativi Chimico-Fisici-Biologici con Strumentazione Portatile (Slides Corso on-site di Verifica Impianti). Potrebbe sembrare quasi provocatorio, ma viene messo in evidenza nelle slides del “Corso on-site di Verifica Impianti” come il controllo e la verifica di impianti di trattamento delle acque reflue (per la rimozione del carbonio e delle sostanze nutrienti N-P), possa essere effettuato nella stragrande maggioranza dei casi, utilizzando la tipica Strumentazione on-line portatile (Misuratori di parametri elettro-chimici, Microscopio portatile), i nostri sensi della vista e dell’olfatto e un PC/portatile con a bordo i pacchetti software SWater Mix e Microexpert. In altri termini, l’Attrezzatura Portatile minima necessaria per la Verifica di Funzionalità è indicata nella seguente lista:

  • Misuratore pH/Redox/Temperatura
  • Misuratore di Conducibilità
  • Microscopio a C.F. 10x, 40x, 100x,
  • Accessori per il campionamento e l’esame
  • PC/Portatile S.O. MS-Windows
  • Procedure software SWATER e MICROexpert

___________________________________________________________________________________

Servizi Aggiuntivi di PROCESS CONTROL:

LiquicontrolEH ____________________________________________________

Per ulteriori informazioni:

← Precedente

Grazie per la risposta. ✨