Skip to main content
5 minuti con A2C - Consulenza tecnica specialistica

5 minuti con A2C - Consulenza tecnica specialistica

By A2C
A2C è una associazione di professionisti nei settori della consulenza tecnica specialistica e nella progettazione di impianti. Il gruppo dal 2008 opera nella città di Salerno e su tutto il territorio Nazionale e si occupa di risoluzione di problemi tecnici e creazione di valore per la committenza. Maggiori dettagli sono nel sito web: www.a2c.it
Per informazioni o per richiesta preventivi: info@a2c.it
Listen on
Where to listen
Breaker Logo

Breaker

Google Podcasts Logo

Google Podcasts

Overcast Logo

Overcast

Pocket Casts Logo

Pocket Casts

RadioPublic Logo

RadioPublic

Spotify Logo

Spotify

Elettrosensibilità - in 5 minuti
Che cos'è l'elettrosensibilità? E come si manifesta? E' anche detta "Ipersensibilità ai Campi Elettromagnetici" (in inglese Electromagnetic Hypersensitivity o EHS) e si presenta come un insieme di disturbi fisici e/o psicologici che una persona afferma essere dovuti alla presenza di campi elettrici, magnetici. I sintomi più comuni, in chi afferma di essere affetto da EHS, sono cefalee, insonnia, debolezza, fiacchezza, dolori localizzati e diffusi simili a quelli dell'influenza, eruzioni cutanee, disturbi della vista,  dell'equilibrio, sbalzi di pressione, alterazioni dell'umore e stati d'ansia. Ad ogni modo, l'EHS non è riconosciuta come una vera malattia dall'OMS e dalla comunità scientifica. Però ci tengo a sottolineare che non siamo fisiologicamente tutti uguali e che quello che su qualcuno non fa effetto, su altri purtroppo potrebbe.
05:32
July 12, 2021
Agrivoltaico - in 5 minuti
Che cos'è l'agrivoltaico? E quali benefici può portare ad un'azienda e all'ambiente? In effetti, l'agrivoltaico, o agrovoltaico oppure agro-fotovoltaico, è l'integrazione dei pannelli fotovoltaici nelle attività agricole. Si tratta di un fenomeno in forte espansione, che permette di migliorare i rendimenti energetici di un'azienda agricola e ridurre i consumi idrici. L'ENEA ha lanciato l'iniziativa Agrivoltaico Sostenibile In Italia uno dei fattori limitanti alla diffusione del fotovoltaico è la scarsità di superfici disponibili.  Il nostro paese non ha un'elevata estensione superficiale: ci sono molte aree soggette a vincoli paesaggistici ed ambientali, altre sono completamente urbanizzate o destinate ad attività agricole. Pertanto, siamo obbligati ad optare per la copertura di edifici, fabbriche e infrastrutture con i pannelli solari e fotovoltaici.  Ma anche questo ha dei limiti: alcuni di natura tecnica (ad esempio esposizione o l'impatto visivo) e altri di natura paesaggistica (ad esempio vincoli per edifici di pregio storico, culturale e architettonico). Per questa ragione, sta suscitando molto interesse l'agrivoltaico. In estrema sintesi, gli impianti fotovoltaici non vengono installati al suolo ma su delle strutture alte diversi metri e fissate al suolo. I vantaggi sono evidenti: in questo modo si può realizzare un parco fotovoltaico con una superficie ENORME senza occupare il terreno destinato alle coltivazioni.
04:40
July 5, 2021
Domande e Risposte in 60 secondi - Luglio 2021
69 Di cosa è fatta quella pellicola argentata dei satelliti? - A2C risponde in 60 secondi - #shorts 70 Perchè si usa vendere 6 o 12 uova e non 10? - A2C risponde in 60 secondi - #shorts 71 Come si misura il gas Radon? - A2C risponde in 60 secondi - #shorts 72 Un magnete permanente mantiene per sempre la sua capacità? - A2C risponde in 60 secondi - #shorts 73 Perchè stai facendo molti video sul Radon? - A2C risponde in 60 secondi - #shorts  74  Ho della muffa a casa cosa posso fare? - A2C risponde in 60 secondi - #shorts  75 Sono possibili oggi i viaggi nel tempo? - A2C risponde in 60 secondi - #shorts 76 Come proteggo i miei familiari dal Radon? - A2C risponde in 60 secondi - #shorts 77 L'acciaio inox è inossidabile? - A2C risponde in 60 secondi - #shorts 78 Quanto costa fare una misurazione di Radon a casa? - A2C risponde in 60 secondi - #shorts
11:10
July 1, 2021
Il monossido di carbonio, a casa - in 5 minuti
Il monossido di carbonio è pericoloso? Ad elevate concentrazioni è mortale. Purtroppo si tratta di un gas estremamente tossico, incolore, inodore e insapore. Quindi non c'è modo di percepirlo con i nostri sensi. Inoltre, a differenza di altri gas, non causa irritazioni di occhi, e alle mucose per cui è praticamente impossibile rendersi conto che è presente nell'aria, se non quando ormai è troppo tardi. Sicuramente, è tra i responsabili dell'inquinamento negli ambienti di vita ed è uno di quelli più pericolosi.
05:04
June 28, 2021
Ossidi di azoto, in casa - in 5 minuti
Tra gli inquinanti che possiamo trovare tra le mura domestiche ci sono anche gli ossidi di azoto. Sono pericolosi per la salute? Purtroppo sì, ma dipende molto dalla loro concentrazione in aria.  Gli ossidi di azoto, o NOx, figurano tra le "minacce invisibili", ossia tra quei fattori chimici o fisici pericolosi che possono essere presenti nei luoghi dove viviamo o lavoriamo, senza che noi ce ne rendiamo conto. In altri video abbiamo già discusso del gas Radon, dei COV e dei campi elettromagnetici in ambienti domestici.
05:60
June 21, 2021
I composti organici volatili (COV) - in 5 minuti
Il peggioramento della qualità dell'aria negli ambienti chiusi, è un problema molto più diffuso di quello che si pensi. Tra i principali responsabili dell'inquinamento di case, uffici, scuole, palestre e luoghi di lavoro ci sono i COMPOSTI ORGANCI VOLATILI. Quali danni possono causare alla nostra salute? Esistono soluzioni praticabili? Solitamente vengono indicati con gli acronomi COV o VOC, ed in questo video vediamo di cosa si tratta e come gestire questa minaccia invisibile. Innanzi tutto, i COMPOSTI ORGANCI VOLATILI sono una famiglia molto ampia ed eterogenea. L'unica cosa che hanno in comune è che sono molto VOLATILI, cioè hanno una spiccata tendenza ad evaporare. Secondo il D.Lgs. 152/2006 vengono definiti COV, qualsiasi composto organico che abbia a 20°C una pressione di vapore superiore a 10 Pascal. Cioè sono COV molti solventi organici delle vernici e rivestimenti, delle colle, i diluenti, i CFC e gli HCFC, gli alcoli, le aldeidi e gli idrocarburi aromatici.  Le fonti di COV negli ambienti domestici sono molte: profumi, deodoranti, vernici, colle, solventi, prodotti per la casa, il fumo di sigaretta, abiti recentemente lavati a secco in lavanderia, stampanti e fotocopiatrici. Particolarmente importanti sono i materiali da costruzione e gli arredi, i quali danno origine ad emissioni durature nel tempo. Solitamente, le emissioni sono più abbondanti quando i prodotti sono ad inizio vita e tendono a diminuire sensibilmente nell'arco di qualche settimana. Tuttavia, per alcuni composti come la formaldeide, usata come collante per i mobili in truciolato o compensato, il rilascio può rimanere costante per molti anni. Altre fonti possono essere se i refrigeratori o i condizionatori hanno perdite. Da segnalare che alcuni COV sono di origine assolutamente naturale e provengono da piante, animali e persino dall'uomo. Ma sono molto meno pericolose di quelle che ho citato prima. I COV possono essere causa di molti effetti dannosi per la nostra salute. Si va dal semplice disagio, fino ad alterazioni ben più gravi. Ad elevate concentrazioni possono causare vertigini, nausea, vomito, mal di testa e gravi danni a carico degli organi interni. Alcuni COMPOSTI ORGANCI VOLATILI sono stati riconosciuti cancerogeni per l'uomo (benzene, formaldeide), altri lo sono per gli animali (cloruro di metilene, percloroetilene) e molti sono decisamente tossici. L'accumulo di COV all'interno degli ambienti chiusi può dipendere da scarsa aerazione; dall'uso non corretto di alcuni prodotti; da esalazioni provenienti da mobili, vernici, pitture e rivestimenti. Ad esempio, si può optare per realizzare sistemi di aerazione forzata, oppure si possono applicare pitture anti-inquinamento per interni. Ci sono poi molte piante ornamentali che sono capaci di assorbire formaldeide, benzene, toluene, xilene, acetone ecc. Parliamo dell'Aloe Vera, della Sansevieria, del Ficus, della Dracena, delle Orchidee e delle Azalee, solo per citarne alcune. Esistono anche depuratori per l'aria ad uso domestico. In genere aspirano l'aria e la depurano mediante ozono, raggi UV o altre tecnologie, restituendo aria purificata. L'inquinamento da COMPOSTI ORGANCI VOLATILI è molto diffuso e occorre conviverci. Alla lunga possono essere molto pericolosi; si va dal mal di testa fino ad arrivare potenzialmente a gravi malattie. Bisogna sapere che si può diminuire la loro concentrazione, anche con una spesa modesta. Il primo passo è la misurazione, che si può fare sia con un campionamento e con analisi di laboratorio e sia con strumenti portatili.   Se può interessare l'A2C da oltre 10 anni si occupa della sicurezza degli ambienti di vita ed in generale delle minacce invisibili supporta anche a livello residenziale chi dovesse avere necessità.
05:57
June 7, 2021
Domande e Risposte in 60 secondi - Giugno 2021
Come si fa a valutare il rischio? - A2C risponde in 60 secondi - #shorts Il gas Radon colpisce solo il piano terra? - A2C risponde in 60 secondi - #shorts ....
10:14
June 1, 2021
Solar Cooling - in 5 minuti
Come funziona e quali sono le applicazioni di questa tecnologia? Molto semplicemente, il solar cooling consiste nel raffrescamento degli ambienti interni tramite l'abbinamento di un impianto solare termico con una macchina frigorifera ad assorbimento.  Può sembrare strano, ma usando l'energia solare questa tecnologia permette di produrre acqua fresca a 7°C. Cioè facciamo il freddo tramite il caldo.  Il funzionamento della tecnologia del solar cooling prevede diversi elementi: -Pannelli solari termici, per catturare la radiazione termica proveniente dal sole e trasferirla a un fluido. Tale fluido viene impiegato per fornire energia termica ad una macchina frigorifera. -Macchina termica; ed in particolare una pompa di calore ad assorbimento, che produce acqua per raffrescare gli ambienti. -Uno o più serbatoi di accumulo; di solito c'è un boiler che accumula il calore proveniente dai pannelli solari, permettendo di utilizzarlo nelle ore notturne o quando le condizioni climatiche non sono ottimali. Lo stesso serbatoio può anche essere usato per l'acqua calda sanitaria all'occorrenza. -Una torre di raffreddamento, necessaria per rimuovere il calore in eccesso dalla pompa di calore; in alcuni casi si può anche non installare questa torre di raffreddamento ed usare questo calore in eccesso per riscaldare ad esempio l'acqua della piscina. Se prendiamo in considerazione le caratteristiche, i costi e le dimensioni di un impianto di questo tipo, ci rendiamo conto che questa tecnologia è più indicata per grandi impianti centralizzati, con potenza superiore ai 20 kW. In altri termini, potrebbe risultare non conveniente per abitazioni medie o piccole. Questo perché le macchine ad assorbimento lavorano con forti depressioni e per garantire un certo grado di vuoto risultano macchine complesse e costose. Per capirci si parla di un onere dai 30.000€ in su. Ad ogni modo, si tratta di una tecnologia che si sta diffondendo rapidamente, perché permette di rispondere ad alcune esigenze specifiche. Cioè, durante l'estate aumenta notevolmente l'utilizzo di condizionatori e chiaramente questo comporta un picco dei consumi elettrici, e dei costi, proprio nel periodo estivo. Con conseguenze economiche e ambientali non trascurabili. Ed è proprio in estate che il solar cooling esprime al meglio le sue potenzialità: con il notevole irraggiamento solare tipico della stagione estiva permette di produrre sufficiente energia 238 per autoalimentare gli impianti di raffrescamento. Parliamo di energia pulita e rinnovabile, nonché di un cospicuo risparmio in bolletta, visto che l'energia consumata è autoprodotta. Incentivare l'autoproduzione e l'autoconsumo di energia fa bene all'ambiente, alle nostre tasche e alla rete elettrica nazionale, evitando picchi in determinati periodi dell'anno. Ovviamente, il solar cooling si presta bene anche alla produzione di acqua calda sanitaria, sfruttando sempre l'energia termica solare. È estremamente versatile e sono previsti incentivi e detrazioni fiscali per installare questo tipo di macchine.  Concludendo, il solar cooling è certamente una valida opzione per raffrescare gli ambienti interni durante il periodo estivo.  Funziona anche di notte e permette anche di avere acqua calda sanitaria.  In ogni caso, si utilizza energia solare, quindi pulita e rinnovabile. I consumi, e i costi, si riducono sensibilmente, così come si riduce il carico sulla rete elettrica nazionale. Chiaramente, non sempre è possibile installare questo tipo di impianti: è necessaria una superficie sufficientemente estesa per i pannelli solari, servono locali per installare la pompa di calore ed il serbatoio di accumulo. Lo consiglio per grandi strutture. Non mi sento consigliarlo per piccole e medie abitazioni perché l'impianto è comunque complesso e la spesa non vale l'impresa. In ogni caso, si può sempre chiedere il parere di un tecnico qualificato.
04:48
May 31, 2021
EN 1090 - in 5 minuti
La EN 1090 è una norma armonizzata, e la marcatura CE deve avvenire secondo le sue indicazioni. Il campo di applicazione di questa norma è molto vasto, perché si applica a tutti i MATERIALI STRUTTURALI in acciaio e alluminio, i kit, e i componenti in acciaio usati nelle strutture acciaio-calcestruzzo. Quindi parliamo di capannoni, tetti, scale, intelaiature per edifici residenziali o uffici, ponti in acciaio o calcestruzzo armato, tralicci, pensiline ecc. E si applica SIA ai componenti prodotti in serie e sia non in serie, kit inclusi. Sono esclusi invece i controsoffitti, i binari ferroviari e in genere tutto ciò che ai fini di legge non conta come STRUTTURALE o è esplicitamente demandato ad altre norme.  Pertanto dal primo Luglio 2014, i produttori, e cioè le officine di produzione di carpenteria metallica, non devono più richiedere o aggiornare l'attestato rilasciato dal Servizio Tecnico Centrale del Consiglio Superiore dei Lavori Pubblici. Al suo posto, come già detto, ogni prodotto dovrà esibire la marcatura CE in conformità con la EN 1090 e dovrà essere accompagnato dalla DoP, una dichiarazione di prestazione redatta dal fabbricante, che può essere anche in formato digitale. Per poter fare ciò, il Fabbricante deve implementare un Sistema di Controllo della Produzione in Fabbrica (FPC) ed effettuare Prove in conformità alla EN 1090. Ovviamente FPC e le Prove devono essere certificate da un Organismo Notificato terzo e indipendente. Gli obblighi per il Fabbricante e l'Organismo Notificato sono schematizzati nell'Allegato ZA della norma.  Ad ogni modo, ciascun prodotto afferisce a una CLASSE DI ESECUZIONE (EXC). Ne esistono 4 e per ciascuna sono previsti requisiti e prestazioni via via più stringenti.  La meno restrittiva è la EXC1 mentre la più restrittiva è la EXC4. La EXC4, infatti, riguarda le grandi opere di ingegneria civile. Con l'edizione aggiornata al 2018 della EN 1090, la scelta delle Classi spetta al PROGETTISTA mediante l'Eurocodice 3. Il Fabbricante, in base agli elementi strutturali che produce, deve decidere per quale classe di esecuzione intende ottenere la certificazione necessaria per apporre il marchio CE sui propri prodotti. Non è una scelta banale, perché le Classi influenzano anche i processi di saldatura da adottare e di conseguenza anche il Sistema di Gestione del Processo di Saldatura. Infine, le informazioni e i dati tecnici da fornire con la Marcatura CE e nella DoP sono indicati nell'Allegato ZA della norma. La certificazione UNI EN 1090 è una certificazione obbligatoria a partire dal luglio 2014 per tutti i produttori di componenti strutturali in acciaio e alluminio immessi sul mercato come prodotto da costruzione. Se può interessare l'A2C si occupa dal 2013 di aiutare le aziende ad ottenere la certificazione EN 1090. Una volta all'anno poi l'ente di certificazione effettuerà audit per poter rinnovare annualmente la certificazione. I vantaggi sono poter vendere all'interno della comunità europea e partecipare agli appalti pubblici.
07:08
May 24, 2021
Turismo elettrico - in 5 minuti
Hai mai sentito parlare di TURISMO ELETTRICO? E' una buona opportunità per il settore turistico e contemporaneamente è una idea green. Intanto, inizio col dire che il TURISMO ELETTRICO non è una nuova forma di turismo. Le attività turistiche sono esattamente le stesse alle quali sei già abituato e che fai normalmente quando vai in vacanza. Semplicemente, oggi è possibile optare per dei servizi elettrici al posto di quelli convenzionali. Negli ultimi anni, sono sempre di più le strutture turistiche che offrono la possibilità di NOLEGGIARE mezzi elettrici oppure che INCENTIVANO l'uso di mezzi elettrici propri. Ad esempio, il Lago di Como è stato battezzato il primo Lago Elettrico d'Europa, perché gli alberghi locali offrono servizi di ricarica gratuiti per i clienti che arrivano con mezzi elettrici propri, e poi ci sono numerosi punti per noleggiare mezzi elettrici, come ad esempio biciclette, auto e persino le barche per farsi un giro nel lago! Inoltre vengono anche offerti itinerari particolari, solitamente immersivi nella natura, da fare proprio con i mezzi elettrici. Anche in Puglia, ci sono dei gestori che offrono la possibilità di muoversi tra Ostuni, Alberobello e il Parco Regionale Dune Costiere utilizzando auto e calessini elettrici.  Anche in questo vengono offerti itinerari guidati, con visita di luoghi incantevoli e degustazione di prelibatezze tipiche. Da non dimenticare la Valtellina, dove alcuni gestori offrono la possibilità di noleggiare bici elettriche, così da permettere a chi è meno allenato di coprire grandi distanze senza problemi e di ammirare i paesaggi suggestivi di montagna. A Cervia, per non disturbare la fauna locale, si utilizzano barche elettriche per ammirare i fenicotteri rosa. E sono sempre di più le città d'arte che offrono la possibilità di noleggiare bici elettriche per muoversi agevolmente. Cosa si può fare?  Innanzitutto si devono installare dei punti di ricarica, in modo da attirare più persone con mezzi elettrici. Questo sia a livello comunale e sia da parte di strutture di accoglienza. Poi, sapendo che una ricarica rapida può richiedere 1-2 ore e che l'autonomia è di circa 300 km, si possono installare dei punti di ricarica in prossimità di attrazioni turistiche che richiedono circa 1 ora di passeggiata. Oltre a questo si possono sviluppare anche degli appositi itinerari che collegano più attrazioni vicine tra loro. Facciamo un esempio pratico: se un turista parte da Roma verso sud, potrebbe essere una buona idea una sosta a Mercato San Severino, che dista circa 260 km. Qui ad esempio nel frattempo che si ricarica l'auto potrebbe visitare l'antico castello dei Sanseverino, che per la cronaca è il secondo castello italiano per estensione, fondato nel 1067 dai Normanni.
04:35
May 17, 2021
Le sostanze preoccupanti - in 5 minuti
Ti stai chiedendo se un prodotto rientra negli obblighi di notifica per le sostanze chimiche preoccupanti?  Che cos'hanno in comune pile, accumulatori, prodotti in ceramica, vernici, spugne e cavi elettrici? Apparentemente nulla, in realtà possono contenere quelle che il Regolamento REACH chiama "Sostanze estremamente preoccupanti". Alcune sono più comuni di altre e le troviamo in moltissimi articoli diversi. Altre sono sono meno frequenti.  In un precedente video, abbiamo approfondito l'obbligo di NOTIFICARE tramite un portale, gli articoli contenenti le sostanze pericolose da parte di chi li produce, assembla, importa o distribuisce. Partiamo dalle pile e dagli accumulatori. Sono estremamente diffusi e non tutti sanno che possono contenere, fra le varie cose, PIOMBO o CADMIO che sono entrambe nella lista delle sostanze estremamente preoccupanti. La principale differenza tra pile e accumulatori è che le prime non sono ricaricabili mentre le seconde sì. Ovviamente, quando parlo di pile e accumulatori non mi riferisco solo a quelle portatili che usiamo per i telecomandi, le torce o altre apparecchiature comuni, bensì anche attrezzature industriali. Ci sono anche gli accumulatori per i veicoli. Non solo automobili, furgoni e camion, ma anche le batterie che alimentano i veicoli elettrici come carrelli elevatori, macchine per la pulizia, golf car eccetera. E' molto probabile che in questo genere di articoli si trovi Piombo o Cadmio. E potrebbero esserci anche altri tipi di sostanze pericolose. Quindi per chi li produce, assembla, importa o distribuisce c'è l'obbligo di notifica al portale dell'ECHA. Passiamo quindi ai prodotti in ceramica. Di solito possono contenere acido borico o suoi derivati. In particolare possono essere articoli ad uso decorativo come vasi, o anche di articoli destinati al contatto con gli alimenti come piatti e tazze. E quindi anche chi produce, importa o li distribuisce è obbligato a redigere l'apposita scheda sul portale. Ricordo, che il mancato adempimento di quest'obbligo può comportare delle sanzioni economiche rilevanti. Altro esempio di oggetti contenenti il boro è la pasta per brasatura. O anche il boro viene usato nella produzione di vetro borosilicato, meglio noto come vetro Pyrex. Invece nelle spugne abrasive, così come nei rivestimenti per cavi e apparecchiature elettriche ed elettroniche, compresi quelli per computer e smartphone, è possibile che ci sia il diottilftalato, o DEHP. Si tratta di un agente plastificante molto usato nella realizzazione di materie plastiche. Quindi è facile che sia presente in molti articoli in plastica o che contengono componenti in plastica, specie se provengono da fuori l'UE. Concludo facendo l'esempio dei tessuti e degli articoli di abbigliamento, che possono contenere pigmenti e rivestimenti che rientrano nell'elenco di queste sostanze. Dato che la soglia limite è dello 0,1% in peso, bastano anche quantità molto piccole per far scattare l'obbligo di notifica. La lista di articoli contenenti sostanze pericolose è potenzialmente infinita. Mi sono limitato a portare delle casistiche semplici e molto frequenti. Ma non sempre è facile capire se un articolo contiene o meno queste sostanze e in che quantità. Abbiamo citato a titolo di esempio: il piombo, il cadmio, il boro, il diottilftalato nella plastica e i pigmenti nelle vernici. Però ce ne sono molte altre. Non sono difficili da trovare. Ad esempio un distributore di trapani elettrici è molto probabile che debba effettuare la notifica per la presenza di piombo nelle batterie.  E il mancato adempimento di quest'obbligo può comportare delle sanzioni economiche rilevanti. Lo scambio di informazioni con il fornitore è fondamentale, oltre che obbligatorio per legge. Per cui, in caso di dubbio, il mio consiglio è interpellarlo. A2C ha attivato un servizio di consulenza per aiutare le imprese in questo genere di adempimenti.
04:53
May 10, 2021
L'idrogeno è veramente sostenibile? - Sfatiamo i miti
L'idrogeno è veramente sostenibile? È la via giusta per la decarbonizzazione e la transizione ecologica? In realtà dipende tutto da come produciamo l'idrogeno e da come verrà impiegato. L'idrogeno, infatti, è un VETTORE ENERGETICO e non una forma di energia libera. Questa differenza è importante, perché significa che prima di poterlo usare lo dobbiamo produrre. La combustione di idrogeno porta alla formazione di vapore acqueo, ma non di CO2 o altri gas serra. Tuttavia, la produzione di idrogeno non è esente da emissioni di gas serra. Esistono molti modi per produrre idrogeno, e a ciascuno è imputabile una certa quota di emissioni. Un metodo comune è l'ELETTROLISI DELL'ACQUA: in pratica si immergono due elettrodi in acqua, vi si fa passare corrente elettrica e le molecole d'acqua si separano in idrogeno e ossigeno gassosi. L'elettrolisi ad alta temperatura è più efficiente di quella tradizionale, ma richiede temperature piuttosto elevate. Se l'energia utilizzata viene da fonti rinnovabili si parla di IDROGENO VERDE: questo è l'optimum perché le emissioni sono prossime allo ZERO. Si può ottenere idrogeno verde anche dalla pirolisi del metano, dato che essa produce idrogeno e carbonio solido. Ovviamente deve essere un metano quanto più pulito e puro possibile, altrimenti si avranno inevitabilmente emissioni di CO2. Si parla invece di IDROGENO GRIGIO quando la produzione avviene a partire da fonti fossili quali carbone o gas naturale.  In questo caso si utilizza un processo di "steam reforming". In pratica, sottoponendo le fonti fossili a particolari trattamenti termochimici in presenza di vapore è possibile ottenere idrogeno, ma anche CO2. L'idrogeno grigio viene considerato il peggiore della categoria perché oltre alle emissioni imputabili alla sua produzione dobbiamo sommare anche le emissioni dovute all'estrazione, alla lavorazione al trasporto e allo stoccaggio delle fonti fossili di partenza. Poi c'è l'IDROGENO BLU, il cui processo produttivo è simile a quello dell'idrogeno grigio, solo che la CO2 prodotta viene catturata e stoccata nel sottosuolo, oppure può essere impiegata per altri scopi. Oggi si riesce a catturare fino al 90% della CO2 prodotta. Infine esite l'IDROGENO VIOLA, ottenuto mediante elettrolisi dell'acqua usando l'elettricità generata da una centrale nucleare, considerata a zero emissioni di CO2. Quindi capite bene che non è vero che l'idrogeno è SEMPRE sostenibile. Concludendo, sicuramente l'idrogeno verde e viola possono essere considerate fonti di energia sostenibili, perché le emissioni associate alla loro produzione sono prossime allo zero. Il problema sta nel fatto che non siamo ancora pronti a produrre idrogeno verde in grandi quantità. Oggi il 95% dell'idrogeno prodotto è ancora del tipo grigio. L'Unione Europea e l'Italia, tuttavia, credono che l'idrogeno verde sia fondamentale nel processo di decarbonizzazione e transizione ecologica. Ed è per questo che investono nella realizzazione di impianti per produrre idrogeno verde. Saranno impianti per l'elettrolisi dell'acqua alimentati dal solare, dall'eolico e dal fotovoltaico. Probabilmente gli stati che possiedono centrali nucleari punteranno anche sull'idrogeno viola, perché il settore nucleare punta molto ad essere riconosciuto come "green" e in questo modo potrà beneficiare di cospicui incentivi. In ogni caso, ci vorranno anni per iniziare a produrre idrogeno verde e viola in quantità tali da permettere di sostituire definitivamente alcune fonti fossili. E in ogni caso, l'idrogeno troverà applicazione solo in alcuni settori. Ad esempio come combustibile per mezzi pesanti o in settori industriali difficili da elettrificare. Questo perché lo stoccaggio, la distribuzione e l'impiego di idrogeno gassoso sono operazioni rischiose.
04:20
May 4, 2021
Moderare un evento con l'approccio D.I.S.C. - in 5 minuti
Come si fanno a gestire tante persone, in un evento in cui siamo i relatori? Parliamo ad esempio di un incontro on-line un seminario, o anche semplicemente dei commenti sui social network. Non è facile; però può essere d'aiuto lo schema comportamentale DISC. Ne abbiamo già parlato in un video precedente, nell'ambito di un rapporto uno ad uno con un interlocutore. E abbiamo visto che permette una maggiore empatia. Prevede l'inquadramento dell'interlocutore in uno dei quattro stili comportamentali D.I.S.C., e di conseguenza prevede che si moduli la comunicazione in funzione dell'interlocutore. Questo stesso modello si può applicare anche quando, ad esempio, dobbiamo tenere una conferenza. Vediamo come si fa. DISC è un acronimo, che tradotto in italiano sta per: Decisi, Influenti, Stabili e Cauti. Si tratta dei principali 4 stili comportamentali delle persone. Ovviamente è una semplificazione e ognuno di noi è un mix di questi 4 stili, ma probabilmente ne abbiamo uno che è prevalente. In sintesi esistono persone che hanno un andamento più veloce e altre che hanno un andamento più lento. Poi ci sono quelli che sono focalizzati sulle persone e quelli che sono orientati ai risultati. Volendo si può schematizzare in un grafico in un grafico cartesiano in cui mettiamo sulle ascisse la velocità e sulle ordinate mettiamo il focus (persone o risultati). Otteniamo quindi 4 quadranti che corrispondono ai 4 stili. In una conferenza, o comunque in una interazione con molte persone, ci sarà una certa quota di ognuna di queste 4 tipologie.  I più facili da individuare sono i "decisi". Si riconoscono velocemente dal loro atteggiamento: sono quelli che devono intervenire di continuo, con atteggiamento anche un pò aggressivo e ci tengono a mettersi in evidenza. Cioè sono molto competitivi. E' fondamentale inquadrarli subito, perché occorrerà durante tutto l'incontro chiedergli continuamente il loro parere. E' l'unico sistema per tenerli a bada. Con loro è necessario essere molto incisivi e non tentennare mai.  Poi ci sono gli "influenti". Loro hanno il problema che facilmente si distraggono. Dato che sono molto dinamici, come anche i "decisi", vogliono continuamente stimoli. Però in questo caso non è necessario interpellarli, perché non hanno l'esigenza di competere. Può essere invece più utile dargli degli esercizi da fare, o comunque impegnarli in qualcosa di vario e quindi coinvolgerli. In generali bisogna intrattenerli.  Altra casistica sono i "stabili"; si tratta di persone organizzate, che pretendono che tutto intorno a loro sia organizzato. In questo caso è utile comunicare e rispettare la scaletta, fornire materiale divulgativo per approfondimento e in sintesi rassicurarli che procede tutto secondo i piani.  Infine la tipologia più semplice è quella dei "cauti"; tendenzialmente sono persone riflessive e solitarie e che preferiscono il rapporto uno a uno. In questo caso occorre creare un clima di tranquillità e accoglienza e non forzarli a parlare; eventualmente si può creare a fine incontro un angolo in cui possono interagire con noi in privato.  Moderare un evento non è facile. Lo schema DISC può essere applicato anche ad esempio nel mondo della formazione scolastica. Nel 2002 sono stato per 1 anno un insegnante alle scuole superiori e ho sperimentato personalmente questo approccio. Nella scuola è più facile, perché gli alunni sono sempre gli stessi. La prima cosa era individuare i "decisi", cioè i ragazzi più ambiziosi e fargli delle domande a sorpresa. Poi occorreva intervenire sui ragazzi che si distraevano, cioè gli "influenti", cercando di intrannerli ad esempio intervallando la lezione con qualche battuta. Poi era necessario seguire l'ordine di spiegazione del libro di testo, in modo da rassicurare gli "stabili". E infine, permettevo ai "cauti" a fine lezione di avvicinarsi alla cattedra e confrontarsi in modo privato.
04:57
May 3, 2021
Domande e Risposte in 60 secondi - Maggio 2021
Potrebbero esserci forme di vita non basate sul carbonio?   I condensatori potrebbero sostituire le batterie?  La ricarica wireless è dannosa per la salute?  E' possibile ibernare una persona?   Cosa cambia tra un cavo da 1 metro o uno da 10 metri?  Perchè si mettono gli zoccoli di ferro ai cavalli?  Qual è la cosa più costosa mai progettata?  Quali sono i peggiori difetti del corpo umano?  Come si usa l'istogramma colore? 
09:36
May 1, 2021
Ripetitori non oltre i 70 metri dalle abitazioni? - Miti da sfatare
Per legge, è possibile che un ripetitore di telefonia mobile si trovi a 20 metri di distanza da un'abitazione?" La risposta non è banale. Innanzitutto, oggi i ripetitori per telefonia mobile sono installati un po' dappertutto, quindi è lecito chiedersi se essi siano troppo vicini a case, scuole o ospedali. E ovviamente è lecito chiedersi se ciò comporti rischi per la salute. Ebbene, con il Decreto Legislativo n. 198/2002, meglio noto come "Decreto Gasparri", furono concesse MAGGIORI LIBERTA' per l'installazione di ripetitori di telefonia mobile sul territorio nazionale. Il risultato è stata una rapida proliferazione di antenne, soprattutto nei centri abitati. Il decreto infatti considerava i ripetitori come OPERE DI URBANIZZAZIONE PRIMARIA, e pertanto essi erano da considerarsi come strade, fogne, illuminazione pubblica, la rete idrica e quella del gas ecc. Sempre secondo il Decreto Gasparri, le antenne erano compatibili con qualsivoglia destinazione urbanistica, fermo restando che i Comuni potevano individuare aree più idonee di altre per ospitare i ripetitori. Infine, fu stabilito che la DISTANZA MINIMA tra ripetitori e abitazioni dovesse essere di almeno 70 metri. Ma attenzione: nel 2003 la Corte Costituzionale ha dichiarato costituzionalmente illegittimo l'INTERO Decreto Gasparri per eccesso di delega. Successivamente è entrato in vigore il Codice delle Comunicazioni Elettroniche, che però non prevede una distanza minima di sicurezza. Oggi l'autorizzazione all'installazione e all'esercizio di ripetitori di telefonia mobile è subordinata a numerosi criteri, tra cui: - il rispetto della normativa ambientale; - il rispetto della pianificazione urbana e rurale e del piano delle telecomunicazioni; - il rispetto degli obblighi della concessione, dell'accesso o dell'uso di suolo pubblico o privato; - il rispetto delle norme relative alla limitazione dell'esposizione delle persone ai campi magnetici prodotti dalle reti di comunicazione elettronica, in conformità alle norme comunitarie. Spetta agli Enti Locali effettuare questi accertamenti, previo rilascio dell'autorizzazione.  Ricordo che le norme a tutela della salute dai rischi dell'elettromagnetismo sono COMPETENZA ESCLUSIVA dello Stato. A livello nazionale, il punto di riferimento è la Legge n.36/2001 "Legge quadro sulla protezione dalle esposizioni a campi elettrici, magnetici ed elettromagnetici". Questa legge non indica delle distanze da rispettare, ma piuttosto degli OBIETTIVI DI QUALITA' da rispettare, che si ottengono andando a MINIMIZZARE i valori di esposizione della popolazione ai campi elettromagnetici. Gli obiettivi di qualità per aree densamente frequentate sono di 6V/m per i campi e 100 mW/m2 per la densità di potenza. Ovviamente questi sono limiti da NON superare e per fare ciò è opportuno posizionare i ripetitori ad una distanza idonea da case, scuole, ospedali e aree pubbliche in generale. Questo perché l'intensità dei campi elettromagnetici decresce con il quadrato della distanza, quindi più è lontano un ripetitore e più siamo al sicuro.  Come già detto in un altro video, l'effetto ombrello è relativo e va sempre verificato, perchè dipende dal tipo di emettitore e dalla sua configurazione. Per quanto riguarda i limiti relativi all'esposizioni sui luoghi di lavoro, la disciplina è differente ed esula dai contenuti di questo video. Tutti questi ragionamenti si applicano ANCHE ai ripetitori del 5G, che stanno spuntando un po' ovunque, per il semplice fatto che sia i ripetitori di telefonia mobile "classici" che quelli del 5G trasmettono nella BANDA RADIO.
05:01
April 27, 2021
Sostanze chimiche pericolose (SVCH) e obbligo dichiarazione nel database SCIP della ECHA (Regolamento REACH) - in 5 minuti
Nel caso in cui la tua azienda produca, assembli, importi, o distribuisca articoli contenenti questi SVHC in concentrazione superiore allo 0,1% peso su peso, occorre NOTIFICARLI alla BANCA DATI SCIP. L'obbligo per le aziende di presentare le notifiche si applica da Gennaio 2021. Quindi, i termini sono già scaduti. Le informazioni raccolte da questa Banca Dati SCIP vengono messe a disposizione del pubblico: in particolare dei consumatori e dei gestori dei rifiuti. Nel rispetto della riservatezza l'ECHA garantisce la sicurezza delle informazioni sensibili, come ad esempio i legami tra i soggetti privati che compongono le catene di approvvigionamento. La prima cosa da fare è capire se il tuo prodotto è un articolo oppure no.  Se sei un dettagliante e fornisci i tuoi articoli solo ai consumatori, non devi presentare alcuna notifica. Tutto quanto si incardina sulla definizione di "articolo". Quindi vediamo come lo definisce il REACH, l'articolo è "un oggetto a cui durante la produzione sono dati una forma, una superficie o un disegno particolari che ne determinano la funzione in misura maggiore della sua composizione chimica". Secondo il REACH, articoli sono ad esempio gli indumenti, le pavimentazioni, i mobili, la gioielleria, i giornali e gli imballaggi. Ma la lista è potenzialmente infinita! La seconda cosa da fare è raccogliere informazioni, per capire se nel tuo articolo sono presenti sostanze pericolose, di che tipo e in quali quantità. Se sono presenti in quantità INFERIORE allo 0,1% in peso, non ci sono obblighi. Se invece sono presenti oltre lo 0,1% , oppure se la sostanza è presente negli articoli in quantità superiori ad una tonnellata all'anno, allora è necessario presentare una notifica attraverso il portale dell'ECHA. Attenzione perché le aziende devono effettuare la notifica non oltre sei mesi dopo l'inclusione della sostanza nell'elenco di sostanze candidate. Per reperire tali informazioni bisogna rivolgersi ai fornitori dei materiali che utilizzi o sugli articoli che a tua volta utilizzi. A loro volta anche i tuoi clienti potrebbero chiederti informazioni sulla presenza di queste sostanze. Questo perché potrebbero avere a loro volta l'obbligo a fare la notifica o a comunicarlo ai consumatori. I consumatori possono richiedere informazioni analoghe. Il fornitore dell'articolo è tenuto a fornire queste informazioni gratuitamente entro 45 giorni. Qual è lo scopo di queste informazioni? L'obiettivo è quello di raccogliere nella banca dati SCIP tutte le informazioni disponibili sugli articoli che contengono sostanze pericolose, in particolare di che tipo e in quali quantità. Ciò permetterà di monitorare queste sostanze durante tutto il ciclo di vita degli articoli, anche nella fase in cui diventano rifiuti. Ciò è necessario anche per informare gli importatori, i distributori e anche i consumatori. Cosa succede se non adempie agli obblighi di cui ho parlato? Questo dipende da ciascun Stato della Unione Europea ed in particolare ogni Sato deve far rispettare il Regolamento REACH, con propri strumenti di controllo e verifica, con anche apposite sanzioni. Dato che la legge non ammette ignoranza, è buono conoscere quest'obbligo. L'A2C ha realizzato un breve videocorso a riguardo e ha attivato un servizio di consulenza, a supporto sia dei produttori e sia distributori.
05:44
April 26, 2021
Come gestire la sindrome del NIMBY (non nel mio cortile) - in 5 minuti
Hai mai sentito parlare della sindrome NIMBY? Se la risposta è "no" non temere: non si tratta di una nuova malattia. Ma è però un fenomeno che può creare problemi seri alla collettività.  L'acronimo NIMBY sta per "not in my backyard", che significa letteralmente "non nel mio cortile".  Questa parola si utilizza per indicare l'attitudine da parte dei membri di una comunità ad opporsi, anche strenuamente, alla realizzazione di opere di interesse pubblico nei territori in cui risiedono, p3levanti, come inceneritori, impianti di trattamento dei rifiuti, turbine eoliche, nuove strade, ferrovie.  L'opposizione nasce sempre dal timore che l'opera possa arrecare danni alla salute, all'ambiente o al valore economico della zona interessata. Si ritiene che la causa principale della sindrome Nimby risieda nella mancanza di informazione ai cittadini,così come nel loro mancato coinvolgimento nei processi decisionali che riguardano le loro comunità e i loro territori. E' importante quindi il DIRITTO DI ACCESSO del pubblico alle informazioni, la PARTECIPAZIONE del pubblico ai processi decisionali e l'ACCESSO alla giustizia. Ciò è stato recepito nell'Unione Europea ed è per questo che procedure come la VIA, la VAS e molti programmi richiedono PER LEGGE di informare il pubblico e lo svolgimento di consultazioni pubbliche. Secondo il Convegno NIMBY Forum del 2016, quasi il 57% delle opere contestate riguardava il settore energetico. Di queste, ben il 75% erano progetti di energia da fonte rinnovabile. Oltre ai casi di mancanza di informazione e coinvolgimento della popolazione, adesso ci sono anche in aggiunta i social media. C'è da precisare che, non tutti i timori sono sempre fondati. Come c'è anche la possibilità che i timore invece sia ben fondati. Quindi proprio per questo è importante informare e coinvolgere la popolazione residente, e tutti i portatori di interesse presenti sul territorio dove sorgerà l'opera. È importante un loro coinvolgimento negli iter procedurali. In questo modo, i timori infondati e le critiche pretestuose possono essere eliminati, raccogliendo e integrando tutte le osservazioni pertinenti e migliorative. La mancata realizzazione di opere necessarie e strategiche, a causa della sindrome NIMBY, può avere conseguenze molto nefaste. In un precedente video ho parlato della necessità di realizzare il Deposito Nazionale per i Rifiuti Radioattivi, ma il discorso vale anche per gli impianti di trattamento dei rifiuti, ad esempio. Questo vuol dire che i nostri rifiuti, di cui siamo RESPONSABILI, vengono spediti anche in impianti molto lontani dal luogo di produzione, con costi esorbitanti per le nostre tasche; ed inoltre hanno anche impatti significativi in termini di emissioni in atmosfera dovuti alla movimentazione di alcune tipologie di rifiuti. Concludendo, ti lascio citando il Principio 10 della Conferenza sull'Ambiente e lo Sviluppo delle Nazioni Unite tenutasi a Rio de Janeiro nel 1992: "Il modo migliore di trattare le questioni è quello di assicurare la partecipazione di tutti i cittadini interessati, ai diversi livelli". Per chi fosse interessato, la Parte Seconda del Codice dell'Ambiente è dedicata proprio a queste procedure: https://www.normattiva.it/uri-res/N2Ls?urn:nir:stato:decreto.legislativo:2006-04-03;152
03:53
April 19, 2021
Come gestire i rifiuti nucleari? - in 5 minuti
Come si possono gestire i rifiuti nucleari e cos'è il Deposito Nazionale dei Rifiuti radioattivi? Si tratta di un’infrastruttura di superficie per la sistemazione DEFINITIVA e in SICUREZZA dei rifiuti radioattivi. E' un argomento che fa molto discutere. In questo breve video cercheremo di approcciare insieme questa tematica così delicata.  Inizio con il dire che è stata pubblicata la Carta Nazionale delle Aree Potenzialmente Idonee ad ospitare il Deposito. E trovi il link in descrizione. I rifiuti radioattivi vengono prodotti non solo dalle centrali nucleari (peraltro dismesse da anni in Italia) ma anche da attività di medicina nucleare, da alcune attività industriali e da particolari attività di ricerca scientifica. Attualmente, questi rifiuti vengono stoccati in più di 20 depositi temporanei sparsi per il Paese. Depositi che comunque hanno una capacità molto limitata e che non sono idonei né per lo stoccaggio a lungo termine né per lo smaltimento. La Direttiva 2011/70/EURATOM stabilisce che la sistemazione definitiva dei rifiuti radioattivi deve avvenire nello Stato in cui sono stati generati e si suddividono in 5 categorie: rifiuti radioattivi a vita media molto breve; rifiuti ad attività molto bassa, bassa, media e alta.  Senza entrare troppo nei dettagli, questa direttiva, stabilisce che ogni Stato deve dotarsi di un Deposito Nazionale per lo smaltimento definitivo dei rifiuti ad attività molto bassa e bassa, nonché per lo stoccaggio PROVVISORIO dei rifiuti a media e alta attività.  Per queste ultime due categorie sono allo studio depositi geologici PROFONDI, e non di superficie come il Deposito Nazionale. In Italia risultano circa 91.000 metri cubi di rifiuti radioattivi da smaltire di cui quasi 38.000 sono ad attività molto bassa, mentre quelli ad ad alta attività sono circa 50 metri cubi. Molti si chiedono: "Perché invece di costruire un Deposito Nazionale non stocchiamo questi rifiuti semplicemente nelle vecchie centrali nucleari?"  Il motivo è semplice: si tratta di strutture con una limitata capacità ricettiva, attualmente in fase di smantellamento e quindi non adatte allo scopo. Passiamo alle caratteristiche del Deposito Nazionale. Occuperà un'area di 110 ettari, più un parco tecnologico di 40 ettari destinato ad attività di ricerca.  Nel Deposito verranno stoccate DEFINITIVAMENTE circa 78 mila metri cubi di rifiuti a molto bassa e bassa attività e 17 mila metri cubi di rifiuti a media e alta attività in via TEMPORANEA, per poi essere spostati in un deposito geologico apposito.  Il sito scelto per il Deposito Nazionale alla fine sarà solo uno. Come si può immaginare, nessuno vuole questo Deposito in casa propria. La procedura di selezione è tutt'ora in corso, e si stanno svolgendo le consultazioni pubbliche per consentire a tutti di essere adeguatamente informati e, soprattutto, di produrre osservazioni pubbliche. Però è utile notare che vale il principio che ogni comunità è responsabile dei rifiuti che produce.  Poi è molto più sicuro tenere i rifiuti radioattivi in un Deposito ad hoc, piuttosto che in tanti siti temporanei non idonei. Concludo dicendo che la mancata realizzazione di questo Deposito ci sta costando a tutti noi tra i 100 e i 400 milioni di euro all'anno, che vengono pagati da ognuno di noi tramite gli oneri di sistema delle bollette dell'elettricità.   Link: https://www.depositonazionale.it  Si ringrazia il Dott. Luigi Rescigno per il supporto scientifico   Per richieste preventivi, scrivere a:   info@a2c.it
05:34
April 5, 2021
Domande e Risposte in 60 secondi - Aprile 2021
Se si esce senza tuta spaziale dalla navicella cosa succede? Nello spazio invecchiamo? E nel vuoto? Se un astronauta in uscita dalla navicella muore e con la sua tuta va alla deriva, una volta terminato l'ossigeno il corpo viene degenerato dai batteri anaerobici? E' sostenibile la vita sulla Luna? I fuochi d'artificio inquinano il terreno? Si ci può staccare dal riscaldamento centralizzato? Perchè sono migliori le batterie al grafene?
08:55
April 1, 2021
Cosa prevede la Normativa Nazionale sul Radon nel 2021 (D.Lgs.101/2020 del 27/08/2020)- in 5 minuti
Il 27 agosto 2020 è entrata in vigore la nuova Normativa Nazionale sul gas Radon, il D.Lgs. 101/2020, che modifica integralmente tutta la Legislazione precedente. Perché interessarsene?  Ci sono 2 motivi: da un lato ci sono nuovi obblighi per esercenti e per proprietari di immobili e dall'altro c'è maggiore tutela per la popolazione e per i lavoratori. I limiti tollerati di concentrazioni di gas Radon sono stati abbassati ed è stata introdotta la misurazione. obbligatoria anche al piano terra, con una frequenza di una misura ogni 8 anni. Questo sia per le abitazioni e sia per i luoghi di lavoro.   Il D.Lgs. 101/2020 tratta di radiazioni ionizzanti, deriva dalla Direttiva 2013/59/Euratom e abroga gran parte della Legislazione precedente.  Il Radon viene affrontato nel Titolo IV, Capo I e nell'Allegato 2.  In particolare, all'art. 10 si prevede che entro il 27 agosto 2021 sia in vigore il Piano nazionale d’azione per il Radon. Preciso che alla data di registrazione di questo video non è ancora stato emesso e non si conosce la data certa di quando sarà effettivamente adottato.  E' particolarmente importante il Piano nazionale per 2 motivi: 1) il primo è perché stabilirà le aree dove è obbligatoria la misura al piano terra, per tutti i luoghi di lavoro e per tutte le abitazioni. 2) secondo, perché a seguito dell'art. 11, a partire dalla data di entrata in vigore scattano 2 anni di tempo per le Regioni per adeguarsi e procedere e far procedere obbligatoriamente alle misurazioni programmate.  Chi e dove devono essere fatte queste misurazioni? Secondo l'art. 16, le devono fare gli esercenti attività di: a) tutti i luoghi di lavoro sotterranei e di stazioni termali b) i luoghi di lavoro seminterrati o al piano terra, però, limitatamente alle aree definite a rischio dal Piano Nazionale. Secondo l'art. 19 le devono fare i proprietari di abitazioni, con almeno un locale a piano terra o seminterrato o interrato, però, limitatamente alle aree definite a rischio dal Piano Nazionale.  Chi materialmente procederà alle misure? Secondo l'art. 155 li faranno i servizi di dosimetria con riconoscimento ottenuto da istituti precedentemente abiliti. E' una definizione molto generica, ma così è riportato nel Decreto.  Ogni quanto si devono ripetere queste misurazioni? Secondo l'art. 17 ogni 8 anni. Inoltre, si devono poi ripetere in caso di ristrutturazione o interventi di miglioramento dell'isolamento termico.  Quali sono i limiti? In passato per i luoghi di lavoro il limite era di 500 Bq/m3. Ora, a seguito dell'art.12 sia per le abitazioni e sia i luoghi di lavoro si passa al limite di 300 Bq/m3. Dal 1 gennaio 2025, per i nuovi edifici, il limite è invece di 200 Bq/m3.  Cosa succede  se si superano i limiti? Occorre procedere alla bonifica e poi ad una nuova misurazione annuale. Secondo l'art.17, nel caso dei luoghi di lavoro occorre incaricare un tecnico che abbia i requisiti espressi nell'Allegato II. In sintesi deve essere un ingegnere oppure un architetto o un geometra e deve avere seguito un particolare corso abilitante.
05:41
March 15, 2021
Come eliminare la muffa in modo duraturo - in 5 minuti
La muffa è l'infestazione più comune nei nostri appartamenti. Ognuno di noi prima o poi nella vita si pone la domanda:"come faccio a eliminare questa muffa dal muro, in modo duraturo?".  E' importante occuparsene sia per ragioni sanitarie, perché può portare infezioni polmonari, e sia per non far degradare l'edificio. Ad esempio, una perdita d'acqua di un bagno potrebbe compromettere strutturalmente il solaio, perché i ferri all'interno del cemento armato arrugginendosi perdono le proprie funzioni. Cominciamo col dire che dove c'è acqua, c'è muffa. Quindi la vera domanda è "da dove viene quest'umidità?". Per scoprirlo bisogna osservare, misurare, e poi andare anche per esclusione. Volendo semplificare ci sono tre possibilità: o è umidità di risalita dal basso per capillarità oppure c'è una infiltrazione da una tubazione rotta o da una cattiva impermeabilizzazione, oppure infine si tratta di condensa interna su un ponte termico.   Analizziamo il primo caso, la capillarità; di solito si verifica in zone dove il terreno è particolarmente umido, ad esempio vicino al mare o vicino a qualche torrente. La soluzione è complessa. L'ideale è isolare il pavimento e le mura. Ad esempio si può creare un vespaio areato sotto il pavimento, oppure si può eseguire un taglio orizzontale delle murature con materiale plastico, che ferma il flusso di risalita. Nei casi più gravi, ad esempio per i palazzi in prossimità del mare, si possono utilizzare delle pompe sommerse, poste al di sotto del pavimento, che evitano che ingenti quantità d'acqua arrivino alla base dell'edificio. Mentre invece nei casi più lievi esistono anche delle soluzioni elettromagnetiche, che però vanno valutate con attenzione.  Il secondo caso sono le infiltrazioni ed è quello più ostico da approfondire. L'acqua può provenire dall'esterno, dalla mancata capacità di impermeabilizzazione di un terrazzo  oppure dall'interno, ad esempio da una tubazione rotta del proprio appartamento. Capire l'esatto percorso dell'acqua può essere difficile, per cui ci si deve aiutare con strumenti come la termocamera a infrarossi e gli igrometri da contatto. La soluzione è o sostituire le tubazioni difettose oppure migliorare l'impermeabilizzazione della facciata, del terrazzo o del sistema di grondaie del fabbricato.  Il terzo caso è la condensa interna. Quando si vive nella casa si produce vapor acqueo ad esempio quando si bolle l'acqua oppure durante la doccia. Per inciso anche quando respiriamo emettiamo dal naso vapore. Tutto questo vapore se non è evacuato fuori tramite ad esempio le finestre, ristagna in casa e si condensa sulle parti più fredde. Quali sono le parti più fredde di una casa? Sono le travi e i pilastri in cemento armato che danno verso l'esterno, ed in generale i muri esterni. Questo perché il ferro contenuto nel cemento armato conduce molto bene il freddo. Questi elementi freddi si chiamano ponti termici, perché fanno da ponte tra esterno e interno per quanto riguarda lo scambio di calore.  Alla fine la muffa è un nemico ostinato però se si è più ostinati di lei e con l'aiuto di un esperto, sicuro si riesce a eliminare in modo duraturo. Per chi è interessato l'A2C effettua indagini per l'eliminazione della muffa e seconda delle necessità possono essere svolte analisi termografiche, indagini igrometriche, indagini di tipo microbiologico (ad esempio, mediante il campionamento dell'aria tramite aspiratore SAS), oppure mediante l'analisi odorigena, di cui l'A2C è tra i leader in Italia.   Sommario 0:00:00 - Introduzione 00:01:03 - Le cause della muffa 00:01:51 - La capillarità 00:03:00 - Le infiltrazioni 00:04:04 - La condensa interna 00:05:14 - Conclusioni  ____________ Per richieste preventivi, scrivere a:   info@a2c.it
06:20
March 8, 2021
Domande e Risposte in 60 secondi - Marzo 2021
Se uno muore nella navicella spaziale che procedimento di decomposizione avviene? Di cosa sono fatti i fuochi d'artificio? È vero che la batteria di un cellulare deve essere sempre scaricata affinché sia usata in modo appropriato? Si usa ancora il tecnigrafo o ormai i disegni si fanno solo con il computer?
08:50
March 1, 2021
L'effetto Dunning Kruger e il rischio di fare da sé - in 5 minuti
Secondo uno studio del Dipartimento del Tesoro degli Stati Uniti su un campione di 25000 persone, 800 di questi sebbene avevano avuto un fallimento economico grave, mediamente si ritenevano più esperti degli altri in campo finanziario. Le persone spesso valutano erroneamente il proprio livello di competenza, credendolo molto più alto di quanto in realtà non sia. Questo oggi si chiama “Effetto Dunning-Kruger” e coinvolge prima o poi tutti. Si tratta di "conoscenza apparente" che può causare molti danni, in quanto ci si crede erroneamente competenti e di conseguenza si possono commettere errori fatali. L'unica soluzione è rivolgersi e confrontarsi con esperti di quello specifico settore.   Faccio un esempio divertente: nel 1995 un ladro a Pittsburgh negli Stati Uniti rapinò una banca in pieno giorno e senza maschera. Quando fu arrestato qualche giorno dopo rimase sorpreso perché a suo avviso era impossibile che fosse stato riconosciuto in quanto aveva cosparso la propria faccia con il succo di limone, che notoriamente era inchiostro simpatico. Può sembrare una barzelletta, ma è un fatto successo veramente. La perizia psichiatrica dimostro che non era pazzo.  Quattro anni dopo, nel 1999, gli psicologi Dunning e Kruger, dopo aver dopo aver letto le numerose testimonianze storiche tra cui Socrate e Darwin circa il fatto che "L'ignoranza genera fiducia in se più spesso della conoscenza" decisero di eseguire una serie di esperimenti sugli studenti dell'Università  Cornell a New York.  E' possibile quindi tracciare un grafico qualitativo sull'effetto Dunning-Kruger, che mette in relazione la conoscenza percepita e la competenza effettiva. Tracciando degli assi cartesiani con in ascisse la competenza e in ordinate la fiducia in se stessi, abbiamo un curva che presenta: - un picco iniziale, che possiamo definire "della sovrastima"  - successivamente una "valle dell'umiltà",  - seguita da una lenta e asintotica "crescita del consolidamento" - per finire all'"altopiano della saggezza". Cioè detto in termini semplici, quando una persona approccia un nuovo argomento in poco tempo ha l'impressione di esserne padrone. Successivamente quando si spinge un po' più avanti negli studi si rende conto di essere profondamente ignorante; ed a poco a poco se continua ad approfondire tende nel tempo ad aumentare molto lentamente sia la propria competenza e sia fiducia in se stessi.  Quando non si è realmente esperti di un settore, c'è il serio rischio di essere ingannati da se stessi. Ci tengo a precisare che prima o poi tutti incappano nell'effetto Dunning-Kruger; ad esempio, anche gli esperti in fisica delle particelle, potrebbero sovrastimarsi in capacità finanziarie e rovinarsi. L'unica soluzione è rivolgersi e confrontarsi con esperti di quel settore specifico. Perché solo affidandosi ad altri si ha la possibilità di avere un altro punto di vista e capire che la materia è più ampia di quanto inizialmente si pensi. Cioè passare dal "picco della sovrastima" alla "valle dell'umiltà". Concludo citando Confucio: la vera conoscenza sta nel conoscere il livello della propria ignoranza.   Per richieste preventivi, scrivere a:   info@a2c.it
04:44
March 1, 2021
L'effetto ombrello protegge dai campi elettromagnetici? - Miti da sfatare
L'effetto ombrello protegge un palazzo che ha un antenna sul tetto dai campi elettromagnetici? Non è assolutamente detto.  Innanzitutto precisiamo che l'effetto ombrello riguarda solo le antenne di telefonia mobile. Alcuni anni fa, ad esempio, mi capitò un caso di una persona che aveva sul tetto un antenna di un ponte radio e le intensità nel suo appartamento erano piuttosto rilevanti. Poi c'è il discorso dell'inclinazione e dello stato di manutenzione delle antenne. Per cui la protezione non la darei per scontata. Ipotizziamo una antenna di telefonia posta su un edificio alto. Solitamente il parco antenne è solitamente composto da 3 antenne strette e alte, poste circolarmente e da altre piccole antenne, di forma circolare, che hanno funzione di trasmissione dati. Ogni antenna emette un lobo, cioè un discoide solitamente di 18° in orizzontale ed 15° in verticale. Queste indicazioni però sono di carattere generale e chiaramente dipendono dallo specifico modello di antenna che è montato. Quindi normalmente vengono messe 3 antenne che emettono nei 3 lati, 3 discoidi. Di solito vengono messe in verticale, ma non è sempre così. Poniamo il caso che che queste 3 antenne non vengano montate precisamente in verticale, ma inclinate verso il basso. L'angolo che formano rispetto alla verticale viene detto Tilt. Più è alto questo angolo, cioè più è inclinato verso il basso il discoide e più la protezione del cosiddetto "ombrello "è bassa. Inoltre, se originariamente fossero montate in verticale, è possibile che in caso di mancata manutenzione della parte strutturale, in caso di vento forte potrebbero cedere qualche giunzione e modificare l'inclinazione. Quindi l'effetto di protezione dell'"ombrello" si ha solo in certe configurazioni dell'antenna e solo se nel tempo non c'è variazione. Infine c'è il discorso su dove finisca questo effetto di protezione.  Premetto che l'intensità del campo elettromagnetico è inversamente proporzionale al quadrato della distanza, per cui per edifici che si trovano ad una discreta distanza, in ogni caso non c'è problema. Però se l'abitazione è nello stesso palazzo o in uno vicino a dove si trova l'antenna, ma si 3trova all'interno di questo discoide, sebbene attenuato dal solaio in cemento armato, l'effetto è tangibile. L'effetto ombrello di solito protegge da un forte irraggiamento di campi elettromagnetici l'edificio sul quale è posta l'antenna di telecomunicazione. Però, come abbiamo visto ci possono essere delle circostanze che lo rendono con una apertura di protezione limitata. Il mio consiglio è di misurare sempre per precauzione l'intensità dei campi elettromagnetici. Inoltre, consiglio vivamente di rivolgersi a professionisti indipendenti.   Per richieste preventivi, scrivere a:   info@a2c.it
03:23
February 23, 2021
Come alleviare lo stress da 110% - in 5 minuti
Siamo in periodo in cui è variato il sistema di comunicazione. Prima, la comunicazione prevalente era "di persona", cioè si incontravano le persone e si scambiavano le idee. E questo valeva anche per i tecnici. Quindi se una persona aveva un dubbio si rivolgeva di persona al tecnico, per capirne di più e per poi prendere delle decisioni. Venendo a mancare il contatto umano, anche questi chiarimenti avvengono più di rado.  In aggiunta, ho notato che negli ultimi 6 mesi le persone sono anche frastornate da una comunicazione istituzionale che spesso si contraddice. Uno dei temi più controversi è l'ecobonus del 110%. Mediamente una volta a settimana negli ultimi 6 mesi l'Agenzia delle Entrate emana una circolare di risposta ai quesiti dei tecnici. E a volte queste risposte creano a loro volta più domande di quelle che risolvono. Quindi ogni proprietario di abitazione da un lato ha difficoltà di farsi consigliare dai tecnici, dall'altro ha informazioni di difficile interpretazione e quindi ha difficoltà a comprendere i rischi e le opportunità di questa iniziativa.  Tutto ciò inevitabilmente crea tensioni sia interne alla persona e sia all'esterno, ad esempio verso altri condomini o verso altri comproprietari. Cioè detto in altri termini il 110% crea stress. Partendo da questo presupposto, cercherò di allievare questa situazione facendo una fotografia e provando a fare una analisi dei rischi e delle opportunità. Quindi vi faccio 1 domanda per diminuire lo stress:"ho necessità di spendere meno per il riscaldamento o il raffrescamento della mia casa?". Se la risposta è "si" allora andiamo avanti. Se è "no" il mio consiglio è di non perdere tempo e di metterci una pietra sopra. Se invece si è più interessati anziché a risparmiare, a migliorare la qualità del riscaldamento, il mio consiglio è che si può procedere direttamente, già ora, alla sostituzione dei climatizzatori o della caldaia passando per le detrazione del 65% o del 50%; non è necessario passare per la pratica del 110%, che ha numerose insidie. Ripeto quindi la domanda per farla memorizzare, in modo che anche quando questo video sarà terminato e uno nelle scale vi chiede:"ma perché non facciamo il 110%?" voi abbiate sempre a mente che la domanda vera è un'altra e cioè:"ho necessità di spendere meno per il riscaldamento o il raffrescamento della mia casa?". Mi rivolgo quindi ora solamente a chi vuole procedere, perchè spende molto di gas o elettricità per il riscaldamento, faccio un riassunto semplificato: A maggio 2020 è stato introdotto l'ecobonus del 110% che riguarda i condomini e i proprietari di villette. Obbligatoriamente o si fa il cappotto (interno o esterno) oppure si installano le pompe di calore. In aggiunta si possono mettere impianti fotovoltaici o sostituire gli infissi. C'è un vincolo, però, che questi interventi riescano a migliorare la classe energetica. Parliamo dei rischi. Cominciamo con il dire che solo alcune tipologie di lavori vanno al 110%, il resto va al 50%.  Inoltre ci sono dei massimali per ogni tipologia.  C'è inoltre il rischio di dover pagare per delle spese che non avevamo preventivato.  Cioè riassumendo bisogna avere in chiaro che ci possono essere delle spese extra. Non è gratis. Infine ultimo rischio è l'errore di chi ci assiste, sia esso il tecnico, il commercialista, l'amministratore o la banca. Il consiglio che mi sento di dare è di diffidare da chi dice che è tutto gratis. L'ecobonus è una buona iniziativa, ma bisogna muoversi con cautela e bisogna rivolgersi a persone competenti, in questa maniera si annulla lo stress.    Per richieste preventivi, scrivere a:   info@a2c.it
06:47
February 22, 2021
Cenni di illuminotecnica - in 5 minuti
Sebbene può sembrare banale, avere una buona illuminazione serve sia alla salute dei nostri occhi e sia a lavorare e vivere in sicurezza. Approfondire quindi i concetti base dell'illuminotecnica può essere utile a tutelare la nostra salute e orientare le scelte sull'acquisto dei corpi illuminanti. Facciamo quindi prima una rapida carrellata delle tipologie più importanti di lampadine e poi approfondiremo i parametri chiave sia per la scelta e sia per la progettazione. Innanzitutto parliamo di temperatura di colore: abbiamo le luci fredde e le luci calde. È usanza indicarla con una Kappa che sta per grado Kelvin. Più è basso il numero e più la luce è calda e assomiglia alla luce delle lampade a incandescenza, ad esempio 2700 K fornisce una luce sul giallo. Più il valore è alto e piú la luce è fredda, ad esempio 5000 K da una colorazione sul bianco e 8000 K da una colorazione azzurra.  Tendenzialmente le luci calde inducono al rilassamento e sono consigliate nei luoghi di vita, mentre le luci fredde sono idonee alle esigenze dei luoghi di lavoro. Altro parametro fondamentale è il flusso luminoso misurato in lumen. Un parametro che assomiglia al Lumen, è il lux che è l'illuminamento. Che a differenza del lumen che simboleggia la quantità di luce, il lux ci dice di una determinata luce ne quanto arriva su una superficie.  Ad esempio il sole produce a terra circa 50.000 lux, mentre su un campo di calcio con l'illuminazione artificiale occorre avere circa 1000 lux a terra. Per misurarlo esiste un apparecchio che si chiama luxometro. Per la cronaca esistono delle tabelle di lux consigliati e per i luoghi di lavoro ci sono anche delle tabelle di lux obbligatori. Ad esempio, secondo la Uni En 12464 un tavolo di un ufficio dovrebbe essere illuminato con 500 lux.  C'è poi l'angolo del fascio luminoso, che è utile per verificare come si apre a ventaglio la luce emanata dalla lampada. I LED purtroppo hanno il difetto di essere direzionali, cioè hanno un angolo di apertura stretto e quindi diffondono male. Nell'ambito della progettazione illuminotecnica questo angolo viene disegnato su di un grafico chiamato curva fotometrica. Ed è utile, ad esempio, per progettare una fila di lampioni stradali o una serie di faretti. Si calcola dove finisce a terrà il fascio di luce e si fa cominciare il fascio di luce successivo dell'altro lampione. Infine parliamo dell'indice di resa cromatica, detto ICR, che ci dice quanto una lampada fa sembrare naturali gli oggetti che illumina. Una lampada potrebbe illuminare un oggetto e cambiarne il colore. Quindi la resa cromatica è una misura di errore tramite una percentuale di non alterazione cromatica. Ad esempio le lampadine a incandescenza hanno resa cromatica del 100%, cioè non alterano i colori. Le fluorescenti ce l'hanno circa al 80%. I Led vanno dal 75% al 95% a seconda della qualità costruttiva. Secondo la norma UNI 10380 per le abitazioni, i musei e gli ospedali la resa cromatica dovrebbe essere almeno del 90%.  Abbiamo dato dei cenni di illuminotecnica, prima di tutto per un uso consapevole delle fonti di illuminazione e poi anche come base per interagire con un progetto illuminotecnico. Per chi fosse interessato, l'A2C si occupa di progettazione illuminotecnica, sia per abitazione e sia per negozi o aziende.   Per richieste preventivi, scrivere a:   info@a2c.it
05:40
February 15, 2021
La Sick Building Syndrome (SBS) - Sindrome dell'edificio malato - in 5 minuti
La "Sick Building Syndrome", in italiano: "sindrome dell'edificio malato" è una manifestazione di malessere che coinvolge gli occupanti di un edificio, in relazione specificamente alla permanenza in quell'edificio. Il termine fu coniato il 1986 dall'OMS. Anche se non sembra, è problema molto comune e può avvenire sia nei luoghi di lavoro e sia nelle abitazioni. Perché occuparsene?  Perché ha un impatto devastante sia di tipo fisico e sia di tipo psicologico sulla nostra vita e sulla vita dei nostri cari. Questo malessere può essere dovuto ad una moltitudine di fattori che influiscono in modo devastante sul comfort degli ambienti e addirittura portano ad un quadro sintomatologico, che non riguarda una singola persona, ma la maggior parte delle persone che vivono in quell'ambiente; parliamo ad esempio di: polveri, composti organici volativi, formaldeide, gas Radon, Legionella,  acari, tossine, muffe alle pareti, campi elettromagnetici, rumore, amianto,  fumo di tabacco o di legna, odori sgradevoli, ossidi di zolfo o azoto,  monossido di carbonio o di elevata concentrazione di anidride carbonica. I sintomi sono per lo più di tipo respiratorio, cutaneo, di affaticamento, cefalea, riniti, sinusiti, e nei casi più gravi si può arrivare ad infezioni polmonari o addirittura al cancro. Il problema è che ce ne accorgiamo troppo tardi, perché purtroppo questi sintomi si sviluppano nel lungo periodo. Per chi vuole approfondire, consiglio il sito del Ministero della Salute:   http://www.salute.gov.it/portale/temi/p2_6.jsp?lingua=italiano&id=4404&area=indor&menu=salute  Purtroppo, ad oggi, non sono mai stati eseguiti specifici studi epidemiologici, ma secondo alcuni studi citati dal Ministero l'incidenza della Sick building syndrome è tra il 15% e il 50% degli edifici, nell'ambito dei luoghi di lavoro. E quindi rappresenta una criticità dall'impatto economico e sociale molto elevato, sebbene poco conosciuta. In ambito lavorativo, ovviamente, fluisce pesantemente sull'assenteismo e sulla qualità del lavoro. Purtroppo vivere o lavorare in un edificio che ci fa ammalare, pregiudica non solo la nostra salute fisica, ma anche quella psicologica.   Quindi, cosa fare in una abitazione o in un ambiente di lavoro? Il primo passo è la misurazione. Se si avverte il malessere, ma non si sa a cosa è dovuto, è necessario procedere per esclusione. Quindi innanzitutto si valuta la qualità dell'aria, in un certo periodo temporale di osservazione. Per la valutazione si può prendere come riferimento, ad esempio, lo standard IAQ (Indoor Quality Air), che è un indice internazionale della qualità dell'aria. Poi successivamente occorre procedere con le misure specialistiche. Si consiglia di iniziare con gli inquinanti che generano le conseguenze più gravi, cioè il gas Radon e i campi elettromagnetici. Dal sopralluogo si può valutare se ci può essere una sospetta presenza di Amianto. Dopo di che, si può  valutare, facendo il sopralluogo, le cause più probabili di disagio. Questo è frutto anche dell'esperienza del tecnico. Il secondo passo è la mitigazione o l'eliminazione delle cause. Come anticipato, per la maggior parte della cause, può essere risolto con la ventilazione naturale o con l'istallazione di apparecchi di ricambio d'aria automatici o in alcuni casi di semplici purificatori. A meno di casi particolarmente gravi, costa meno di quanto possiate pensare. Per chi è interessato, l'A2C si occupa dal 2008 di misurazione e bonifica, sia nei luoghi di lavoro e sia nelle abitazioni.   Per richieste preventivi, scrivere a:   info@a2c.it
05:36
February 8, 2021
Domande e risposte in 60 secondi - Febbraio 2021
Quali piante potrebbero svolgere una funzione di purificazione dell'aria? E' sbagliato tenere il telefono vicino a un bambino? Si può diventare energeticamente indipendenti con pannelli solari e batterie? Che temperatura massima si raggiunge sui dischi dei freni di una macchina?
09:09
February 1, 2021
Equo compenso per la progettazione in lavori privati (D.M. 17/06/2016) - in 5 minuti
A seguito del Decreto Bersani del 2006 e del Decreto Legge sulle liberalizzazioni del Governo Monti del 2012, si creata una criticità nel determinare il compenso dei tecnici in ambito privato. Cioè le parcelle non sono più soggette a tariffe professionali uniche, ma sono state aperte al mercato, con i suoi pro e contro. Questo ha comportato una corsa al ribasso che, come è naturale che sia, ha portato ad una diminuzione della qualità dei servizi tecnici. A danno sia dei professionisti, in termini di equo compenso, e sia dei committenti, in termini di qualità delle prestazioni tecniche. In sintesi il danno è grosso ed a rivolto a tutti. I frequenti errori di progettazione, che si possono riscontrare in giro per l'Italia, sono figli di quella scelta. Quindi, come valutare, nei lavori privati se un compenso è equo o meno? L'unica soluzione è assimilarli alla normativa in ambito delle opere pubbliche. E quindi, in particolare il D.M. 17/06/2016. Questo può essere utile anche, ad esempio, nell'ambito della detrazione del 110% a valutare se le spese di un tecnico siano o meno congrue. Il D.M. 17/06/2016 fornisce parecchi spunti interessanti, sebbene sia rivolto ai lavori pubblici e sia piuttosto macchinoso. Iniziamo a parlare di compenso orario, perché dove non si possono assimilare le voci del Decreto è necessario procedere con una valutazione oraria. All'art.6, comma 2 è riportato che per prestazioni non presenti negli allegati al Decreto, si deve tener conto dell'impegno del professionista, dell'importanza della prestazione e del tempo impiegato; mantenendosi tra il valore di massimo di 75€/h e il valore minimo di 50€/ora. Se non fosse convincente questo riferimento orario, a supporto c'è anche il D.M. Interno 02/03/2012 relativo alla tariffa dei VVF, in cui c’è il riferimento di un onere per il contribuente di 50€/h per l’attività di valutazione progetti in ambito antincendio. Quindi su base oraria, per un professionista tecnico laureato il compenso dovrebbe essere tra i 50€ e i 75€/ora. Passiamo ora al nocciolo del decreto. Bisogna consultare le macchinose tabelle riportate negli allegati. Il compenso CP è la sommatoria, per ogni categoria, dei prodotti tra: costo categoria opera V, per il grado di complessità G, per la specificità delle prestazioni Q, per il parametro base P. Quest'ultimo si calcola da un'altra formula che deriva dal costo della categoria. Quindi bisogna prendere gli allegati e cercare nelle tabelle la tipologia assimilabile di lavoro, che si sta facendo o si è fatto, e quali sono le categorie e le opere associate. Bisogna prendere nota dei parametri G nella tavola Z-1 e Q nella tavola Z-2. Poi bisogna assegnare alle singole tipologie di opere, di cui si sono trovati G e Q, il relativo costo V da computo metrico o contabilità, a seconda dei casi; e poi sviluppare la moltiplicazione e la sommatoria. Si ottiene quindi la stima del compenso dovuto al professionista. Concludendo. Premettendo che è obbligatoria l'offerta scritta, da parte del professionista, prima di iniziare le attività. Nel caso di lavori privati non esistono più le tariffe, e quando è necessario verificare la congruità di quanto chiesto in parcella, come ad esempio nel caso del 110%, c'è necessità di un punto di riferimento. Questo è dato dal D.M. 17/06/2016, che è stato concepito per i lavori pubblici, ma è assimilabile.  Come abbiamo visto è macchinoso, e per chi fosse interessato l'A2C ha realizzato un foglio di calcolo per rendere il conteggio veloce e automatico.    Per richieste preventivi, scrivere a:   info@a2c.it
04:29
January 25, 2021
Gli stili comportamentali - in 5 minuti
Capire gli stili comportamentali dei nostri interlocutori, ci permette di entrare più velocemente in empatia e quindi avere maggiori probabilità di collaborazione e sinergia. Qualche mese fa parlavo con il responsabile di una agenzia immobiliare e mentre parlavo, osservavo anche i tipi di clienti che entravano nell'agenzia; e vedevo che erano persone con un approccio molto diverso tra loro. Alcuni sembravano agitati e volevano subito delle risposte; altri erano molto cauti e parlavano molto lentamente. Allorchè, visto che avevo confidenza, chiesi a questo responsabile come facessero a gestire in maniera così pronta questi diversi approcci. Lui mi rispose che aveva organizzato e suddiviso i due agenti per tipologia; cioè uno di questi, che era un ragazzo molto dinamico, intercettava all'ingresso quei clienti con maggiore verve; mentre invece l'altro che era un tipo più riflessivo, si occupava dei clienti più pacati. A seguito di questo, ho approfondito che è utile e possibile schematizzare gli stili comportamentali, così da entrare più velocemente e meglio in connessione con le persone, siano essi clienti, fornitori o collaboratori. Nel 1928 lo psicologo Wiliam Marstom nel suo libro "Emotions of Normal People" sviluppò il modello DISC, dove DISC è un acronimo, che tradotto in italiano sta per: Decisi, Influenti, Stabili e Cauti. Si tratta dei principali 4 stili comportamentali delle persone.
05:15
January 18, 2021
Il Radon si trova solo al piano terra o interrato? - Miti da sfatare
No, purtroppo no. Premesso che il gas Radon si trova in piccole concentrazioni in tutti gli ambienti perché si muove insieme all'aria.  La cosa importante da sapere è che si sviluppa anche da alcuni materiali da costruzione. Cito per importanza il tufo, ma non è il solo; c'è anche il granito, il porfido, il lapillo, la pozzolana, la pietra lavica, il marmo peperino e alcune sabbie, argille e gessi. Dove ci possono essere tracce di Radio, là c'è anche il Radon. Comunque si tratta per lo più di materiale di origine vulcanica. C'è da dire che statisticamente è raro trovarlo dal secondo piano in su, però personalmente ho trovato concentrazioni notevoli di gas Radon anche al quinto piano di un edificio in tufo; oppure, alcuni anni fa, in un sottotetto in cui era stato disposto uno strato di lapillo come isolante. In questi casi, ad esempio, non serve a nulla isolare il pavimento. Un'altra casistica è la risalita dalla tromba delle scale per effetto camino. Cioè come nel camino, se la base dell'edificio è caldo e la sommità è freddo, c'è un moto d'aria ascensionale, che può trascinare il Radon agli ultimi piani. Non mi voglio dilungare perché le casistiche di provenienza sono almeno una ventina, però voglio accennare che esiste anche la possibilità del trasporto attraverso l'acqua. Sia di scarico e sia di adduzione. Ad esempio, è il caso di cisterne sotterranee o di pozzi dove il Radon si solubilizza in acqua e può essere portato dalle tubazioni anche all'ultimo piano. Preciso che sono comunque casi molto rari. Concludendo. Il mio consiglio è misurare il Radon in tutte le abitazione. E' un operazione che si fa una volta e non costa molto; dopo di che si può lasciare l'immobile ai propri figli con un pensiero in meno. Per chi fosse interessato l'A2C dal 2008 opera sia nella misurazione e sia nella bonifica.    Per richieste preventivi, scrivere a:   info@a2c.it
02:24
January 12, 2021
La gestione del tempo - in 5 minuti
Il tempo è la risorsa più preziosa che esista. Occuparsi della gestione del tempo significa fare di più e quindi guadagnare di più, e significa anche dare la priorità alle cose veramente importanti. Esistono vari software e strumenti per gestire il tempo, come ad esempio una "To Do List" o Google Calendar, però prima affidarsi a questi mezzi è necessario avere una visione di insieme del modo a cui dare le priorità alle azioni. Uno degli strumenti al contempo più semplici e più efficaci, per capire i criteri con cui gestire il proprio tempo, è la matrice del generale Eisenhower, comandante degli eserciti alleati durante la seconda guerra mondiale. Il concetto chiave della matrice di Eisenhower è che :"Ciò che è importante raramente è urgente e ciò che è urgente raramente è importante". Questo significa che solo poche cose si debbono fare subito. Per il resto si può programmare, delegare o non fare. Prendiamo un foglio di carta e tracciamo degli assi cartesiani, mettiamo sull'ascisse l'urgenza e sull'ordinata l'importanza. Avremo quindi 4 quadranti: - importante e urgente  - importante e non urgente - non importante e urgente - non importante e non urgente Facciamo degli esempi: - sono attività importanti e urgenti: i progetti in scadenza o le telefonate ai clienti, o i pagamenti in scadenza; cioè sono attività da eseguire al più presto e di persona; il concetto base da cui partire è: non farti gestire dagli impegni, ma gestiscili tu. - sono importanti e non urgenti: i corsi di formazione, i controlli medici, le nuove opportunità di business; cioè sono attività da programmare; il concetto è che bisogna gestirli con una "To Do List", cioè una lista di cose da fare con priorità e scadenze; che può essere sia banalmente cartacea e sia con un software. Ad esempio Google Calendar o Google Task possono essere molto utili, oltre ad essere gratuiti. - non importanti e urgenti: le riunioni superflue o le mansioni che non ci competono; cioè sono attività da delegare; il concetto chiave è che non sono importanti e quindi rubano tempo alle attività importanti, per cui quando è possibile è meglio farle fare ad altri o in estrema alternativa non farle. - non importanti e non urgenti: rispondere a email o telefonate pubblicitarie, sfogliare TIK TOK o i profili Facebook; sono quindi attività da eliminare; il concetto è che non solo fanno perdere tempo ma possono essere una scusa psicologica per non fare cose importanti ma noiose. Tutto ciò può essere riassunto con l'acronimo TIME, dove  - T sta per Tassativo - I sta per Indispensabile - M sta per Mansione  - E sta per Eliminabile. E corrispondono ai 4 quadranti che abbiamo visto. Il trucco per gestire in modo più produttivo il tempo e non sprecarlo. Quindi, in primo luogo eliminare le distrazioni, poi delegare le cose non importanti. Ed infine quelle importanti, gestirle con una To Do List. Secondo Eisenhower quello che rimane, cioè quello che è sia urgente e sia importante, si tratta di pochissime attività e quindi si possono gestire facilmente. Quindi, riassumendo, la cosa a cui porre massima attenzione è che le cose importanti devono essere gestite con la To Do List e non devono scadere, e quindi non devono diventare anche urgenti. Facendo in questo modo non sono gli impegni che gestiscono noi, ma siamo noi a gestire gli impegni.   Per richieste preventivi, scrivere a:   info@a2c.it
04:43
January 11, 2021
Domande e Risposte in 60 secondi - Gennaio 2021
È una buona idea oggi comprare un'auto elettrica? La combustione ad idrogeno è green? Tenere lo smartphone vicino al letto di notte è sbagliato?  Se un astronauta muore nello spazio, il corpo si decompone?
09:36
January 6, 2021
Bonus Idrico (dal 1 gennaio 2021) - in 5 minuti
A seguito della Legge n.178 del 30/12/2020 vengono stanziati 20 milioni di Euro per l'istituzione di un cosiddetto "bonus idrico".  Perché può essere utile saperlo? Perché può essere una piccola opportunità per chi sta cambiando sanitari o rubinetteria. Si tratta di piccole cifre messe a disposizione, però può essere di vantaggio. All'articolo 1, comma 61 si descrive che il fine è il risparmio delle risorse idriche.   Link per approfondimento: https://www.gazzettaufficiale.it/atto/serie_generale/caricaDettaglioAtto/originario?atto.dataPubblicazioneGazzetta=2020-12-30&atto.codiceRedazionale=20G00202&elenco30giorni=false Entro il 31/12/2021 le persone fisiche possono usufruire di un bonus di 1000€ per sostituzione sanitari e relative opere murarie, e per i rubinetti di bagno e cucina. Questo bonus idrico non costituisce reddito imponibile, su cui pagare le tasse e non necessita di essere comunicato per l'ISEE. Viene detto che entro il 1 marzo 2021 verrà emanato un Decreto attuativo con maggiori informazioni. Vediamo nel dettaglio la Legge ed in particolare i commi da 61 a 65.  E' una piccola opportunità, però può essere vantaggiosa. Entro il 1 marzo 2021 verrà emanato un Decreto attuativo con maggiori informazioni. Il mio consiglio è di attendere, per capire meglio come accedere e se sono necessarie delle particolari operazione per beneficiarne. Nel frattempo può essere conveniente iniziare a valutare questa opportunità.
04:38
January 5, 2021
L'analisi SWOT delle forze e delle debolezze - in 5 minuti
Per prendere una decisione, su un progetto o un'impresa, uno dei metodi più semplici ed efficaci è l'analisi SWOT. Conoscerla può essere utile a prendere delle decisioni ben ponderate. Che cos'è? E' un'analisi dei punti di forza e debolezza con l'aiuto di un diagramma, dove SWOT è l'acronimo delle iniziali in inglese di Forza, Debolezza, Opportunità e Minacce.  I punti di forza e di debolezza riguardano gli aspetti interni all'organizzazione, mentre le minacce e le opportunità riguardano l'interazione con l'esterno. Si costruisce una semplice tabella come quella mostrata a video, divisa nelle quattro regioni dell'acronimo SWOT e cioè: forza (Strength), debolezza (Weakness), opportunità (Opportunity) e minacce (Threats). Queste vanno divise, come abbiamo già accennato in interne/esterne sulle ordinate e in utili/dannose sulle ascisse. Si definisce un obiettivo che si vuole raggiungere tramite un progetto o un percorso. Facciamo un esempio: aumentare le vendite attraverso la creazione di un sito di e-commerce per la propria azienda o negozio. Analizziamo quindi questi quattro elementi andandoli a scrivere in questa tabella. Iniziamo analizzando l'interno dell'organizzazione e vediamo le forze e le debolezze. Per sviscerarle consiglio la traccia del modello PRIMO-F: che sta per: Persone, Risorse, Innovazione, Marketing, Operazioni e Finanza.  Ad esempio, per creare l'e-commerce serviranno delle competenze informatiche e questa potrebbe essere una debolezza, mentre per inserire le foto dei prodotti e cosa scrivere come descrizione, magari c'è già una grossa competenza perché magari abbiamo da parte già del materiale e quindi lo inseriremo come punto di forza. Anche l'entusiasmo può essere inserito come punto di forza. Passiamo quindi all'analisi dell'esterno e prevediamo le minacce e le opportunità. Per sviscerarle consiglio la traccia del modello PEST ovvero: Politica, Economia, Sociale e Tecnologia. Per quanto riguarda le minacce, ad esempio continuando l'esempio potremmo individuare le minacce informatiche, come ad esempio il furto dei dati di carta di credito dei clienti, oppure la pubblicità negativa di una recensione sfavorevole di un cliente.  Fatta questa combinazione di punti, i responsabili dovranno stabilire rispetto a questa prospettazione se l'obiettivo è raggiungibile o meno.  Nel caso si proceda, questa analisi è la base di partenza per una azione di miglioramento dell'attuale condizione e quindi creare una strategia. Quindi occorre porsi 4 domande: - come possiamo utilizzare e sfruttare ogni forza? - come possiamo migliorare ogni debolezza? - come si può sfruttare e beneficiare di ogni opportunità? - come possiamo ridurre ciascuna delle minacce? Dalla risposta a queste domande si ottengono gli spunti di miglioramento che l'organizzazione deve intraprendere. L'analisi SWOT ci fornisce una fotografia dell'azienda e una strategia per raggiungere un obiettivo. Potenzialmente si potrebbe utilizzare anche per fare una fotografia di un determinato concorrente, in modo da differenziarci. Però, attenzione! Non bisogna confondere come dati oggettivi delle emerite valutazioni. Per limitare questo pericolo da circa 10 anni nell'A2C abbiamo sperimentato e applicato il metodo dei 6 cappelli, che sarà oggetto di un altro video, e che consiglio.   Per richieste preventivi, scrivere a:   info@a2c.it
05:23
January 4, 2021
Trigenerazione - in 5 minuti
Conoscere la Trigenerazione permette di coglierne le grandi opportunità in ambito soprattutto industriale. Un cogeneratore è un apparecchio che permette, attraverso un motore, di produrre contemporaneamente sia energia elettrica e sia calore. La Trigenerazione è un particolare sistema di Cogenerazione, nel quale in aggiunta si produce anche energia frigorifera, quindi fa freddo, caldo e corrente elettrica. Il vantaggio della cogenerazione e della trigenerazione sta nel non sprecare il caldo e il freddo che si ottiene producendo elettricità con un motore a combustione interna. Questo evitare lo spreco porta a maggiore efficienza e quindi ad un vantaggio economico. La produzione combinata termica e elettrica può incrementare l'efficienza di utilizzo del combustibile fino all'80%; a ciò corrispondono minori costi per l’approvvigionamento del combustibile e minori emissioni di inquinanti e di gas ad effetto serra rispetto alla produzione separata di elettricità e di calore. Il Parlamento Europeo individua nella Cogenerazione e nella Trigenerazione una delle soluzioni tecniche più efficaci per soddisfare il raggiungimento degli obiettivi del Protocollo di Kyoto. L'efficienza del ciclo (COP - coefficient of performance), varia da 0.7 a 1.3. Ad esempio, per un consueto impianto di trigenerazione, l'emissione di anidride carbonica per kWh prodotto è di circa 250 g; per cui è possibile individuare tale tecnologia come impianto a basso impatto ambientale.   I sistemi di trigenerazione possono essere progettati per funzionare con qualsiasi fonte primaria di calore (ad esempio idrogeno, gasolio o gas metano), e ad oggi risultano economicamente convenienti per poter essere adottati diffusamente. I principali vantaggi della trigenerazione sono: - la maggiore energia elettrica disponibile; - la possibilità di utilizzo del freddo e del caldo calore nella climatizzazione o nel processo produttivo aziendale; - infine la defiscalizzazione del combustibile: viene applicata l’accisa ridotta alla totalità del combustibile utilizzato per alimentare il gruppo; questo vantaggio si massimizza con l’utilizzo di gas metano in quanto viene defiscalizzato totalmente. I costi di un impianto di Trigenerazione sono compresi tra i 2000 e 3000 € per kW installato e grazie alla defiscalizzazione del metano, i tempi di ritorno dell’investimento risultano circa tra i 3 e i 5 anni. Finora abbiamo parlato dei benefici e anche dei costi, però ci si potrebbe chiedere perché non siano così diffusi questi impianti. La criticità sta nel fatto che la trigenerazione produce contemporaneamente acqua fredda, acqua calda ed elettricità. E questo non è detto che serva. Cioè per la climatizzazione o serve il freddo o il caldo. Per questa ragione consiglio di ipotizzarli soprattutto in impianti industriali dove per il processo produttivo, oltre alla corrente elettrica, serva una fonte calda e fredda. Un esempio classico è l'industria dei biscotti, dove oltre a cuocere il biscotto, occorre anche raffreddarlo, per cui la trigenerazione è perfetta allo scopo. Se può interessare, alcuni dei tecnici che collaborano con l'A2C nel corso degli anni si sono specializzati sia nella cogenerazione e sia nella trigenerazione e sono a disposizione per analisi di fattibilità e progetti.    Per richieste preventivi, scrivere a:   info@a2c.it
05:22
December 28, 2020
Se non ho la dichiarazione di conformità? - Miti da sfatare
Può succedere di perdere la dichiarazione di conformità dell'impianto elettrico, del gas o del riscaldamento, e contemporaneamente non riuscire a contattare l'installatore dell'epoca.  In questo caso, è per forza necessario rifare tutto o parte dell'impianto per riavere una dichiarazione di conformità?  Assolutamente no, se l'impianto è stato fatto prima del 2008.  Nel caso l'impianto sia antecedente all'aprile del 2008 si può incaricare un ingegnere, specializzato in impianti, di fare un sopralluogo e verificare il buon funzionamento e il rispetto di tutte le normative tecniche. Alla fine di questi test verrà redatto una Dichiarazione di Rispondenza, che sostituisce la dichiarazione di conformità. E che quindi potrà essere utilizzata per ottenere: la certificazione di agibilità oppure allegarla agli atti di vendita o affitto. Questo in virtù dell'art.7 del DM. 37/2008.  Preciso che questo articolo dice che non tutti i tecnici lo possono fare, ma solo chi può dimostrare almeno 5 anni di esperienza nella progettazione di quella specifica tipologia di impianto.  La cosa che pochissimi sanno, anche tra gli addetti ai lavori, è che la Dichiarazione di Rispondenza, detta anche DIRI, non certifica la conformità alle normative attuali, ma alle normative dell’epoca di costruzione, anche se ora sono abrogate. Questo può significare un grande risparmio di soldi. Perché in questo modo nessuno ci chiede di sostituire i componenti perché attualmente non sono più a norma; cosa che succederebbe se ci si rivolgesse ad un semplice installatore.  La Dichiarazione di Rispondenza è una soluzione economica in caso si sia smarrita la dichiarazione di conformità degli impianti, ma vale solo se l'impianto è stato fatto prima del 2008.  Per chi può interessare da oltre 12 anni gli ingegneri dell'A2C si occupano di progettazione di impianti, sia civili e sia industriali. E sono quindi a disposizione per le verifiche ed eventualmente, nel caso andassero a buon fine, ad emettere le dichiarazioni di rispondenza.    Per richieste preventivi, scrivere a:   info@a2c.it
02:52
December 22, 2020
Impianti Geotermici - in 5 minuti
Conoscere le caratteristiche degli impianti geotermici può essere una occasione per coglierne le grandi opportunità. Esistono due tipi di impianti geotermici: quello che sfrutta le acque termali o i fenomeni vulcanici, che si può applicare solo in queste ristrette aree, e quello a "bassa entalpia", che valorizza il sottosuolo come serbatoio termico, dal quale estrarre calore durante la stagione invernale ed al quale cedere calore durante la stagione estiva.  Cioè, la tipologia a "bassa entalpia" sfrutta la temperatura costante che il terreno ha lungo tutto il corso dell'anno; ad esempio, ad un centinaio di metri di profondità, si riescono ad avere circa 20°C costanti sia di inverno e sia d'estate. E tutto questo è gratis. Di conseguenza consiglio di orientarsi esclusivamente a impianti geotermici a bassa entalpia a sonde verticali. Un impianto geotermico a bassa entalpia è fatto da: - un gruppo di sonde di scambio calore con il terreno; che consistono in un insieme di tubazioni in polietilene ad alta densità (HDPE), collegate in parallelo, nelle quali circola un fluido termovettore e che rappresentano le batterie di scambio del calore; questo geoscambiatore valorizza l’energia termica presente nel sottosuolo. - la centrale termica, che oltre ad avere una pompa che fa circolare l'acqua e glicole nelle sonde permette di conservare l'energia sotto forma di acqua calda in 2 o più serbatoi e che è anche dotata della pompa di calore a funzionamento elettrico che sopperisce ad eventuali fabbisogni supplementari rispetto a quello che può essere tratto dalle sonde geotermiche. - i terminali di erogazione, che è consigliabile siano o dei ventilconvettori oppure un impianto a pavimento. E' possibile utilizzare anche i termosifoni, ma occorre stare attenti al fenomeno della condensa in estate, per cui sono sconsigliati.   L'installazione di un impianto geotermico a bassa entalpia, a sonde verticali, è particolarmente consigliato per gli edifici di nuova costruzione, poichè risulta più agevole posare in opera il parco sonde in prossimità della struttura. In caso di edifici esistenti, occorre valutare attentamente quelle che possono essere le interazioni con le strutture di fondazione e l'accessibilità delle trivelle al luogo di carotaggio. Dal punto di vista della manutenzione, gli impianti presentano una estrema longevità ed una scarsa necessità di intervento (possono funzionare senza problemi anche per un centinaio d'anni, a patto di sostituire gli elementi della centrale termica) I principali benefici, rispetto a soluzioni tradizionali di riscaldamento, sono: - l' ottenimento di energia termica a minor costo (COP/EER= 5 circa) durante tutto l'anno;  - si mantiene lo stesso impianto di distribuzione del calore, sia in riscaldamento e sia in raffrescamento; - c'è assenza di interventi di manutenzione sostanziale, per oltre 20 anni. Per quanto riguarda i costi, per un impianto dimensionato su 1 nucleo familiare medio, il costo medio di una pompa di calore della potenza di 14 kW, con annessa centrale termica, è di circa 7.000€; a ciò occorre aggiungere i costi delle sonde, della progettazione e della perforazione, stimabili in circa 20.000€. Per impianti più grandi, destinati a più unità abitative contemporaneamente, i costi sono solitamente inferiori a 25.000€/nucleo familiare. Se può interessare l'A2C ha progettato nel 2011 il primo impianto geotermico della città di Salerno ed è a disposizione per eventuali progetti ed anche per una analisi di fattibilità preliminare.   Per richieste preventivi, scrivere a:   info@a2c.it
05:14
December 21, 2020
Domande e Risposte in 60 secondi - Dicembre 2020
Passare dal 50% al 65% di detrazione per la caldaia? Con il 65%, posso non installare le valvole termostatiche? Pro e contro del riscaldamento centralizzato? La vita dell'uomo su Marte sarebbe ora sostenibile? Se avete altre domande, scrivetele nei commenti.
04:09
December 16, 2020
Fotovoltaico - in 5 minuti
Capire come funziona il fotovoltaico può aiutare a coglierne le opportunità e nel contempo a rischiare in modo consapevole. Un impianto fotovoltaico sfrutta l'energia del sole per produrre corrente elettrica. Gli impianti fotovoltaici si possono dividere in due famiglie: impianti ad isola e impianti connessi alla rete. Quelli ad isola sono principalmente utilizzati nelle baite di montagna e sono a se stanti. Tutti gli altri, invece, sono connessi alla rete elettrica nazionale attraverso un contatore di produzione. Esistono vari meccanismi di incentivo; l'energia prodotta in eccesso rispetto ai propri consumi verrà valorizzata al prezzo di mercato di circa 0,1 €/kWh. Mentre l'energia consumata quando c'è il sole, per quanto riguarda la quota prodotta dall'impianto, viene autoconsumata e quindi non si paga al gestore dell'energia, perché si produce e consuma sul posto. Per quel che riguarda l'installazione, in caso di impianti posti su terreno o tetto piano, solitamente i pannelli vengono distribuiti su più file, distanziati in modo regolare ed inclinati verso il sole. L'inclinazione dipende dalla latitudine, in Campania ad esempio l'ottimo si raggiunge a 30° di inclinazione.  Per quanto riguarda l'installazione di una batteria di accumulo, abbiamo realizzato diversi impianti e posso dire che è una ottima soluzione solo per determinate tipologie di utente. Questo perché periodicamente le batterie vanno sostituite e quindi prima di decidere è necessario fare un effettivo bilancio costi / benefici, tenendo conto anche del costo di sostituzione delle batterie. Oltre al risparmio sulla bolletta per autoconsumo e all'eventuale vendita di energia, nell'installazione di impianti fotovoltaici ci sono anche risvolti vantaggiosi meno espliciti, come ad esempio: - si può usufruire di ulteriori vantaggi economici in caso di contestuale sostituzione di coperture in Amianto; - il proprio immobile aumenta di valore e comunque l'impianto rappresenta un elemento che valorizza l'immobile; - può essere utile in abbinamento ad una colonnina elettrica di ricarica, in modo da ricaricare l'auto a costo zero; - infine, non ultimo per importanza, si riducono le emissioni di gas serra. Accanto a tutti questi aspetti positivi, per equilibrio occorre però mettere in luce anche i possibili rischi: - bisogna tenere a mente che i pannelli possono essere danneggiati dai fulmini, dalla grandine o in qualche caso dall'infiltrazione di acqua all'interno. - oppure la presenza di polvere o foglie può far diminuire la produzione anche del 10%. Per affrontare e superare questi rischi è conveniente far verificare ad un tecnico periodicamente la produttività dell'impianto, sia in termini di produzione totale e sia sulla presenza di guasti che possono portare a un rottura dei componenti. In questi termini l'A2C, effettua da oltre 10 anni la verifica di produttività degli impianti, anche per piccoli impianti residenziali.   Per richieste preventivi, scrivere a:   info@a2c.it
05:33
December 14, 2020
Si può fare a meno del progetto? - Miti da sfatare
Si può fare a meno del progetto? La risposta breve è: raramente. Fermo restando che il progetto è obbligatorio per legge, in linea generale si può fare a meno della progettazione solo se l'opera da realizzare è molto semplice o è standard, oppure si tratta di una attività di manutenzione. Cioè se il muratore, il fabbro, l'idraulico o l'elettricista, su richiesta del committente, vuole prendersi questa responsabilità, può farlo per le opere semplici, ma poi ne risponde direttamente in termini di funzionalità e di eventuali danni che l'opera può generare. Qualcuno potrebbe dire: si, ma ne risponderebbe comunque Non è proprio così, perchè se c'è un progettista o addirittura nelle opere più complesse c'è anche un direttore dei lavori ed un collaudatore, l'esecutore ne risponderà solo per errori che ha commesso direttamente e non anche: sulla scelta dei materiali, sulla loro combinazione o su scelte di composizione complessiva dell'opera. Facciamo un esempio semplice che possano comprendere tutti: un impianto elettrico domestico da 3 Kw. Non è obbligatorio il progetto da parte di un progettista, ma per il DM 37/08 il progetto è obbligatorio e può essere fatto anche dall'elettricista.  Sono tutte scelte che l'elettricista si dovrà accollare e normalmente già si accolla. In generale, dal punto di vista del committente, il non avere un progettista lo espone ad un triplice rischio: 1) da un lato, un'opera non attinente ai propri fabbisogni  2) oppure un'opera che non soddisfa i requisiti di sicurezza o di legge (cosa non improbabile) 3) dall'altro un'opera con costi faraonici, perchè l'esecutore nel prendersi le responsabilità può decidere di non rischiare e installare il massimo possibile. No Quindi sintetizzando siamo ad un bivio tra qualità e prezzo. Il tecnico progettista è un arbitro che, dopo aver valutato i fabbisogni, con la sua decisione stabilisce con equilibrio il compromesso tra prezzo e qualità; e nel contempo scarica l'esecutore di alcune responsabilità. Per quanto riguarda invece gli impianti, per il DM 37/08 il progetto è sempre obbligatorio. L'unica particolarità è che sotto alcuni limiti, di cui ora parleremo, è stesso l'esecutore che si occupa del progetto (cioè l'elettricista, l'idraulico,...). In questi casi si può fare a meno del tecnico progettista, ma non del progetto. Vediamo dal DM 37/08 i limiti da cui è obbligatorio incaricare un tecnico progettista: - per gli impianti elettrici è obbligatorio, per potenze maggiori di 6 kW, oppure per luoghi di lavoro di oltre 200 m2; - per gli impianti di riscaldamento/climatizzazione è obbligatorio quando si superano i 46,5 kW. - per gli impianti del gas è obbligatorio quando si superano i 50 kW. - per gli impianti antincendio è sempre obbligatorio quando l'attività è soggetta a VVF. Questo elenco non è esaustivo, ma serve a dare i riferimenti più importanti.  Concludendo, si può fare a meno del progetto solo se l'opera da realizzare è molto semplice, oppure se si tratta di manutenzione. In tutti gli altri casi il progetto è obbligatorio per legge. Ma se anche non fosse obbligatorio, è sempre consigliato rivolgersi ad un progettista per 3 motivi - ottenere un'opera che risponde alle proprie necessità - evitare conflitti di interesse dell'esecutore - risparmiare soldi, perchè si progettano e si fanno installare solo gli elementi necessari.      Per richieste preventivi, scrivere a:   info@a2c.it
05:22
December 8, 2020
Rilevatori Incendi - in 5 minuti
Il rilevamento automatico degli incendi è indispensabile per le attività a maggiore rischio incendi. Il concetto chiave è che se si agisce subito sul fuoco, si riesce facilmente a spegnerlo, mentre in caso di non intervento in una decina di minuti potrebbe divampare e diventare ingestibile e portare molti danni a persone e a cose. Di conseguenza per quelle attività dove è più probabile si sviluppi un incendio è consigliabile installare dei sistemi di rilevamento automatico, collegati con una centralina di allarme. Esistono vari tipi di dispositivi e la scelta dipende dal tipo di struttura e dal tipo di combustibile presente; abbiamo: 1) Rilevatore ottico di fumo 2) Rilevatore di fumo a ionizzazione 3) Rilevatori a campionamento 4) Rilevatori di fiamma 5) Rilevatori di temperatura. I dispositivi di rilevamento vengono di solito installati a soffitto, perché sia il fumo e sia il calore si spostano verso l'alto. Tutti i tipi di rilevatori hanno dei circuiti elettronici protetti dal calore in modo da evitare i falsi allarmi.   I dispositivi di rilevamento ottico del fumo sono basati su un fenomeno fisico chiamato effetto Tyndall.  Segnalo che questi rilevatori funzionano bene con il fumo chiaro, mentre hanno difficoltà con i fumi scuri, per cui per la scelta bisogna valutare il combustibile presente nell'ambiente che tipo di fumo faccia.   I rilevatori di fumo a ionizzazione reagiscono a tutti i tipi di fumo, compreso i fumi invisibili, come ad esempio quelli prodotti dall'alcool etilico. Al suo interno sono presenti due elettrodi posti in vicinanza di una sorgente radioattiva.   I rilevatori ad aspirazione aspirano l'aria dagli ambienti per mezzo di ventole e la convogliano verso un rilevatore. Questo tipo di rilevatore si usa ad esempio nelle sale di elaborazione dati, dove è necessaria una velocissima rilevazione di incendio.  I rilevatore di fiamma invece sono rilevano la presenza di radiazione infrarossa o ultravioletta emessa dall'incendio. Si usano di solito per depositi di combustibili liquidi o solidi altamente infiammabili in cui la produzione di fumo è un effetto secondario e la rilevazione veloce è importante.  I rilevatori di temperatura segnalano il superamento di una soglia prefissata oppure il rapido aumento della temperatura. Il principio di funzionamento è l'apertura di un contatto elettrico per effetto dell'incremento di temperatura, ad esempio tramite una lamina bimetallica, che si flette a causa dell'aumento di temperatura. Oppure è presente un elemento metallico fusibile che si fonde arrivato alla sua temperatura di fusione. Questo contatto genera l'allarme.  I rilevatori automatici di incendi possono dare velocemente l'allarme e permettere di agire velocemente per spegnere un incendio. Sono necessari nelle attività a maggiore rischio incendi e portano benefici sia a salvare vite umane e sia a tutelare il luogo dove si trovano. In alcuni luoghi sono obbligatori da normativa di prevenzione incendi; però si può valutarne l'installazione ovunque, se si vuole una protezione superiore dagli incendi.  E' consigliabile affidarsi ad un professionista in prevenzione incendi in modo da scegliere il giusto numero e la giusta tipologia.  Per chi è interessato, nell'A2C ci sono tecnici abilitati alla prevenzione incendi che possono dare supporto a riguardo.    Per richieste preventivi, scrivere a:   info@a2c.it
04:53
December 7, 2020
L'intervento con il 110% è gratis? - Miti da sfatare
L'intervento con il 110% è gratis? Rispondo subito: NO. Innanzitutto ci sono dei limiti di spesa per gli interventi, quindi tutto quello che eccede, occorre pagarlo. Poi solo alcuni lavori possono beneficiare del 110%, il restante va al 50%. Quindi la restante metà occorre pagarla di tasca propria. Ad esempio per quanto riguarda le mura esterne o gli infissi, se questi elementi rispettano i criteri di risparmio energetico, possono beneficiare del 110% sia esso sotto forma di detrazione fiscale o sia come cessione del credito tramite la banca; ma ad esempio la modifica dei muri interni o rifare il bagno può al massimo beneficare del 50%. Non esiste l'ipotesi che si possa ristrutturare una intera casa a costo zero. Magari alcuni potrebbero aver la cattiva idea di imbrogliare e far caricare all'impresa maggiormente il costo della facciata per fare altri lavori. Non è possibile. Perché ci sono dei vincoli di prezzo unitario. Ad esempio non si può dire che il cappotto esterno possa costare 200€/m2 perché nell'allegato I del Decreto 6 agosto 2020 è riportato che il limite è di 150 €/mq. Parliamo ora dell'acconto all'impresa. Facciamo l'esempio della cessione del credito per l'intermediazione di una banca, chi anticipa i soldi all'impresa per l'acconto iniziale, che di solito è del 30%? La banca pagherà con il meccanismo degli stati di avanzamento, per cui se si sta iniziando non si è realizzato nulla e quindi non spetta alla Banca erogare l'anticipo. Chi paga allora?  Se non si vuole versare questo acconto del 30% occorre fare un mutuo e ovviamente gli interessi si pagano a parte perchè esulano dalla detrazione. Inoltre se si passa per l'intermediazione di una banca, dal 110% occorrerà scalare il compenso della banca; e non è detto che realmente sia solo il 10%. Infine accenno solo velocemente al fatto che non è detto che tutto fili liscio. Non voglio gettare un ombra di pessimismo e non voglio con questo dire che sia probabile. Però qualcuno tra l'amministratore di condominio, l'impresa, il tecnico o il commercialista, potrebbe commettere un errore. Non è detto che questo errore sia fatale; però poi se l'Agenzia delle Entrate rifiuta questo beneficio, i danni sono dell'ordine di diverse decine di migliaia di euro. E di fatto non c'è assicurazione che tenga, almeno nell'immediato. Sicuramente si potrebbe intentare una causa civile o penale verso chi ha commesso l'errore, però nel frattempo la detrazione è revocata per sempre, da subito. Il consiglio di base che mi sento di dare è di diffidare da chi dice che è tutto gratis e che è tutto facile. E' una buona iniziativa, ma bisogna muoversi con i piedi di piombo.  È importante, alla fine, non farsi coinvolgere in lavori solo perché attratti dal miraggio del 110%. Se questa opportunità non viene ben valutata e analizzata e non vengono sviscerati tutti i rischi da parte di chi la propone, potrebbero esserci amare sorprese.   Per richieste preventivi, scrivere a:   info@a2c.it
03:48
December 1, 2020
Domande e risposte in 60 secondi - Novembre 2020
Oggi rispondiamo a 4 domande che ci hanno posto: 1) È pericoloso il campo elettromagnetico del wi-fi? 2) L'ozono ad alta concentrazione può sterilizzare?  3) Voglio tutelarmi dall'inquinamento a casa. Cosa posso fare? 4) Nel post Covid, quali economie saranno le più promettenti? Se hai anche tu delle domande, inseriscile nei commenti!
04:26
November 30, 2020
Materiali termoelettrici - in 5 minuti
Tra le tecnologie più promettenti in futuro ci sono i materiali termoelettrici. Approfondirli può essere uno spunto per trovare nuove applicazioni vantaggiose nell'ambito della produzione di energia. I materiali termoelettrici sono in grado di generare elettricità a partire da una differenza di temperatura. Il calore fornito è trasformato in elettricità da un convertitore termoelettrico che sfrutta l'effetto Seebeck.  L'effetto Seebeck è un effetto termoelettrico per cui, in un circuito costituito da conduttori metallici o semiconduttori, una differenza di temperatura genera elettricità. È l'opposto dell'effetto Peltier. Dove si può ad esempio generare il freddo attraverso la corrente elettrica ed è per esempio utilizzato nei frigoriferi portatili. L'effetto Seebeck ci dice quindi che una forza elettromotrice è prodotta dalla diffusione di elettroni attraverso l'unione di due differenti materiali (come ad esempio la coppia Piombo-Tellurio) che formano un circuito quando i capi del convertitore si trovano a differenti temperature. Cioè detto in altri termini, riassumendo, se abbiamo 2 materiali conduttori li uniamo e uno lo mettiamo nel ghiaccio e uno lo riscaldiamo, otterremo della corrente elettrica. Questo effetto fu scoperto accidentalmente dal fisico estone Seebeck nel 1821, che notò la presenza di una tensione elettrica su una barra metallica sottoposta a una differente temperatura tra i due estremi. Osservò anche se si costruiva un anello con 2 materiali differenti, e che venivano posti a differenti temperature, l'ago di una bussola subiva una spostamento. Ciò è dovuto al fatto che i due metalli generano potenziali elettrici differenti nelle due regioni a differente temperatura, dando origine a un flusso di corrente, il quale produce il campo magnetico che influenza la bussola.  Cioè se mettiamo una estremità nel ghiaccio a 0°C e l'altra estremità della barra giuntata nell'acqua a 100°C, otterremo un ordine di grandezza di 0,1 mV. Però se le temperature sono molto distanti tra loro può essere molto più interessante. Un caso esemplare è costituito dal generatore TE in SiGe che alimenta la sonda Voyager 1, che attualmente si trova a circa 20 miliardi di chilometri dalla Terra: il suo generatore TE è in operazione nello spazio da quasi 40 anni. In generale la tecnologia termoelettrica è adatta per il recupero di energia elettrica dal calore sprecato o dai macchinari o dal calore degli scarto di impianti industriali. Questa tecnologia è attualmente utilizzata soprattutto sui generatori di energia per satelliti, ma potrebbe applicarsi al settore automobilistico, aeronautico, energetico, biomedico o a Internet delle cose (IoT).  Ad esempio la Volkswagen, la Volvo e la BMW stanno sviluppando generatori termoelettrici che recuperano il calore di scarto del motore, in sostituzione degli alternatori, ottenendo un risparmio stimato del 5% nel consumo di carburante.  Consiglio quindi di tenere d'occhio questa tecnologia, perchè può essere piccola fonte di energia, tra virgolette gratuita, per alimentare piccoli circuiti.  Per ulteriore approfondimenti consiglio di visitare il nostro sito www.a2c.it   Per richieste preventivi, scrivere a:   info@a2c.it
05:20
November 30, 2020
Micro Eolico - in 5 minuti
Nel campo delle energie rinnovabili, gli impianti più diffusi e con più prospettive,  dopo il fotovoltaico, sono gli impianti eolici. Una panoramica sul mondo dell'eolico può servire a coglierne le eventuali opportunità. Però tralasciamo i grandi impianti, perché sono troppo onerosi e hanno un notevole impatto ambientale, e concentriamoci sul microeolico. Fissiamo alcune caratteristiche base: - funzionano a basse velocità del vento e anche a rotazione variabile e quindi possono assecondare meglio il vento, a differenza dei mega impianti - possono essere sia ad asse di rotazione orizzontale, per capirci come i classici mulini a vento; ad esempio a 1, 2 o 3 pale; oppure possono avere l'asse verticale; quindi con sviluppo a torre. In particolare segnalo due modelli: il tipo Savonius e il tipo Darreius, entrambi molto validi e che approfondiremo tra poco. - per stimare quanto produce una micro turbina si può utilizzare la legge di Betz, che mette in relazione la potenza di massima produzione con la velocità del vento. La legge di Betz, mette in relazione la potenza di massima produzione con la velocità del vento al cubo. Già da questo si può evincere che essendo una potenza al cubo, la velocità del vento è fondamentale per capire se un impianto è conveniente o meno. Ci sono due modi per stimare la velocità del vento media: o si misura con un anemometro (che è il metodo che consiglio), oppure si prendono i valori da un archivio chiamato "Atlante eolico". Per una stima grossolana si può usare la classificazione di Beaufurt, che vediamo in alto, che sulla base di alcune evidenze, come lo spostamento delle foglie o dei rami, ci da un valore di massima di velocità del vento. Dalla legge di Betz si può ricavare la potenza elettrica, che ha al suo interno i rendimenti elettrici e meccanici, la densità dell'aria, la superficie delle pale la velocità del vento al cubo e un coefficiente di prestazione, che chiamiamo Cp. Prendiamo una piccola turbina tipo Darreius di sezione esposta 6 m2, con un vento medio di 5 m/s (andando nella classificazione di Beaufort viene definito come "Brezza tesa" ovvero dove si può osservare "foglie e rami più piccoli in movimento costante"), ipotizzando la densità dell'aria di 1,225 kg/m3, tralasciano per approssimazione i rendimenti a 1, si svilupperà una potenza elettrica massima di circa 160,8 W Però se la velocità del vento è semplicemente il doppio, cioè 10 m/s, la potenza elettrica sarà di 1200 W. Abbiamo visto che la velocità del vento è fondamentale. Il tempo di rientro dell’investimento per un impianto eolico dipende dalla ventosità del sito di installazione.  Però per trovare venti molto veloci occorre salire molto di quota rispetto al terreno. Però attenzione che più si sale e più la struttura che lo regge dovrà essere imponente. Per questa ragione occorre scegliere un compromesso tra una alta quota per avere più velocità e i costi della struttura che deve reggere la macchina. Per i piccoli impianti indicativamente si può ipotizzare un costo di realizzazione intorno ai 3.500 – 5.000 €/kW installato. Però è altamente consigliata preventivamente una analisi di fattibilità, per evitare di sovrastimare i vantaggi. In questo senso l'A2C è a disposizione con i suoi tecnici sia per effettuare delle misurazioni della velocità del vento e sia per sviluppare delle stime di produttività e quindi di ritorno dell'investimento.     Per richieste preventivi, scrivere a:   info@a2c.it
05:39
November 23, 2020
Porte tagliafuoco - in 5 minuti
A volte ci capita di passare attraverso delle porte molto spesse dotate di maniglione antipanico, però non ci rendiamo conto che quello che attraversiamo è limite di un compartimento e che quella porta potrebbe salvare la vita a qualcuno, un giorno. Queste porte si chiamano porte tagliafuoco e di solito sono REI, che significa che Resistenza, Ermeticità e costituiscono un isolamento. Conoscerne le caratteristiche potrebbe addirittura salvarci la vita un giorno.   Iniziamo col dire che una porta tagliafuoco ha la possibilità di isolare le fiamme in caso di incendio. Viene dunque usata come parte di un sistema di protezione passiva, per ridurre la diffusione di fiamme o di fumo tra compartimenti e per assicurare un'uscita sicura da un edificio. La logica del compartimento anticendio è quella del dividit et impera romano, rapportata al fuoco. Se io separo le zone di un edificio come un compartimento di una nave, posso limitare il movimento del fuoco. La porta tagliafuoco è un elemento fondamentale della compartimentazione. Le porte tagliafuoco non sono necessariamente immuni dalla combustione. È accettabile che porzioni della porta possano essere distrutte dalla combustione durante l'esposizione al fuoco fin tanto che la struttura rispetta a determinati criteri di test. L'obiettivo di una porta tagliafuoco è di rallentare la propagazione del fuoco da un comparto ad un altro per un limitato periodo di tempo, durante il quale gli occupanti devono uscire dall'edificio o per il tempo in cui i meccanismi antincendio automatici o manuali vengono attivati per limitare la diffusione delle fiamme. Tutti i componenti debbono aderire alle richieste della certificazione del prodotto. Molte porte tagliafuoco sono disegnate per essere tenute chiuse tutto il tempo. Alcune sono disegnate per essere aperte durante le normali circostanze, e chiuse automaticamente durante un incendio. Qualunque metodo sia in uso, il movimento della porta non dovrebbe mai essere bloccato da un chiudiporta o altro ostacolo. Esiste un sigillo per l'intumescenza e l'antifumo e deve essere verificato di routine e allo stesso modo la chiusura e il bloccaggio della porta. Alcune porte tagliafuoco sono tenute aperte con un elettromagnete, che può essere collegato ad un sistema di allarme antincendio. Se il sistema elettrico cade o se si attiva l'allarme antincendio, il blocco magnetico della porta viene disattivato e la porta si chiude automaticamente. In pratica: - con il simbolo REI (seguito da un numero n) si identifica un elemento costruttivo che conserva per un tempo determinato la resistenza meccanica, la tenuta alle fiamme e ai gas caldi, l'isolamento termico; - esistono anche le porte non REI ma solo con il simbolo RE (seguito da un numero) e rappresentano una porta che rispetto alle REI non mantiene l'isolamento termico; - esistono anche le porte con solo il simbolo R (seguito da un numero) che garantiscono unicamente che la porta conservi la resistenza meccanica. Il numero dopo le lettere indica il tempo, in minuti, durante il quale quella caratteristica è garantita. Quindi le porte tagliafuoco certificate sono testate per fronteggiare un fuoco per un periodo specifico di tempo. Esistono porte tagliafuoco certificate REI per 30, 60, 90, 120 e 180 minuti. Quelle più diffuse sono le REI 120 che resistono meccanicamente, sono ermetiche e isolano termicamente per 120 minuti.  Per chi è interessato, nell'A2C ci sono tecnici abilitati alla prevenzione incendi che possono dare supporto nel dimensionamento delle porte REI e per la gestione delle emergenze.   Per richieste preventivi, scrivere a:   info@a2c.it
05:09
November 16, 2020
La valutazione del Rischio - in 5 minuti
Ogni giorno inconsapevolmente facciamo numerose valutazioni del rischio. Ad esempio ogni volta che attraversiamo la strada, scegliamo il momento e il punto adatto per attraversare, a seguito di una valutazione del rischio. Averne coscienza può essere vantaggioso, perché nei casi più complessi può permettere di compiere delle scelte ponderate. Ma cos'è una valutazione del rischio? Si tratta di una stima del rischio che una determinata minaccia si realizzi; e può essere sia qualitativa e sia quantitativa. La qualitativa mette in luce in modo grossolano i vari scenari che possono capitare. La quantitativa si basa su modelli matematici, spesso di semplice utilizzo. Ad esempio, il più utilizzato è che il rischio è pari alla moltiplicazione della probabilità di accadimento di una minaccia per il danno che potrebbe comportare. Ed il rischio totale di una determinata azione è la somma di tutti i rischi, calcolati per ogni minaccia identificabile. Di solito per una valutazione del rischio di tipo quantitativo si richiede la quantificazione numerica di due componenti: la gravità di una potenziale perdita (detta anche "magnitudine") e la probabilità che tale perdita si realizzi.  Il rischio quindi è pari alla stima di questa gravità per la stima della probabilità ipotizzata. Facciamo un esempio pratico e semplice, comprensibile per chiunque: il rischio di inciampare nel maricapiede. Ad esempio stimiamo che il danno sia pari a 2 e che la probabilità sia 1 rispetto al massimo di 4. Abbiamo che il rischio è pari al danno 2 x la probabilità 1, cioè è pari a 2. Questo raffrontato con il massimo che è 4 x 4 = 16, ci da una informazione che il rischio è basso. Quindi posso camminare senza troppe preoccupazioni. Invece nel caso il rischio fosse uscito alto, potrebbe essere il caso di ridurre il danno, ad esempio con delle protezioni, oppure ridurre la probabilità, ad esempio uscendo meno per strada. Si definisce rischio "accettabile" se i costi o le difficoltà di applicazione delle contromisure risultano eccessive rispetto alle perdite preventivate. Questo rischio calcolato si può paragonare ad altri rischi. Ad esempio posso paragonarlo a fare un incidente con la bicicletta e quindi potrò scegliere se andare a piedi o in bicicletta a seconda di dove il rischio è più basso. Durante la progettazione di sistemi complessi, la valutazioni del rischio permette di scongiurare i pericoli che possono mettere a repentaglio l'incolumità delle persone, la salute, l'ambiente e il buon funzionamento delle macchine. Inoltre la valutazione del rischio può essere applicata a diversi ambiti, ad esempio nell'agricoltura, nell'industria, nei servizi ospedalieri, nei servizi sociali e nei servizi finanziari. A seconda del particolare campo di applicazione, possono essere utilizzati diverse metodologie per la valutazione del rischio, che può essere utilizzata ad esempio per prendere decisioni in ambito finanziario, per valutare l'impatto ambientale di un processo oppure le ripercussioni di un'attività sulla salute pubblica. Concludendo, abbiamo visto che la valutazione del rischio è molto utile in ambito lavorativo. In particolare nel campo della sicurezza dei lavoratori è uno degli strumenti più diffusi; e tra l'altro obbligatorio per legge. Se può interessare l'A2C da molti anni effettua sia valutazioni dei rischi nel campo della sicurezza dei lavoratori e sia più in generale opera nel campo del Risk Management ovvero l'implementazione della ISO 31000.   Per richieste preventivi, scrivere a:   info@a2c.it
05:18
November 9, 2020
La stupidità - in 5 minuti
Il maggiore pericolo per l'uomo non sono i terremoti, le alluvioni o l'inquinamento ma è la stupidità umana. La stupidità è uno stato mentale, dove una persona può causare un danno ad un'altra persona o gruppo di persone, senza realizzarne un vantaggio o addirittura subendo una perdita. Dalla stupidità si generano e si genereranno danni incalcolabili. Riconoscerla e tentare di arginarla può dare quindi notevoli vantaggi.  La cosa strana è che le persone ragionevoli stranamente sono più vulnerabili dagli stupidi; questo perchè li sottovalutano e perchè l'attacco di uno stupido per sua definizione non è razionale e quindi disorienta. Il danno più elevato è quando le persone stupide sono in posizione di potere. Il termine stupidità deriva dal verbo latino "stupēre". Lo storico economico Carlo Cipolla, professore dell'Università di Berkeley in California fu autore nel 1976 di un trattato sulla stupidità:"The Basic Laws of Human Stupidity", formulò le 5 leggi della stupidità umana a monito per i posteri. Le 5 leggi del Prof.  Carlo Cipolla sulla stupidità umana sono:  1°-Sempre e inevitabilmente ognuno di noi sottovaluta il numero di individui stupidi in circolazione. 2°-La probabilità che una certa persona sia stupida è indipendente da qualsiasi altra caratteristica della persona stessa. In particolare la persona stupida spesso appare come innocuo e questo ci fa abbassare ancora di più la guardia. Sebbene possa sembrare strano, non c'è nessun collegamento con il livello culturale o con qualsiasi altro elemento di distinzione. 3°-La persona stupida causa danni senza realizzare alcun vantaggio per sé o addirittura subendo essa stessa  un danno. 4°-Le persone non stupide sottovalutano sempre il potenziale nocivo delle persone stupide; dimenticano costantemente che in qualsiasi momento e luogo, e in qualunque circostanza, trattare o associarsi con individui stupidi costituisce infallibilmente un costoso errore. 5°-La persona stupida è il tipo di persona più pericoloso che esista.  Approfondiamo inoltre il diagramma della stupidità elaborato dal prof. Carlo Cipolla. . Su degli assi cartesiani mettiamo nelle ascissa il vantaggio per se che se ne ha di una azione (quindi avremo a destra eventi vantaggiosi per se e a sinistra gli eventi dannosi per se) e sulle ordinate il vantaggio per gli altri che se ne ha di una azione (quindi avremo in alto gli eventi vantaggiosi per gli altri e in basso gli eventi dannosi per gli altri). Abbiamo quindi 4 quadranti che individuano 4 tipologie di persone. Gli stupidi sono più pericolosi dei banditi, perché i banditi agiscono razionalmente per cui sono prevedibili e quindi in qualche modo si possono applicare delle contromisure. Con gli stupidi può succedere di tutto. Infine, Cipolla sostiene che gli intelligenti, i banditi e gli sprovveduti sanno chi sono. Gli stupidi no. Non sanno di essere stupidi. Concludendo, è necessario porre molta attenzione nell'individuare la stupidità che ci circonda ed evitarla. In particolare, occorre prestare attenzione alle persone che presumibilmente hanno potenza di danneggiarci, anche a prescindere dal vantaggio che ne possono trarre. Personalmente penso che ci sia un fondamento di verità nella teoria di Cipolla, ma penso anche che una persona intelligente in un determinato frangente possa perdere di lucidità e dare danno a se e agli altri. Quindi più che fare una caccia all'untore, si debbano contestualizzare le fasi della vita in cui si trovano le persone intorno a noi.   Per richieste preventivi, scrivere a:   info@a2c.it
04:49
November 2, 2020
Nitruro di Gallio - in 5 minuti
L'attuale mondo dell'elettronica è basato sul silicio. E' però iniziato un cambiamento epocale con la sostituzione del Silicio con il Nitruro di Gallio. Conoscere questo passaggio soprattutto potrebbe favorire chi lavora a contatto con i circuiti elettronici; ma in generale può interessare qualsiasi persona che ne fa uso, e quindi chiunque. Finora non era stato preso in considerazione nella produzione elettronica poichè i cristalli che si riuscivano a produrre avevano un elevato numero di impurità. La novità è che si è riusciti ad ottenere la produzione dei cristalli con pocchissime impurità e a costo contenuto. Ciò ha lanciato la produzione del Nitruro di Gallio e date le sue caratteristiche tecniche migliori del Silicio, nel giro di poco tempo lo sostituirà quasi completamente. I vantaggi sono: la miniaturizzazione, maggiori voltaggi ammessi, una maggiore frequenza ed una maggiore resistenza al calore Il Nitruro di Gallio (con formula: GaN) è un semiconduttore formato dalla combinazione del Gallio (GA) con l'Azoto (N) ed era utilizzato nei LED (diodi emettitori di luce) fin dagli anni '90.  Uno degli utilizzi principali è all'interno dei microtransistor, dove riesce a migliorare tantissimo le prestazioni innanzitutto in termini di resistenza al calore e poi come limite operativo in termini di Volt e Hertz. Inoltre, l'elettronica basata su GaN ha il potenziale per ridurre drasticamente il consumo di energia, non solo nelle applicazioni di consumo ma anche per le utility di trasmissione di potenza. Ad esempio un semiconduttore al silicio, all'interno dei transistor, riesce a sopportare mediamente massimo 100°C, dopo di che il meccanismo di blocco della corrente diventa instabile e quindi inservibile. Invece un semiconduttore al Nitruro di Gallio supporta fino a 500°C di temperatura, prima di dare disservizi in termini di affidabilità. Questa maggiore resistenza al calore permette di allocare gli elementi elettronici più vicini, poichè non è più necessario distanziarli per far evacuare il calore. Di conseguenza ciò conduce ad una miniaturizzazione con un fattore di 5 volte più piccolo. Anche nella produzione di Radar rappresenta un salto tecnologico importante, ed in particolare nei radar array a scansione elettronica attiva. Ha tra l'altro una ottima resistenza alle radiazione ionizzanti, per cui a breve sicuramente sostituirà il silicio nei pannelli solari fotovoltaici dei satelliti in orbita. Ai fini della sicurezza delle persone è bene ricordare che la polvere di GaN è irritante per la pelle, gli occhi e i polmoni. Mentre invece il cristallo GaN è atossico e biocompatibile e pertanto, può essere utilizzato negli elettrodi e nell'elettronica degli impianti negli organismi viventi.Nel 2004 sono stati effettuati studi di monitoraggio sugli aspetti ambientali, sanitari e di sicurezza delle fonti di nitruro di gallio. Il Nitrutro di Gallio porterà grossi benefici nella miniaturizzazione dei circuiti elettronici. Si pensa possa farli diventare 5 volte più piccoli. Ciò ha un impatto su tutto il mondo dell'elettronica, sia di consumo e sia di tipo industriale. Conoscere quello che sta per avvenire ci può dare un vantaggio competitivo, sopratutto nell'ambito della ricerca e sviluppo. Per chi può interessare, in questo senso, l'A2C fornisce attività di consulenza per l'avvio di startup e l'analisi di fattibilità di nuove applicazioni.   Per richieste preventivi, scrivere a:   info@a2c.it
04:54
October 30, 2020
Il percorso di crescita di Greiner - in 5 minuti
Nella crescita di qualsiasi attività imprenditoriale ci sono dei periodi di crisi. Avere consapevolezza di dove ci si trova e dove si andrà, può essere strategicamente molto utile per pianificare i prossimi passi; e sopratutto per capire se cambiare qualcosa. A prescindere dal settore dove si trova la tua attività, un possibile aiuto è dato dal modello di crescita di Greiner   Larry Greiner nel 1994 identificò un percorso di crescita articolato su 6 fasi, intermezzate da 5 crisi che si manifestano durante la crescita di qualsiasi azienda. Il percorso è detto curva di Greiner. Analizzando le 500 più grandi aziende americane Greiner ha notato che la crescita di un'organizzazione consiste in lunghi (4-8) anni di sviluppo pacifico (evoluzione), intervallati da brevi crisi (rivoluzioni). La parola "rivoluzione" è stata usata deliberatamente. Durante la crisi, l'imprenditore deve rielaborare nuove pratiche organizzative che diventeranno la base per la gestione del successivo periodo di crescita evolutiva.  Prendiamo un grafico cartesiano con ascisse e ordinate, in cui l'asse orizzontale è il tempo e l'asse verticale è la dimensione dell'azienda. Man mano che l' organizzazione cresce sorgono problemi e si possono trovare vari modi per risolverli.  Il primo stadio di crescita è quello attraverso la creatività dove i fondatori costruiscono l'organizzazione, che inizialmente è piccola; le persone indossano molti cappelli (ovvero svolgono molte mansioni diverse tra loro) e la comunicazione è spontanea e informale. Questa è la fase 1: Creatività. Tutti fanno tutto e sanno anche tutto, ci sono molte discussioni e informazioni reciproche. Però appena c'è una discreta crescita si instaura un sovraccarico di persone coinvolte. E questo porta alla prima crisi, detta di Leadership, dove c'è necessità di una rivoluzione con una gestione più professionale. Una volta superata attraverso l'assunzione di supervisori, che gestiscono le funzioni chiave, l'organizzazione continuerà a crescere sviluppando nuovi prodotti o servizi. Però il controllo dell'esecuzione è ancora centralizzato. Questa è la fase 2: Crescita attraverso la direzione. Ad un certo punto però la crescita è talmente grande che ogni componente della direzione necessità autonomia, perché i decisori sono sovraccarichi a causa della necessità di controllo e della mancanza di autogestione; in questa fase l'ufficio dell'azienda è tipicamente composto da circa 7 persone. C'è una crisi relativa all'autonomia. Questa viene superata attraverso il processo di delega, che è la fase 3. In cui i compiti sono indicati dai supervisori nella loro interezza (compito, responsabilità e competenza) e svolti da altri. Iniziano quindi a crearsi dei dipartimenti con una vita propria; il che porta inevitabilmente porta a problemi di coordinamento. In questa fase l'ufficio dell'azienda è tipicamente composto da circa 15-20 persone. I manager di medio livello potrebbero non avere competenze chiave completamente sviluppate per prendere le redini in modo efficace ed alcuni potrebbe caratterialmente non essere in grado di delegare. Tramite il modello Greiner puoi sapere dove si trova la tua azienda e dove probabilmente andrai. A questo punto la domanda che ti faccio è:"dove ti trovi? In che fase sei?". Rispondendo a questa domanda potrai scoprire le sfide che ti aspettano. Per richieste preventivi, scrivere a:   info@a2c.it
05:28
October 28, 2020
Formaldeide - in 5 minuti
Hai presente quell'odore di nuovo, nella macchina appena acquistata o quando si monta un mobile? E' cancerogeno e si tratta tra le altre cose di formaldeide. Addirittura per molti automobilisti l'odore della macchina nuova è un qualcosa di inebriante, e fa assolutamente parte del processo di affezione verso il veicolo.  La formaldeide, o anche detta formalina, è impiegata come colla nei pannelli in legno truciolato; e negli anni tende a volatilizzarsi nell’ambiente circostante. Solitamente si trova soprattutto nei mobili di scarsa qualità dove, in senso metaforico, c'è più colla che legno. Sempre come collante viene usato anche nella costruzione delle autovetture e nel campo dei tessuti. Già nel 2004 la formaldeide è stata indicata dallo IARC (Agenzia internazionale per la ricerca sul cancro) come cancerogeno certo. L’OMS ha fissato un valore limite di 0,1 mg/m3 in media su 30 minuti. Oltre a essere irritante per gli occhi, può essere letale a concentrazioni superiori a 50 ppm, dove può portare a seri danni ai polmoni; ppm sta per parti per milione, cioè in questo caso 50 ppm significa che se prendiamo 1 milione di molecole a caso, 50 sono di formaldeide. In condizioni standard 50 ppm equivale ad una concentrazione di circa 62 mg/m3. Secondo la guida del Ministero della Salute, le maggiori concentrazioni si possono osservare soprattutto nelle case prefabbricate, oppure dopo interventi edili, oppure in locali dove si è di recente posato il parquet o la moquette, oppure infine in occasione dell'acquisto di nuovi mobili. C'è da sottolineare che esiste il Decreto 10 ottobre 2008 che regolamenta l'emissione di formaldeide dai pannelli di legno. Per cui per i mobili costruiti in Italia il rischio dovrebbe essere limitato. La formaldeide è uno dei fattori nocivi che in inglese definiscono la Sick Building Syndrome, ovvero la Sindrome dell'Edificio Malato, che è un quadro sintomatologico in cui un insieme eterogeneo di persone avverte dei forti disturbi strettamente connessi all'abitare in un determinato edificio. Questa sensazione di malessere può essere anche dovuta alla formaldeide. Quindi cosa fare? - Far misurare ad un tecnico la formaldeide, in modo da identificarne in maniera certa la presenza. - Eliminare o limitare, dove possibile, l’impiego di materiali contenenti formaldeide , come tappezzerie, moquette, mobili in truciolato - Aumentare la ventilazione, o in modo naturale oppure installando degli appositi sistemi automatici di ricambio aria. In azienda, invece, è consigliabile attuare una serie di approfondimenti e di indagini, ed in particolare: - Rilevare analiticamente i livelli di esposizione; - Approfondire e/o aggiornare il DVR, con particolare riferimento alla Valutazione dei Rischi di esposizione ad Agenti Chimici/cancerogeni; - Nel caso si superino i limiti, studiare le misure tecniche, organizzative, procedurali che si possono introdurre per il contenimento dei rischi; - Nel caso, verificare l'applicazione degli obblighi formali previsti dal D.Lgs 81/08, Titolo IX, Capo II. La misura si effettua con degli analizzatori portatili ed il riscontro è immediato. Farsi supportare da un tecnico può essere utile per identificare il problema e trovare insieme delle soluzioni ottimali tecnico/economiche per mitigare l'esposizione. L'A2C da alcuni anni effettua misurazioni di formaldeide, sia in abitazioni e sia in attività produttive ed è in generale attiva sulla tutela delle persone dai nemici invisibili, come in questo caso.   Per richieste preventivi, scrivere a:   info@a2c.it
04:38
October 27, 2020
Estintori - in 5 minuti
Un estintore perfettamente efficiente può risultare più utile di qualsiasi altro mezzo se impiegato tempestivamente e correttamente su un principio d'incendio. Consente di contenere i danni e tutelare l'incolumità delle persone. Per far si, però, che sia sempre efficiente, nel malaugurato caso dovesse servire, è necessario tenerlo sempre carico e nella giusta posizione. Un estintore è in genere costituito da: - serbatoio, atto a contenere l'agente estinguente, il propellente o ambedue; - valvola, atta ad intercettare e/o regolare il flusso dell'agente estinguente; - manichetta, ossia un tubo flessibile che consente il facile indirizzamento - dell'agente estinguente nelle direzioni opportune (questa può mancare negli estintori di piccola taglia, fino a 3 kg); - agente estinguente che, spruzzato o sparso o comunque posto a contatto del fuoco, interagisce con questo spegnendolo o limitandolo; - propellente, gas atto all'espulsione dell'agente estinguente. La classe di fuoco è un certo quantitativo di combustibile, di un certo tipo, che l'estintore riesce a spegnere. Le classi sono definite: - per i fuochi di tipo A, dalla lunghezza in decimetri di una catasta di quadrotti di legno a cui si da fuoco; - per i fuochi di tipo B, dal volume di una vasca di combustibile liquido a cui si da fuoco; Per inciso, i numeri che vengono messi affianco alle classi derivano dalla successione di Fibonacci. Più è alto il numero, migliore è l'estintore. Ad esempio, abbiamo un estintore di classe 21A 144B, cosa significa?. Significa che l'estintore, se utilizzato bene, è in grado di spegnere un fuoco di una catasta di legno lunga 21 dm cioè 2,5 m, oppure una vasca circolare contenente 144 litri di liquido combustibile. Con questo codice si ha quindi idea della capacità dell'estintore.  La manutenzione degli estintori è necessaria e obbligatoria. Il concetto che voglio far passare è che è meglio non avere un estintore che avere un estintore scarico. E spiego subito il perché. In caso di incendi se l'estintore è scarico si perderà tempo a vedere se funziona e come funzionare anziché scappare e chiamare i Vigili del Fuoco. Il tempo in questi casi è fondamentale e non si può perdere con strumenti non funzionanti. Per stabilire quanti estintori servono in una struttura consiglio di affidarsi ad uno specialista in prevenzione incendi. Esistono delle tabelle, come quella riportata a video che indicano il numero minimo obbligatorio di estintori, ma consiglio di affidarsi ad un tecnico. Quando si ha a che fare con un incendio piccolo, e non particolarmente grave,  è fondamentale la presenza degli estintori, che sono in grado di limitare la propagazione delle fiamme prima dell'eventuale intervento dei soccorsi. Questo perché è studiato che qualsiasi incendio se preso per tempo può essere contenuto.  Per chi è interessato, nell'A2C ci sono tecnici abilitati alla prevenzione incendi che possono dare supporto in ambito antincendio.    Per richieste preventivi, scrivere a:   info@a2c.it
05:08
October 26, 2020
Prevenzione Incendi - in 5 minuti
Conoscere le informazioni minime per prevenire ed eventualmente gestire un incendio è indispensabile. Già nel 6 d.C. Cesare Augusto istituì i Vigiles per proteggere Roma dagli incendi, che all'epoca erano molto frequenti. Per la cronaca i 7000 Vigiles per spegnere gli incendi avevano i siphones, una sorta di idranti con le tubature in cuoio.  La prevenzione incendi è un'attività finalizza a prevenire il rischio di sviluppo di incendi. Non è rivolta non solo ai luoghi di lavoro, dov'è sempre obbligatoria una valutazione, ma anche per tutti i luoghi dove ci sono persone; ad esempio ci sono prescrizioni sia per gli edifici e sia per i parcheggi interni di auto. Statisticamente le cause più comuni di un incendio sono: - gli impianti elettrici difettosi o sovraccarichi - l'uso scorretto dei camini o delle stufe elettriche - il cattivo uso delle fiamme, ad esempio in cucina - i mozziconi accesi di sigarette - l'ostruzione della ventilazione di apparecchi elettrici La prevenzione incendi vuole ridurre al minimo il rischio che l'incendio avvenga. Come si fa? Concettualmente il rischio è la probabilità, per l'entità del danno. Quindi per far diminuire il rischio incendi o si abbassa la probabilità, tramite la prevenzione o si abbassa il danno, attraverso la protezione. Quindi per prevenire occorre avere tutti gli impianti sotto controllo, ed in particolare gli impianti elettrici devono evitare cortocircuiti, contatti lenti, surriscaldamenti dei cavi. Deve esserci la messa a terra.  Infine per quanto possibile occorre usare materiali e strutture incombustibili. Per quanto riguarda la protezione, può essere PASSIVA o ATTIVA. Quella passiva non richiede l'intervento dell'uomo e può essere costituita da: - Barriere antincendio: come ad esempio, muri tagliafuoco o compartimentazione. - Sistemi di ventilazione. - Vie d'uscita efficaci. La protezione attiva può essere costituita da: - Rete idrica antincendi. - Estintori. - Impianti di rilevazione e spegnimento automatici. - Evacuatori di fumi e calore. - Dispositivi di segnalazione ed allarme. Tutto questo abbassa il rischio o prevenendolo, oppure reagendo all'incendio e abbassando il danno. Ci sono 4 possibili sorgenti di innesco: - Accensione diretta: una scintilla, ad esempio, entra in contatto con un materiale combustibile in presenza di ossigeno. - Accensione indiretta: avviene per convezione, conduzione e irraggiamento termico di una fonte di calore. - Attrito: avviene per sfregamento di due materiali. - Autocombustione o riscaldamento spontaneo (reazioni chimiche, processi di ossidazione). Ci sono fondamentalmente tre metodi per spegnere un incendio: - ESAURIMENTO DEL COMBUSTIBILE; - SOFFOCAMENTO; - RAFFREDDAMENTO. La cosa fondamentale è avere sempre un PIANO DI EMERGENZA (comprensivo di piano di evacuazione). In questo modo in caso di incendio, anche una persona che non conosce il luogo, può evitare di andare nel panico e quindi può mantenersi lucida e salvarsi. Contrariamente a quanto si pensa in questi casi il pericolo maggiore non è il fuoco, ma il fumo, che non solo disorienta ma non fa respirare. La prevenzioni incendi è una materia molto vasta che raccoglie un vasto elenco di prescrizioni. Il corpo dei Vigili del Fuoco, ha realizzato un elenco di persone qualificate a occuparsi di prevenzioni incendi. In caso di dubbi è consigliabile rivolgersi a questo personale. Per chi è interessato, nell'A2C ci sono tecnici abilitati alla prevenzione incendi che possono dare supporto in questo ambito.   Per richieste preventivi, scrivere a:   info@a2c.it
05:12
October 23, 2020
Studio di fattibilità - in 5 minuti
Quando si vuole cogliere un'opportunità e realizzare un progetto, la cosa più saggia è far sviluppare preventivamente uno studio di fattibilità da un tecnico. Questo perché anche un'ottima idea potrebbe avere degli aspetti realizzativi di intralcio che ne diminuiscono il vantaggio o addirittura la rendono non completabile. Quindi, partire con uno studio di fattibilità significa contenere il rischio e quindi tutelarsi.  Lo studio di fattibilità è un elaborato realizzato prima della fase di progettazione, sulla base di una preliminare idea di massima, che permette al committente di comprendere la realizzabilità e la convenienza di un opera.  Comprende attività sia di natura tecnica sia di natura economica; l'esito può essere favorevole o meno alla realizzazione del progetto. Giusto per un inquadramento legislativo, accenno che l’importanza strategica dello Studio di fattibilità è stata ribadita dal Codice dei contratti pubblici e dai Regolamenti di attuazione; in particolare l’art. 14 del D.P.R. 207/2010, intitolato "Studio di fattibilità", ne definisce le caratteristiche; in particolare, al Comma 1, viene indicata la struttura dello studio, che si compone di una relazione illustrativa che deve contenere: - le caratteristiche funzionali, tecniche, gestionali, economico-finanziarie dei lavori da realizzare; - l’analisi delle possibili alternative rispetto alla soluzione realizzativa individuata; - la verifica della possibilità di realizzazione mediante i contratti di partenariato pubblico privato di cui all’art. 3, comma 15-ter, del Codice dei contratti pubblici; - l’analisi dello stato di fatto, nelle sue eventuali componenti architettoniche, geologiche, socio-economiche, amministrative; - la descrizione, ai fini della valutazione preventiva della sostenibilità ambientale e della compatibilità paesaggistica. Il prodotto finale sarà costituito da un insieme di analisi, verifiche, dimostrazioni e conclusioni circa la fattibilità: - tecnica, - urbanistica, - economica, - finanziaria del programma o del progetto, e sulla delimitazione degli ambiti, eventualmente offrendo indicazioni utili a orientarne le priorità, le linee di azione, le strategie e le modalità di lavoro. Effettuare preliminarmente uno studio di fattibilità è una scelta strategica che può far risparmiare al committente tempo e risorse preziose, altrimenti impiegabili in altri progetti. E' meglio stroncare un progetto prima che nasca, anziché scontrarsi con problemi che non si erano valutati e poi interromperlo, perdendo quindi soldi. Oltre all'ambito della progettazione, personalmente, consiglio sempre lo studio di fattibilità prima di intraprendere qualsiasi percorso consulenziale particolarmente lungo e complesso; a titolo di esempio: l'ottenimento della certificazione EN 1090, oppure lo sviluppo di un nuovo prodotto. Per chi può interessare l'A2C effettua studi di fattibilità sia nell'ambito della realizzazione di impianti e sia preventivamente a interventi consulenziali.    Per richieste preventivi, scrivere a:   info@a2c.it
05:01
October 23, 2020
Altezza antincendi - in 5 minuti
Il termine "Altezza antincendi" è diventato popolare a seguito dell'entrata in vigore del D.M. 25 gennaio 2019, che impone a tutti gli edifici residenziali di adottare delle precauzioni in materia di prevenzione incendi.  Per stabilire quali sono questi obblighi, occorre prima conoscere l'"altezza antincendi", ma per farlo occorre sapere cos'è. La definizione di "altezza antincendi" deriva dal D.M. 30/11/1983, dove è riportato che è: “Altezza massima misurata dal livello inferiore dell’apertura più alta dell’ultimo piano abitabile e/o agibile, escluse quelle dei vani tecnici, al livello del piano esterno più basso”  La definizione è connessa alle altezze gestibili con l’autoscala dei vigili del fuoco, che ha la possibilità di gestire una altezza di circa 24 metri. Per questa ragione la definizione prende in esame due elementi: - il livello esterno più basso, poichè si intende quello più basso possibile dove si può trovare l'autoscala; - la soglia della finestra o del balcone più in alto possibile, poichè è quello dove l'autoscala può poggiare, per poi far evacuare le persone presenti e far accedere i Vigili del Fuoco nell'edificio. Nell'edificio "ed.1" che sorge su un terreno inclinato, e ha il livello stradale a destra più in basso rispetto a quello a sinistra; l'autoscala potrebbe sostare a sinistra a e destra dell'edificio, ma si prende in considerazione il piazzale a destra poichè più basso dell'altro (la definizione riporta."...al livello del piano esterno più basso..."). All'ultimo piano c'è un vano tecnico e non bisogna considerarlo poichè la definizione riporta:"...escluse quelle dei vani tecnici...". Occorre considerare quindi la soglia della finestra all'ultimo piano, poichè la definizione è:"...livello inferiore dell’apertura più alta dell’ultimo piano abitabile e/o agibile...". La finestra è l'apertura più alta e la soglia è il suo livello inferiore. Se all'ultimo piano ci fosse stata una finestra ed un balcone, si sarebbe presa in considerazione la soglia della finestra, poichè rappresenta "...Altezza massima...". Nell'edificio "ed.2" che sorge su un terreno pianeggiante; il piano inferiore esterno è lo stesso sia a destra e sia a sinistra dell'edificio. All'ultimo piano è presente una finestrella inserita nel sottotetto, per cui è da prendersi come riferimento la soglia di tale piccola finestra. Sintetizzando per il calcolo della "altezza antincendi" di un palazzo occorre prendere quindi di riferimento 2 punti: - il livello esterno più basso, - la soglia della finestra o del balcone più in alto. e calcolare la distanza verticale tra questi due punti. Una volta stabilita l'altezza antincendi di un palazzo, questa può essere utilizzata per valutare quali siano gli obblighi del D.M. 25 gennaio 2019.  Ci sono quattro livelli limite di altezza, che sono:  12m, 24m, 54m, 80m. A seconda dell'altezza, rispetto a questi limiti si individuano 4 livelli prestazionali. Chiaramente più è alto il palazzo più ingenti saranno gli obblighi. L'A2C è di supporto in queste valutazioni ed in generale nel campo della prevenzione incendi.   Per richieste preventivi, scrivere a:   info@a2c.it
04:53
October 22, 2020
Intelligenza artificiale - in 5 minuti
L'intelligenza artificiale è la capacità di un sistema informatico di svolgere funzioni e ragionamenti tipici della mente umana in modo autonomo.  L'IA si può differenziare in  - Intelligenza Artificiale debole - ovvero sistemi tecnologici in grado di simulare funzionalità dell’uomo; - Intelligenza Artificiale forte - dove il sistema sviluppa una propria intelligenza senza emulare processi di pensiero dell’uomo, ma sviluppando capacità cognitive proprie. Il modello di apprendimento dell'IA può essere: - con supervisione didattica - mediante esempi di input e di output; - senza supervisione didattica - ovvero con analisi dei risultati di output, dove il software acquisisce le azioni ottimali per il raggiungimento di obiettivi desiderati; - con apprendimento di rinforzo - il sistema viene premiato quando raggiunge gli obiettivi prefissati. In questo modo distingue quali sono le azioni corrette da quelle errate. L'utilizzo di hardware a reti neurali può facilitare l'apprendimento, poichè non sfrutta un singolo modello matematico, ma permette una capacità computazionale più profonda e a più livelli contemporanei. L'utilizzo di sistemi computazionali di tipo quantistico potrebbe ulteriormente facilitare l'apprendimento e rendere più profondo il sistema di calcolo. Un esempio già operativo di IA sono gli assistenti vocali virtuali (ad esempio: Google assistant, Siri, Cortana, Alexa) che usano la IA per il riconoscimento del linguaggio naturale e per l’apprendimento e l’analisi dei comportamenti degli utenti. In campo bancario nel 1987 il primo utilizzo della IA avvenne quando la Security Pacific National Bank negli USA organizzò un sistema di prevenzione delle frodi legate all'utilizzo non autorizzato delle carte di credito. Nel campo della computer vision già sono possibili delle applicazioni in grado di analizzare variazioni di albedo per prevedere eventi non ancora visibili; ad esempio puntando una telecamera verso un angolo di edificio, dall'analisi dell'albedo (cioè della luminosità di riflesso dell'ambiente) è possibile riscontrare le variazioni di una persona che si sta avvicinando all'angolo. Oppure analizzando le piccole vibrazioni delle foglie si possono ricostruire i suoni presenti; oppure è possibile sfruttare le immagini distorte provenienti da una apertura (principio della camera oscura) per ricostruire gli oggetti dall'altra parte della separazione. L'attività di previsione dei comportamenti di acquisto può aiutare sia il marketing a progettare e ottimizzare gli interventi comunicativi, sia eventualmente a gestire direttamente le fasi di acquisto e produzione, partendo da una ipotesi di richiesta. Stare al passo dello sviluppo di questa tecnologia permette di valutarne le promettenti opportunità. Al momento sembra ancora non arrivata ad uno stadio di sviluppo particolarmente utile, a parte gli assistenti virtuali, ma in futuro potrebbe essere alla portata di tutti. A maggio 2020 è stata rilasciata dalla società OpenAI la nuova IA di nome GPT-3  che utilizza l'apprendimento profondo per produrre testo simile a quello umano.  Nell'A2C abbiamo fatto diversi esperimenti con questa IA facendogli produrre degli articoli tecnici. Il risultato è stato promettente, ma il testo sembrava disgregato e mancavo un filo conduttore. Però era perfettamente leggibile. Secondo uno studio del McKingsey Global Institute si prevede che per il 2030 più della metà delle grandi aziende faranno largo uso della IA.   Per richieste preventivi, scrivere a:   info@a2c.it
05:00
October 21, 2020
Radon - in 5 minuti
Il Radon è una delle maggiori minacce per l'uomo di origine naturale. Secondo l'Istituto Superiore di Sanità in Italia muoiono circa 9 persone al giorno per tumore causato dal Radon. Conoscerlo e misurarlo è una questione di vita o di morte. Il Radon è un gas nobile radioattivo, incolore, inodore ed insapore, presente ovunque sulla terra. Ci sono però dei tipi di roccia, come ad esempio tufo, granito e porfido, che hanno una elevata emanazione di Radon. La pericolosità è dovuta dal fatto che una volta inalato emette radioattività dall'interno dei nostri polmoni. A differenza dell'Uranio o di altri materiali radioattivi siamo più vulnerabili, perché ci colpisce dall'interno del corpo. La concentrazioni di Radon all'interno di un edificio, si misura in Bq/m3, che rappresenta il numero di emissioni di radioattività al secondo in un metro cubo di aria. Ad esempio una concentrazione di 100 Bq/m3 significa quindi che ogni secondo 100 atomi si disintegrano in 1 m3 di ambiente in questione.  In Italia la media di concentrazione è tra 70 e 100 Bq/m3 ed il limite è di 300 Bq/m3.  Iniziamo col dire che il Radon è 9 volte più pesante dell'aria per cui è più probabile trovarlo nelle cantine o al piano terra. Però, chi ha seguito i miei seminari sa bene che mi sono capitate delle casistiche in cui proveniva dal sottotetto. Oppure nei palazzi storici in tufo si possono riscontrare anche all'ultimo piano concentrazioni rilevanti. Il meccanismo principale dell'ingresso del Radon all'interno di un edificio, oltre alla componente connessa al vento, è l'effetto camino. Ovvero, quando in un ambiente si hanno due zone a differente temperatura, si crea una differenza di pressione che provoca uno spostamento di gas dalla zona più calda alla zona più fredda; così come avviene nel camino. Questa differenza di temperatura genera una aspirazione che succhia il Radon e lo sposta. La consapevolezza dei rischi derivanti dall'inalazione di Radon, all'interno del proprio appartamento, è fondamentale e può salvare delle vite umane. Ma non solo.  Un edificio con un alto livello di Radon, non solo può uccidere chi ci vive oggi, ma anche tutte le generazioni future.  L'A2C dal 2008 opera sia nella misurazione e sia nella bonifica. Per chi fosse interessato ad approfondire, abbiamo realizzato anche un breve corso a riguardo, di cui questo video è l'introduzione.  Per richieste preventivi, scrivere a:   info@a2c.it
04:51
October 20, 2020
Termografia ad infrarossi - in 5 minuti
La termografia ad infrarossi può essere la soluzione per capire la provenienza o la gravità delle macchie di umidità presenti in un immobile. E' un metodo non distruttivo, ovvero permette di effettuare l'indagine senza rompere nulla. Ciò ovviamente porta notevoli vantaggi economici e quindi conoscere l'esistenza di questa tecnica può essere quindi vantaggioso. Il principio su cui si fonda è che due corpi a due diverse temperature emettono due diverse radiazioni infrarosse. Per cui è possibile distinguerli in una mappa, cosiddetta, "termogramma" o a "mappa a falso colore"; cioè una foto in cui la tonalità di colore rappresenta una temperatura maggiore o minore. Per operare occorre un apparecchio chiamato termocamera ad infrarossi. Che presenta un obiettivo con un sensore ad infrarossi e un uno schermo, in modo da visualizzare in diretta il risultato. Ha inoltre un sistema di archiviazione dei dati, in modo da poter poi scaricare sul pc le immagini elaborate. Oltre alla riqualificazione energetica e al restauro degli edifici, la termografia può essere usata in ambito impiantistico, nella manutenzione preventiva, consentendo di indagare sulla presenza di anomalie termiche e dunque malfunzionamenti di parti di impianti. Tutto questo porta a grossi benefici economici. Infine segnalo che ci può essere una applicazione anche in campo nautico, dove si possono evidenziare problemi di integrità degli scafi in materiale composito attraverso la termografia attiva. Ad esempio si possono evidenziare delaminazione, inclusione di oggetti, di umidità, assenza di resina. La termografia attiva prevede o una fascio di luce aggiuntivo che illumina l'oggetto oppure la presenza di un flusso d'aria sull'oggetto. Nel caso la differenza di temperatura tra gli oggetti non sia sensibilmente diversa e quindi sia difficile la distinzione, esistono degli accorgimenti tecnici per aumentarne il contrasto. Ad esempio se c'è in atto una evaporazione, il calore latente di evaporazione fa abbassare la temperatura della zona umida, rendendo più visibile l'area interessata dal fenomeno. Mentre ad esempio, nella verifica delle guaine impermeabili facendo una scansione la mattina presto e una il tardo pomeriggio, dopo una giornata di sole. Si ottengono per differenza le zone di accumulo di acqua. Poiché la elevata capacità termica dell'acqua fa si che trattenga più calore rispetto agli altri elementi edilizi per cui se é irraggiata risulterà più calda del resto. Si possono identificare i percorsi delle tubazioni idriche, la presenza di vuoti e soprattutto i ponti termici, che sono zone in cui c'è una maggiore trasmissione di calore con l'esterno. Abbiamo visto quindi che la termografia ad infrarossi consente di indagare gli ambienti con un diverso punto di vista, non percepibile dall'occhio umano; rendendo possibile senza alcun contatto e senza distruggere lo stato di conservazione dei materiali e la rilevazione delle patologie derivanti dall'umidità in tutte le sue forme e i difetti di isolamento termico e la ricerca di infiltrazioni negli edifici. Per chi fosse interessato, i tecnici dell'A2C offrono un'analisi termografica personalizzata alle esigenze del cliente, suggerendo anche gli opportuni rimedi risolutivi.    Per richieste preventivi, scrivere a:   info@a2c.it
05:08
October 19, 2020
Ecommerce - in 5 minuti
Gli e-commerce hanno avuto un notevole sviluppo negli ultimi tempi. Conoscere questo mondo può aiutare sia chi vuole acquistare in sicurezza e sia chi sta iniziando ad interessarsi a questo tipo di opportunità. Innanzitutto "E-commerce" è la contrazione di elettronic commerce, cioè commercio elettronico in inglese. Quando si effettua un acquisto on-line, rispetto ad un acquisto di persona, c'è una naturale diffidenza del mezzo di comunicazione. La sicurezza della transazione è uno degli elementi fondamentali per la fiducia verso questo tipo di acquisto. Lo sviluppo del protocollo HTTPS ha permesso la crittografia dei dati sensibili dell'acquirente, evitando che qualche malintenzionato possa inserirsi nel mezzo. Consiglio quindi vivamente di rivolgersi solo a siti web il cui indirizzo inizia con HTTPS, e non con il semplice HTTP.  Inoltre consiglio di effettuare il pagamento con Paypal, perchè in caso di problemi si può aprire un contenzioso con il venditore e Paypal gli blocca il pagamento.  L'acquisto attraverso un sito web di ecommerce avviene solitamente attraverso 4 schermate: 1) l'informazione sulle caratteristiche del prodotto, attraverso una scheda prodotto, che può ad esempio contenere oltre alla descrizione anche dei video, delle recensioni, delle tabelle con i dati tecnici. 2) la pagina di acquisto, solitamente chiamata "carrello" per collegarla al concetto del carrello della spesa del supermercato. In questa pagina occorre solitamente indicare le quantità dei prodotti, le modalità di spedizione e pagamento. Di solito è presente anche un riferimento alle condizioni di acquisto. 3) il modulo da compilare con i propri riferimenti fiscali e l'indirizzo per la ricezione del pacco. Alcuni siti di e-commerce prevedono l'obbligo di iscrizione al sito in modo da salvare questi dati. Altri invece, per tutelare maggiormente la privacy ed anche per velocizzare l'acquisto, non prevedono la registrazione obbligatoria; quindi in tali casi occorre fornire ogni volte i propri riferimenti. 4) la pagina di gestione dell'ordine e della spedizione. Non è presente in tutti i siti. Però è molto utile poichè fornisce innanzitutto conferma dell'avvenuto ordine. Questo migliora la fiducia nel mezzo, poichè un utente  potrebbe avere il dubbio se il click è andato o meno a buon fine. Inoltre nella pagina sono indicati anche i riferimenti dell'avvenuto o meno pagamento. Quindi l'utente, in attesa del pacco, a distanza di giorni, può avere uno sguardo complessivo rassicurante sull'andamento dell'acquisto. Tutto viene concluso con l'arrivo del pacco; ed eventualmente se si vuole con la scrittura di una recensione. Vediamo praticamente un esempio. Cerchiamo ad esempio su Google un prodotto; ad esempio "Umorelax" e apriamo ad esempio il sito di ecommerce: https://alex.ticonsiglia.itPrima di aprire un ecommerce è raccomandato avere un business plan o in alternativa occorre fare una valutazione dei rischi, unita ad una prospettazione delle spese e dei ricavi. Dopo è consigliabile rivolgersi a dei professionisti che possano seguire sia la realizzazione del sito, ma sopratutto la pubblicizzazione sui motori di ricerca e sui social network. Ci sono poi delle professionalità che possono dare un ulteriore supporto ed un maggiore slancio al sito; ad esempio: un fotografo che migliora le foto dei prodotti o che realizza un video professionale; oppure un creatore di contenuti che può animare un blog mettendo articoli interessanti per gli eventuali clienti, connessi ai prodotti; oppure una persona che invia in modo professionale email alla lista clienti attirandone l'attenzione. Se può interessare l'A2C, insieme ad una rete di professionisti del campo, effettua questo tipo di servizi e può seguire dalla A alla Z la realizzazione e la pubblicizzazione di siti ecommerce.  Per richieste preventivi, scrivere a:   info@a2c.it
05:11
October 16, 2020
Ozono - in 5 minuti
Conoscere gli impieghi dell'ozono permette di cogliere le numerose opportunità di uno dei più potenti ossidanti in natura; che tra l'altro è anche il meno costoso e il più ecologico. Tralasciando gli impieghi in medicina, che sono vastissimi e risolutivi, ma che non sono il mio campo, oggi approfondiamo gli utilizzi tecnici. L'ozono fu identificato nel 1840, ma già gli antichi Greci lo conoscevano, poichè si erano accorti che nelle tempeste quando c'erano i fulmini si sentiva un forte odore, che loro associavano alla presenza di Zeus. Per cui quando fu identificato gli fu dato l'attuale nome, discendente dal termine "odorare" in greco antico. E' come l'ossigeno che respiriamo, ma ha 3 atomi anziché 2. Se qualcosa si ossida all'aria, con l'ozono si ossiderà più in fretta. E' un killer letale di qualsiasi microrganismo (compreso i virus).  L'ozono è  instabile e quindi in poche decine di minuti dalla sua generazione si ritrasforma in ossigeno con due atomi e quindi sparisce. Però nella sua breve esistenza fa una sola cosa e la fa con grande intensità: ossida tutto quello con cui viene in contatto. Un pò come fa l'ossigeno che respiriamo, però in questo caso con una intensità e quindi una velocità maggiore. L'ozono, data la sua breve vita, non può essere immagazzinato e viene prodotto da apparecchi elettrici, detti ozonizzatori. Dato questo suo alto potere ossidante, l'ozono viene impiegato in generale per sbiancare, depurare, deodorare e disinfettare. Attualmente l'ozono è usato per: - la disinfezione dell'acqua (acquedotti, piscine); - la disinfezione delle superfici destinate al contatto con gli alimenti; - la disinfezione dell'aria dai microrganismi; - la disinfezione di frutta e verdura; - l'ossidazione di inquinanti nella depurazione delle acque di scarico; - la pulizia e sbiancamento dei tessuti; - abbatta gli odori, perché ossida  - per la sanitizzazione di strutture non sanitarie nell’attuale emergenza COVID-19. Non è un errore che ho utilizzato il termine "sanitizzazione" e non "sanificazione", poichè è stato l'Istituto Superiore di Sanità a fornire questo termine in un suo documento di maggio 2020. Fin qui abbiamo analizzato le opportunità, per correttezza occorre affrontare anche i rischi. L'ozono è irritante per le mucose.  Premetto che fino ad oggi nessun essere umano è mai morto a causa dell'ozono. Però bisogna sottolineare che alle concentrazioni in cui è utile (dell'ordine di alcune ppm) è fortemente irritante. I limiti per l'uomo sono dell'ordine di 0,1 ppm. PPM è una unità di misura di concentrazione e significa che in un determinato volume se ci sono 1 milione di molecole, quante sono di quella specie considerata. Ad esempio 4 ppm di ozono significa che se prendo a caso 1 milione di molecole ci saranno 4 molecole di ozono. Racconto per esperienza personale che se si supera il limite di 0,1 ppm si avrà prima una sensazione di nausee e poi un forte mal di testa. Di conseguenza l'ozono è molto utile, ma va gestito con cautela. E soprattutto chi lo eroga deve avere cognizione di che concentrazione sta utilizzando. Riassumendo. L'ozono in alcuni contesti è associato ad una immagine negativa in campo ambientale. Come ad esempio la problematica del buco dell'ozono.  Però come abbiamo visto è molto utile, soprattutto per sbiancare, depurare, deodorare e disinfettare. E' economico, poichè basta pochissima energia elettrica per produrlo con un ozonizzatore. E' ecologico perché era ossigeno e ritorna ossigeno a 2 atomi. E' irritante per l'uomo, per cui chi lo usa deve essere stato formato. Per chi fosse interessato l'A2C effettua la formazione sull'uso degli ozonizzatori, la verifica del loro funzionamento e la redazione di procedure di utilizzo. Questo in modo da cogliere l'opportunità dell'ozono ma gestendo i rischi di cattivo utilizzo.   Per richieste preventivi, scrivere a:   info@a2c.it
05:04
October 16, 2020
La trasmittanza termica - in 5 minuti
Uno dei termini tecnici oggi più usati e di cui pochi conoscono il significato è la trasmittanza. Parliamo di trasmissione del calore. E parliamo anche di soldi, perché per climatizzare una casa occorre spendere denaro in elettricità o gas. Quando compriamo un infisso oppure mettiamo uno strato isolante all'involucro della casa, lo facciamo per diminuire la trasmittanza. Minore è la trasmittanza e maggiore è la qualità dell'isolamento e quindi minore è la spesa in climatizzazione. La trasmittanza termica U si misura in W/m2°K. La trasmittanza si può applicare a vari pacchetti di materiali, ad esempio di può applicare ad un singolo infisso, ad un muro o complessivamente ad un intera facciata di un edificio. Ad esempio per gli infissi si usa trasmittanza Uw, dove w sta per window. E quindi si usa mettere un pedice quando è riferita ad un specifico oggetto. La trasmittanza U misura la quantità di calore che in ogni secondo attraversa un elemento della superficie di 1 m2 in presenza di una differenza di temperatura di 1 grado tra l'interno e l'esterno. La trasmittanza U è l'inverso della resistenza termica Rt, che è la capacità di un materiale di opporsi al passaggio del calore. Prestiamo attenzione alla trasmittanza, perché avere per la propria casa un valore basso di trasmittanza comporta una minore spesa di riscaldamento e raffrescamento. Però di contro un valore eccessivamente basso può essere costoso, poichè richiede materiali più pregiati ed in alcuni casi potrebbe essere non necessario, in relazione alle condizioni climatiche della zona. Un buon progetto tiene in conto dell'aspetto tecnico della diminuzione della trasmittanza, del costo di realizzazione e dei fabbisogni di utilizzo.  Un progetto di una casa in Alto Adige è inutile e dispendioso in Sicilia.   Per richieste preventivi, scrivere a:   info@a2c.it
05:09
October 15, 2020
I campi elettromagnetici - in 5 minuti
La variabilità, quindi l'aumentare ed il diminuire nel tempo, delle corrente elettrica, ed in generale di cariche elettriche, genera delle onde, come ad esempio le onde del mare. In questo caso vengono dette onde elettromagnetiche. La frequenza di questa variazione, cioè quante volte in ogni secondo l'onda aumenta, e quante volte diminuisce è la frequenza in Hertz. Ad esempio nei cavi elettrici di casa la frequenza è 50 Hertz e quindi in ogni secondo, si modifica 50 volte.  A seconda della frequenza abbiamo i campi elettromagnetici a bassa e alta frequenza, che si differenziano molto tra loro. In quelli a bassa frequenza, cioè quelli per intenderci tipicamente 50 Hz , il campo elettromagnetico è scisso in campo elettrico e campo magnetico e tra questi due quello più pericoloso è quello magnetico. Questo produce delle correnti indotte nel corpo circa 10 volte maggiori di quello elettrico.  Per inciso, la diffusione delle correnti interne derivanti dal campo elettrico si localizza maggiormente verso le gambe poichè sono più vicine al suolo, dove c'è un contatto diretto con il terreno. In quelli ad alta frequenza, cioè quello ad esempio generato dal router wifi ad esempio 2,45 GHz, il campo elettrico e quello magnetico sono fusi tra loro, sono indistinguibili separatamente, e si parla di campo elettromagnetico in generale.  Come si misurano? Occorrono degli strumenti con delle sonde, ovvero delle specie di antenne che catturano e misurano le intensità. Le sonde sono calibrate per frequenza, per cui ad esempio quelle per la bassa frequenza non riescono a fornire un valore utile nell'alta frequenza e viceversa. Le unità di misura principali, a cui consiglio di prestare maggiore attenzione, sono: - L'intensità del campo in V/m;  - L'induzione magnetica del campo in bassa frequenza in micro Tesla - La densità di potenza in W/m2  Faccio un esempio per fa comprendere il concetto di intensità del campo in V/m; se noi mettiamo i nostri piedi alla distanza di un metro tra loro, e abbiamo ad esempio una misura di 1,5 V/m, allora tra i nostri piedi c'è una differenza di potenziale di 1,5 Volt, come quella che c'è in una pila stilo.  Il limiti sono dei campi elettromagnetici sono purtroppo frammentati e spesso disuniformi anche in termini di unità di misura. Esistono limiti per la popolazione, limiti per i lavoratori e anche limiti per gli apparecchi. Poi c'è una differenza tra limiti di esposizione, che non possono essere superati e limiti di qualità, che sono più bassi e che rappresentano un livello massimo di riferimento. Per la propria tutela consiglio di tenersi al di sotto dei valori di: - 6 V/m e 100 mW/m2 per i campi ad alta frequenza  - 0,4 micro Tesla per i campi a bassa frequenza.  Conoscere i campi elettromagnetici al giorno d'oggi significa avere maggiore cognizione del rischio che abbiamo intorno a noi. E quindi è nell'ottica della nostra tutela.  L'A2C da tempo effettua misurazione dei campi elettromagnetici in alta e bassa frequenza e fornisce supporto sia a chi voglia monitora il rischio a casa propria e sia in contesti di tipo industriale.   Per richieste preventivi, scrivere a:   info@a2c.it
04:56
October 14, 2020
La produzione snella (LEAN PRODUCTION) - in 5 minuti
Uno dei metodi principali per aumentare l'utile di una azienda è eliminare gli sprechi. In questa ottica la "produzione snella", in inglese LEAN PRODUCTION, introdotta alcuni decenni fa dalla Toyota, è una possibile soluzione. Il concetto chiave è: limitare l’inutile ed eliminare il superfluo. Questo porta ad un maggiore guadagno per l’azienda ed una minore fatica per i lavoratori. I traguardi raggiunti solitamente sono: - aumento della produttività; - diminuzione dei tempi di produzione; - diminuzione degli scarti e degli errori; - diminuzione fino al 90% delle scorte a magazzino. Nell'ambito della realtà produttive, per chi fosse interessato, A2C effettua interventi di consulenza nell'ambito della produzione snella, per diminuire gli sprechi in azienda e quindi aumentare l'utile.   Per richieste preventivi, scrivere a:   info@a2c.it
05:02
October 13, 2020
La negoziazione commerciale - in 5 minuti
Anche se non ce ne accorgiamo per tutta la nostra vita facciamo delle negoziazioni con le persone intorno a noi. Comprendere in modo razionale i principi della negoziazione può quindi essere molto utile. Oggi però parleremo solo della negoziazione in ambito commerciale che prende il nome di negoziazione dura, in quanto ogni vantaggio è a scapito della controparte.  Una negoziazione ha componenti emotive e razionali. In una trattativa condotta dall’emotività si possono commettere grossi errori, per cui è necessario passare sempre ad una negoziazione trainata dalla razionalità.  Ed è questo il motivo per cui è utile approfondire le tecniche di negoziazione. Quindi, per avere maggiori probabilità di successo in una negoziazione è consigliabile un approccio sistematico e razionale. Cioè, lasciare al caso l'andamento della trattativa può portare a fare concessioni non necessarie, e quindi perdere soldi; ciò soprattutto se dall'altra parte c'è una persona scaltra, che tenta di spostare il tutto sul piano emotivo e quindi indurre all'errore. L'A2C ha realizzato un breve videocorso sulla negoziazione, di cui questo video è l'introduzione.  Per chi fosse interessato può contattarci a info@a2c.it. 
05:04
October 12, 2020
Il test di personalità di Jung/Briggs Myers - in 5 minuti
Capire i meccanismi mentali degli altri è fondamentale per stabilire l'empatia e quindi per collaborare. Durante la seconda guerra mondiale due ricercatrici Briggs e sua figlia Briggs Myers cercarono di trovare un metodo per facilitare l'assunzione di donne nell'industria bellica e quindi presero gli studi sui tipi psicologici di Carl Gustav JUNG e inventarono il test di personalità Jung/Briggs Myers, che poi fu perfezionato nel 1962. Addirittura si potrebbe progettare a tavolino un gruppo di lavoro partendo dalle affinità delle personalità dei partecipanti. Ad esempio questo metodo è molto usato negli Stati Uniti, ad esempio nelle grandi aziende o anche nelle assunzioni delle forze armate. Il test di personalità Jung/Briggs Myers è quindi un valido sistema per capire se stessi e capire gli altri. Esistono delle tabelle di correlazione che possono predire se una determinata coppia di personalità possa o meno andare d'accordo. Ad esempio abbiamo verificato che è più probabile che vadano d'accordo persone che acquisiscono le informazioni alla stessa maniera: ovvero intuizione con intuizione e sensazione con sensazione. Se andate su GOOGLE e scrivete MBTI si apriranno numerosi siti in cui si può ulteriormente approfondire questo argomento. A tal riguardo si segnala che l'A2C ha sviluppato un foglio di Excel che permette, attraverso una serie di domande di determinare quale la propria personalità tra questi 16 tipi. Per richieste preventivi, scrivere a:   info@a2c.it
05:07
October 12, 2020
L'analisi della concorrenza, attraverso le 5 forze di Porter - in 5 minuti
In un'epoca dove l'economia è regolata dal mercato, conoscerlo è fondamentale per la sopravvivenza.  Uno degli strumenti più importanti per l'analisi della concorrenza, ed in generale per capire il mercato in cui ci si trova, è il modello economico delle 5 forze di Porter. Nel 1982 l'economista Porter individuò 5 elementi che con la loro azione, erodono in continuazione la redditività delle attività produttive e che se non gestite portano alla perdita di competitività. Questa analisi può essere effettuata sia sulla propria attività e sia sulle attività di clienti o fornitori.  Ad esempio fatta sul mercato di un fornitore può aiutarci a capire fino a che punto quel fornitore potrebbe ridurre il prezzo di vendita. Oppure può essere fatta per approfondire il mercato dei clienti e può essere utile per trovare, ad esempio, il giusto prezzo di quello che gli vogliamo offrire. A tal riguardo segnalo che l'A2C ha sviluppato un foglio di Excel che permette, attraverso le forze di Porter di determinare il giusto prezzo di vendita.   Per richieste preventivi, scrivere a:   info@a2c.it
05:08
October 12, 2020
L'intelligenza emotiva - in 5 minuti
Perchè approfondire questo tema, che sembra avulso dalla professione tecnica?  Il motivo è che le emozioni giocano un ruolo primario in tutta la nostra vita e quindi anche nell'ambito professionale. Ma nessuno di solito lo approfondisce. E' da precisare che essere "emotivamente intelligenti" non significa essere sempre felici, ma significa accettare tutte le emozioni dentro di se, e saperle utilizzare per vivere al meglio la nostra vita. Riassumendo, l'intelligenza emotiva permette una maggiore consapevolezza delle proprie emozioni e di quelle degli altri e permette quindi una maggiore socializzazione. Nell'ambito professionale, tale conoscenza di se permette di orientarsi maggiormente al risultato e di conoscere più profondamente le proprie motivazioni. E tutto ciò favorisce il raggiungimento dei propri obiettivi. Per ulteriori approfondimenti si rimanda al libro di Daniel Goleman "Emotional Intelligence" - 1995.  Per contatti, scrivere a:   info@a2c.it
05:04
October 12, 2020