TECNOLOGIA

IL RISCHIO ESPLOSIVO IN GALVANICA

Nel settore trattamenti la frequenza del rischio di esplosione è fortunatamente bassa. Quello che preoccupa, però, è la magnitudo del rischio, ed è per questo che è doveroso affrontare il problema.

Nelle nostre galvaniche prevalentemente zincature, nichelature e cromature non ci dovrebbero essere grossi problemi di rischio da esplosione. In effetti nella mia frequentazione oramai sessantennale delle officine galvaniche gli unici botti frequenti che ricordo e che mi impressionavano da bambino erano quelli provocati ad arte dall’operatore galvanico per “schiumare” la sgrassatura.

Il rischio di esplosione da polveri

Non mi permetto valutazioni sul settore dell’alluminio, la sola presenza di tale materiale e quindi la possibilità che sia presente in polvere (con alta facilità di incendio ed esplosione) imporrà certo cautele specifiche. Nel mio corso “approccio globale alla valutazione del rischio” mi permetto di citare il fatto che nell’area Verbania-Cusio-Ossola, dove si producevano circa 60.000 caffettiere di alluminio al giorno ed una conseguente produzione stimata giornaliera di 540 Kg di polveri d’alluminio, si sono verificati nel periodo 1990-2001 sei incidenti esplosivi con 2 morti e 16 feriti. Al riguardo rimando gli interessati al non recente, ma ancora ben utile, opuscolo edito nel maggio 2001 sotto l’egida della Regione Piemonte: “Esplosioni da polveri nei processi di finitura di manufatti in alluminio e leghe nella realtà produttiva ASL 14 VCO: analisi del rischio e misure di prevenzione”, pubblicazione a cura del dipartimento Prevenzione dello Spresal e di CNR FIRGET. Nel suo prologo il Dott. Mario Valpreda diceva: “Le polveri di alluminio che si liberano durante le operazioni di pulitura dei metalli possono causare esplosioni. Sembra un’evenienza rara, ma l’esperienza dimostra che l’area del rischio è ampia”.

L’area dei trattamenti superficiali e molto ampia, non si smette mai di imparare cose nuove in questo settore fatto sì di terzisti “generalisti” ma anche di tante nicchie ultraspecializzate. È impossibile quindi conoscere tutto quello che avviene in queste molteplici e spesso piccole o addirittura microaziende. Quello che mi preme qui ricordare è che le polveri in generale possono comportare il rischio di esplosione e per sottolineare quanto questo sia vero cito tra i casi casi un’altra storica esplosione descritta dal perito incaricato dalla Reale Accademia delle Scienze di Torino nel 1785, il conte Carlo Ludovico Morozzo di Bianzè, esplosione avvenuta in un modesto panificio!

Il primo assunto, quindi, è che qualsiasi materiale solido in forma pulverulenta che sia in grado di bruciare in aria può causare un’esplosione di intensità tanto più violenta quanto più sottile sia la sua granulometria.

Il secondo assunto da tener ben presente è quello che ci dice come le polveri combustibili depositatesi in strati possono causare un incendio che può degenerare in esplosione quando lo strato si disperde in aria creando una nube.

Le polveri possono così dar luogo a 2 fenomeni:
– esplosione primaria;
– esplosioni secondarie: le polveri sollevatesi dall’esplosione primaria causano a loro
volta una reazione esplosiva

Ne consegue che ognuno nella sua officina deve valutare il pericolo di accumulo e stratificazione di polveri e provvedere con mezzi idonei alla loro rimozione in sicurezza. Se poi le polveri sono destinate ad impianti di captazione è bene che questi incorporino le dotazioni necessarie a evitare detonazioni o deflagrazioni che debbono essere certificate e munite dell’apposito marchio europeo.

Il rischio da esplosioni “chimiche”

Riprendendo quanto detto a proposito delle nostre galvaniche, in generale non dovrebbero essere presenti sostanze che espongono al rischio di formazione di miscele esplosive. Il galvanico è l’ultimo della sua filiera, spesso si trova ad affrontare i problemi causati da tutti coloro che l’hanno preceduto nella manifattura dell’oggetto che lui è chiamato a rifinire per renderlo vendibile. Se è stato usato un olio o della pasta abrasiva di scarsa qualità, se il saldatore ha spruzzato un prodotto che vetrifica o se la saldatura è stata eseguita in modo particolarmente creativo, se il materiale è sbagliato… il galvanico si ritrova la patata bollente tra le mani. Non di rado capita che il suo consulente chimico suggerisca di risolvere il problema introducendo qualche acido particolarmente forte o qualche nuovo “prodottino”.

Normalmente ciò avviene per quantità modeste ma abbiamo visto cosa succede al nostro Bobby con soli 130 galloni, anche andassimo a 13, in scala 10 a 1, non si dovrebbe comunque scherzare. Quindi fare particolare attenzione alle nuove sostanze introdotte anche solo sperimentalmente, analizzare bene la scheda di sicurezza, verificarne la volatilità e considerare la presenza di sostanze che ora andiamo ad elencare. In particolare, evitare di formare miscele contenenti NH3, O2 e NOx che possono dar luogo a formazione di nitrato d’ammonio che è esplosivo.

Anche i perossidi possono reagire violentemente, vi è un caso segnalato nel registro europeo degli incidenti rilevanti e-MARS accaduto nel reparto depurazioni di una galvanica, in questo caso la reazione non ha dato luogo ad una esplosione ma poco ci mancava. La stabilità termodinamica delle sostanze dipende dalla loro composizione e, più precisamente, dalla presenza nella loro molecola di taluni “gruppi funzionali”. Le “sostanze termodinamicamente instabili” sono ben descritte nell’apposito quaderno reperibile sul sito dell’Inail e sono:

derivati dell’acetilene
– azo-composti
– perossidi
– ozonuri
– triazeni
– epossidi
– nitroalcani
– nitroso composti
– nitrati di composti ossidrilici (per esempio TNT)
– fulminati
– nitriti organici
– sali di idrossilammonio
– perclorati organici
– cloriti, clorati

La reazione chimica tra acido fluoborico (o altri acidi forti) e metalli comporta la formazione di idrogeno gassoso che è infiammabile ed esplosivo. Nell’e-MARS abbiamo un caso in galvanica di violenta reazione con sviluppo di gas tra acido nitrico e ferro. In tal senso l’acido nitrico è una brutta bestia con molti metalli (zinco, ferro, rame, magnesio) tranne l’alluminio. Anche per questa segnalazione non vi è stata fortunatamente esplosione, ma molti operai sono stati messi sotto osservazione dopo essere stati esposti alle esalazioni. L’acido nitrico è anche in grado di reagire violentemente con sostanze chimiche organiche causando pericolo di incendi e esplosioni.

Ricordiamo poi la regola fondamentale ”mai dare da bere agli acidi” l’aggiunta di acqua può accelerare reazioni ad esempio tra acido solforico concentrato con ferro, alluminio e magnesio.

Per lo zinco in polvere la reazione è diretta. Oltre alla sostanza anche la forma è importante: se aumenta la superficie di scambio (polveri metalliche invece di metallo massivo) anche la reazione sarà più violenta. La stessa reazione accade fra basi forti (sodio idrossido o idrossido di ammonio) e metalli.

Il rischio da esplosioni “fisiche”

Le esplosioni fisiche si verificano quando quantità rilevanti di liquido vaporizzano istantaneamente per ebollizione, con un grande aumento di volume.

Ricordiamo il fenomeno dei BLEVE, Boiling Liquid Expanding Vapour Explosion. Esempi significativi di BLEVE si possono avere a seguito della brusca rottura di recipienti contenenti, per esempio, GPL, metano, etilene, propano, ammoniaca, cloro, anidride solforosa mantenuti liquefatti sotto pressione, oppure liquefatti e mantenuti a pressione atmosferica a bassa temperatura, per esempio ossigeno o azoto liquido. La rottura di bombole può causare una esplosione fisica, con proiezione a distanza di frammenti.

Da evitarsi il versamento in acqua di metallo fuso come alluminio o ferro. Il vapore si sviluppa con grande rapidità, proiettando liquido e generando onde d’urto, pericolose anche a notevole distanza. Anche qui si può approfondire consultando l’allegato presente nello stesso sito dell’Inail dove potete vedere citati anche altri fenomeni quali il “Boil Over” e la “decomposizione esplosiva” di determinati materiali.

La zona di ricarica delle batterie

Vale la pena ricordare una delle zone a rischio di esplosione che è presente abbastanza ubiquitariamente nei diversi settori produttivi: la zona di ricarica delle batterie dei carrelli elevatori, dei semoventi elettrici e/o di accumulatori. Credo che anche questo fenomeno esplosivo non sia poi così frequente visto che le moderne apparecchiature di ricarica dovrebbero essere munite di dispositivi di sicurezza che “staccano” al raggiungimento della carica ottimale. In effetti l’elettrolisi dell’acqua della batteria porta ad emissioni di idrogeno, se questo raggiunge la percentuale del 4 % si ottiene una atmosfera potenzialmente esplosiva. La massima emissione di idrogeno avviene quando la batteria è completamente carica, in questa situazione l’energia che forniamo viene tutta utilizzata in elettrolisi. Quindi evitare di porre sotto carica quando non c’è la necessità è un primo ovvio consiglio. Assicurarsi che il caricabatterie interrompa l’alimentazione al raggiungimento dell’obbiettivo è altrettanto ovvio. Quello che si deve attuare in prevenzione è posizionare tale zona in una parte coperta ma ben ventilata evitando così l’accumulo di gas che porti alla formazione di una atmosfera esplosiva. Una buona ventilazione naturale assicurerà una grande riduzione del rischio. Se ciò non fosse possibile si dovrà intervenire con un buon sistema di ventilazione forzata nell’area.

articolo originale

di Lorenzo Dalla Torre tratto da meccanicanews.com

NORMA UNI EN 12464 SULLA ILLUMINAZIONE NEI LUOGHI DI LAVORO

La commissione UNI “Luce e illuminazione” ha pubblicato la norma UNI EN 12464-1:2021 (che sostituisce la UNI EN 12461:2011) dal titolo: “Luce e illuminazione – Illuminazione dei posti di lavoro – Parte 1: Posti di lavoro in interni” che indica i requisiti minimi per l’illuminazione dei luoghi di lavoro in modo da soddisfare le esigenze di sicurezza.

Una corretta illuminazione, all’interno dei luoghi di lavoro, garantisce un benessere visivo dei lavoratori tra l ‘altro normato dall’allegato IV “requisiti dei luoghi di lavoro” del TU 81/08, l’allegato XXXIV “videoterminali” del tu 81/2008 e la norma UNI EN 12464 “luce e illuminazione – illuminazione dei posti di lavoro”.

La UNI EN 12464-1

La norma UNI EN 126464-1 specifica i requisiti di illuminazione per persone, in posti di lavoro in interni. Sono considerati tutti i compiti visivi abituali, incluso l’utilizzo di attrezzature munite di videoterminali.

Sì devono soddisfare tre requisiti fondamentali:

  • confort visivo, con una buona illuminazione i lavoratori hanno una sensazione di benessere e in modo indiretto ciò contribuisce anche a generare un livello di produttività più elevato e una qualità del lavoro migliore;
  • prestazioni visive, in cui i lavoratori sono in grado di svolgere i loro compiti visivi, anche in condizioni di difficili circostanze e per periodi più lunghi;
  • sicurezza, i punti luce devono essere installati in sicurezza.

Per soddisfare tali requisiti è necessario considerare i parametri fondamentali che caratterizzano l’ambiente luminoso :

  • distribuzione delle luminanze, bisogna evitare elevati contrasti di luminanze eccessivamente elevati o troppo bassi ai fini di aumentare il comfort visivo; esistono veri e propri fattori di riflessione per il calcolo adatto alle luminanze:
    • per il soffitto da 0.6 a 0.9;
    • per le pareti da 0.3 a 0.8;
    • per i piani di lavoro da 0.2 a 0.6 e per il pavimento da 0.1 a 0.5;
  • illuminamento medio, ossia devono essere mantenuti degli illuminamenti medi per garantire il comfort visivo ai lavoratori e riguardano le superfici indicate nella zona del compito visivo;
  • illuminamento delle zone circostanti al compito che può essere più basso di quello del compito ma non deve essere minore a determinati valori;
  • abbagliamento molesto che impedisce una visione corretta del compito visivo;
  • apparenza del colore che si riferisce al colore apparente della luce emessa ed è definita dalla temperatura di colore correlata;
  • resa del colore che definisce la capacità effettiva della lampada a restituire in modo adeguato i colori;
  • fattore di manutenzione che deve essere stabilito dal progettista in base alle conoscenze dell’impianto.

SENSORI E BIOSENSORI PER IL MONITORAGGIO AMBIENTALE

Un sensore è un dispositivo analitico che trasforma un segnale chimico in un segnale analogico, elettrico, digitale, etc. Formalmente la IUPAC definisce il sensore come: “un sistema in grado di trasformare un’informazione chimica, che va dalla concentrazione di un singolo componente specifico del campione in analisi alla concentrazione di tutti i componenti l’intera matrice, in un segnale analiticamente utile”.
Un biosensore è un dispositivo analitico che utilizza un componente biologico collegato a un rilevatore fisico per l’identificazione o la quantificazione di specifici composti all’interno di un campione.

L’elemento biologico selettivo, ad esempio un anticorpo o enzima, generalmente presenta un’elevata affinità di legame e selettività per l’analita da ricercare. Nei biosensori più comuni, un elemento biologico che è stato immobilizzato su una superficie solida si lega a un analita target all’interno di una miscela campione. L’intensità dell’interazione è misurata con uno speciale trasduttore, che converte il segnale biochimico in un segnale elettrico misurabile che può essere messo in relazione con la concentrazione dell’analita (lo scopo finale per il suo utilizzo).

La principale caratteristica di un biosensore è la specificità che è garantita dall’utilizzo di recettori biologici che per loro natura intrinseca sono specifici verso particolari analitiLa specificità si definisce come la capacità di reagire solo con un determinato analita e non con altri che possono essere presenti nel nostro ambiente di misura.

Fino ad alcuni anni fa i sensori erano oggetti molto delicati, con risposte lente, spesso non reversibili, cioè potevano essere usati per poche misure, addirittura a volte erano monouso e ciò che li rendeva poco “appetibili” era che le concentrazioni di misura erano molto alte, assai lontane dai limiti prestazionali estremamente bassi di LOD e LOQ richiesti ai metodi analitici per molti inquinanti.
Attualmente, invece, la ricerca e la tecnologia hanno permesso la messa a punto di sensori e, soprattutto, di biosensori, con caratteristiche peculiari e che li rendono così diffusi quali:

– Alta sensibilità
– Velocità di misura
– Economicità
– Reversibilità
– Stabilità nell’utilizzo intensivo
– Utilizzo in campo, senza necessità di tornare in laboratorio per le analisi: quindi risposta economica e immediata.

Oggigiorno tali dispositivi sono presenti dappertutto con l’intento di migliorare la qualità della nostra vita in ogni applicazione tecnologicamente avanzata. Sono, ad esempio, un elemento essenziale per il controllo e la diagnostica in settori come la casa, l’auto, la medicina, l’automazione industriale, le telecomunicazioni, l’ambiente, l’agricoltura. I sensori trovano ormai ampia applicazione nei più svariati campi, quali il monitoraggio ambientale, l’analisi alimentare, la diagnostica medica e, più recentemente, nella rilevazione di gas tossici e di materiali esplosivi.

La possibilità di coniugare l’elevata specificità di sistemi biologicamente attivi (enzimi, anticorpi, componenti di membrana, batteri, cellule, tessuti viventi animali o vegetali) con la sensibilità e praticità dei metodi elettrochimici di analisi (potenziometrici ed amperometrici), ha aperto alla ricerca un fertile campo di indagine e portato allo sviluppo di applicazioni di rilevante interesse sia teorico sia applicativo.
Le stesse caratteristiche costruttive di un biosensore lo rendono assai specifico per molecole target e rendono possibile il suo utilizzo anche in semplici sistemi in flusso continuo, permettendo il monitoraggio e l’automazione di apparecchiature biochimiche e cliniche, di processi biotecnologici, di processi industriali e nel monitoraggio ambientale.

I biosensori vengono classificati in base alla natura del mediatore biologico oppure rispetto al tipo di trasduzione impiegata.
La classificazione in base al mediatore biologico li distingue in:
-biosensori biocatalitici o sensori enzimatici;
-biosensori chemorecettoriali;
-immunosensori, ossia biosensori basati sulle interazioni antigene-anticorpo.

La classificazione in base al tipo di trasduzione del segnale, invece, li distingue in:
– biosensori elettrochimici o bioelettrodi;
– biosensori ottici o bio-optrodi;
– biosensori calorimetrici o biotermistori;
– biosensori acustici.

OGGI

Oggi sono disponibili per applicazioni di monitoraggio ambientale biosensori basati sull’enzima ureasi capaci di rivelare concentrazioni nanomolari di mercurio, e micromolari di rame e cadmio. Concentrazioni a livello di ppb di atrazina possono essere efficacemente determinate con biosensori amperometrici basati sull’enzima tirosinasi. Biosensori microbici basati sul batterio Escherichia coli geneticamente modificato possono rivelare concentrazioni fino a livelli nanomolari di un insetticida e acaricida organofosforico come il parathion e di altri pesticidi. Sensori fotoelettrochimici basati su aptameri permettono di rivelare concentrazioni dell’antibiotico tetraciclina a livelli picomolari. Biosensori basati sul DNA permettono di rivelare concentrazioni del vibrione del colera fino a livelli attomolari e meno.
Sensori biomimetici basati sulla cisteina permettono di determinare mercurio fino a livelli picomolari.

C’è un altro aspetto molto importante del rapporto tra analisi chimica convenzionale e analisi effettuata con sensori chimici o con biosensori, ed è legato agli aspetti ecologici, o di green chemistry o, con un termine ormai anche troppo abusato, di sostenibilità.
Se si possono eseguire analisi in meno tempo, con meno sforzo, riducendo i requisiti per campioni e reagenti, con persone meno preparate, condensando la complessità delle informazioni al minimo livello richiesto e raggiungere gli scopi in un laboratorio minimamente attrezzato o addirittura in loco, al di fuori del laboratorio, il risparmio è evidente.

PROSPETTIVE FUTURE

Oggi i sensori in genere sono capaci di rilevare in maniera aspecifica molte sostanze, ovvero in maniera accurata la concentrazione di una singola specifica molecola.

Tra tanti, il problema dei miasmi legati alle emissioni diffuse delle discariche, dei siti di compostaggio e di altre attività industriali costituisce un grave problema ambientale. Sarebbe assai utile poter effettuare monitoraggi in continuo e senza rischio per i tecnici. Tuttavia, i cosiddetti nasi elettronici sono ancora molto lontani dalle performance del naso umano e soprattutto del naso dei cani o di altri animali, in quanto questi ultimi riescono a rilevare centinaia o migliaia di sostanze; i nasi elettronici, invece, sono dispositivi complessi ottenuti mettendo insieme più sensori, ciascuno specifico per una determinata molecola o classe molto ristretta di molecole; la matrice ottenuta dalle singole risposte porta a un’impronta digitale che in qualche maniera cerca di emulare il funzionamento del naso umano (o canino) e determinare la presenza solo di qualche decina o al massimo centinaio di molecole: di qui la loro ancora limitata applicazione.

Nel futuro dei biosensori la ricerca guarda soprattutto alla possibilità di rilevamento simultaneo di più inquinanti

. Per esempio, di recente elettrodi prodotti mediante serigrafia hanno permesso l’identificazione parallela di estradiolo, paracetamolo e idrochinone in acqua di rubinetto; questi elettrodi potrebbero avere un’applicazione importante nell’analisi delle acque reflue.

I primi passi verso la realizzazione di un biosensore basato su alghe con due meccanismi di rilevamento distinti, elettrochimico e ottico, hanno mostrato prospettive promettenti per l’identificazione simultanea di più pesticidi in campioni d’acqua.

TUTTI

Tutti oggi possono acquistare con pochi euro un sensore per monitorare la temperatura e l’umidità dell’aria, la concentrazione delle sostanze organiche volatili, degli “inquinanti”. Sono disponibili sui siti dell’e-commerce apparecchi integrati per la misura della temperatura, del pH, del cloro libero, della conducibilità, che ormai costano anche meno di dieci euro, mentre la misura di questi parametri in laboratorio comporta una spesa iniziale di alcuni ordini di grandezza superiore.

Quando queste misure hanno valore ludico, o semplicemente informativo, tali sistemi sono più che rispondenti alle necessità, ma quando le misure vengono utilizzate per scopo professionale, questo può avere implicazioni anche serie.

E IL CHIMICO?

Il chimico ha il compito di leggere, interpretare e validare i dati che provengono dal sensore, di qualunque natura esso sia; di verificare quali siano le interferenze per quella matrice e se il sensore sia applicabile in quel determinato contesto e con quali tolleranze. Soprattutto il chimico sa e deve scegliere quale sensore, per quale matrice, per quale misura, affinché, come diceva Carlo Magno, mensurae et pondera ubique aequalia sint et iusta.

articolo originale del

Dott. Chim. Marco Trifuoggi.

tratto da federazione nazionale dei chimici e dei fisici: https://www.chimicifisici.it/sensori-e-biosensori-per-il-monitoraggio-ambientale/

VISIONE , ASTENOPIA , DIFETTI REFRATTIVI E BUON USO DEI VIDEOTERMINALI.

L’evoluzione della tecnologia ci facilita la vita, ma rappresenta una vera e propria minaccia per la salute dei nostri occhi. Passiamo ormai molte ore della giornata non solo davanti al pc per motivi di lavoro, ma anche con gli occhi fissi sui nostri nuovi “giocattoli” tecnologici, smartphone e tablet in primis, e su vecchie fiamme come la TV.
Uno studio dell’Università Keio di Tokyo pubblicato su Jama Ophthalmology, ha studiato gli effetti di un’esposizione prolungata agli schermi dei computer sui nostri occhi, segnalando in particolare il fatto che gli occhi dei lavoratori mostrano poco film lacrimale, necessario alla loro protezione. Inoltre, c’è anche una carenza della proteina che è la base del film lacrimale.


Gli scienziati giapponesi hanno analizzato quasi 100 persone che lavoravano in ufficio, esaminando la composizione del film lacrimale e ponendo loro delle domande sul numero domande sul numero di ore trascorse davanti al pc e sulla salute dei loro occhi.
Dai dati è emerso che il 7 per cento degli uomini e il 14 per cento delle donne aveva la cosiddetta sindrome dell’occhio secco. Inoltre, molti si lamentavano per le irritazioni, il bruciore e la vista appannata.
In questi casi, ovviamente, non bisogna perdere tempo e rivolgersi immediatamente a un oculista.
Nel caso in cui avvertissimo soltanto stanchezza oculare o secchezza, qualche piccolo suggerimento può migliorare la situazione:
fai un break ogni tanto. Dai ai tuoi occhi un riposo di qualche minuto, semplicemente rilassandoti. Togli gli occhiali se li indossi, chiudi gli occhi, fai un bel respiro profondo e stai per qualche minuto lontano dallo schermo.
Una volta a casa, non continuare a lavorare. Lascia perdere le mail e il telefono. Aspetta almeno un’ora prima di leggere un libro.


Cambia le luci. La luce dev’essere diffusa, ma non eccessiva, e deve illuminare l’ambiente in maniera corretta. Fai delle prove per capire il livello di illuminazione giusta per i tuoi occhi, che non sia né troppo bassa né troppo potente.
Batti le ciglia. Può sembrare uno strano consiglio, ma in realtà quando lavoriamo davanti a uno schermo tendiamo a ridurre il numero dei battiti di ciglia, il che provoca secchezza oculare e conseguente affaticamento che potremmo anche non cogliere al momento. Se necessario, utilizza le lacrime artificiali per bilanciare la situazione.
Concediti un massaggio. Quando lavoriamo davanti al computer i muscoli frontali tendono ad irrigidirsi, e se passiamo qualche minuto a massaggiarci la testa, la fronte e il collo, ci rilasseremo abbassando lo stress.
Da tenere in considerazione anche la regolazione della luminosità dello schermo. Dovrebbe essere abbastanza luminoso da consentire la lettura in maniera confortevole, ma non troppo illuminato rispetto a ciò che lo circonda, perché in questo caso il contrasto costringerebbe la retina a lavorare di più per compensare la differenza.


Francesco Loperfido, responsabile del Servizio di Oftalmologia generale dell’Irccs San Raffaele di Milano e consulente della Commissione Difesa Vista, ricorda: “il Tu 81, regola a livello europeo e italiano le problematiche per i lavoratori che fanno uso di terminali dalle tre alle 8 ore al giorno. La normativa impone una visita oculistica il cui referto viene valutato dal medico competente, ovvero il medico del lavoro, che darà l’idoneità in base anche ad altre valutazioni eseguite”.
L’obiettivo di questi screening non è solo stabilire se il lavoratore soffre di un difetto visivo, ma anche capire se l’eventuale problema è stato gestito nel modo più opportuno. Un’azione correttiva ‘doc’ non si limita infatti all’utilizzo di lenti specifiche, ma coinvolge tutto l’ambiente dell’ufficio: il monitor del computer, la scrivania, la sedia e le fonti di luce della stanza.
Qualche esempio. Una persona miope che non impiega le correzioni adeguate, evidenzia Loperfido, “modifica la sua postura in avanti sovraccaricando il collo. E il tutto causa maggiori bruciori agli occhi per la vicinanza allo schermo, e fastidi causati dalla contemporanea necessità di scrivere sulla tastiera e guardare il monitor”. L’ipermetrope, invece, “ha il problema opposto: dopo un po’ i caratteri si sdoppiano” e il lavoratore “tende ad allontanarsi dallo schermo, problema che si accentua con la presbiopia”. Gli astigmatici, infine, “tendono ad avere posture lateralizzate per compensare difetti elevati”. Tutte “queste ‘accomodazioni’ possono provocare una serie di disturbi che prendono il nome di astenopia accomodativa”: una vera e propria sindrome clinica che si manifesta con “fotofobia, riduzione dell’acuità visiva, visione sfuocata o doppia, lacrimazione, prurito, irritazione, cefalea, nausea, vertigine e tensione generale”, sottolinea lo specialista. Se poi si indossano gli occhiali da vista, gli schermi producono riflessi sulle superfici esterna e interna degli occhiali stessi. Riflessi che si sovrappongono sulla retina alle immagini visive, creando aloni che stancano l’occhio. Per questo “è buona norma utilizzare lenti trattate con filtri antiriflesso”, consiglia il medico.
Per chi ha invece più di un difetto visivo, fra cui la presbiopia, “la soluzione è quella delle lenti progressive” che “consentono una visione nitida a tutte le distanze.

Anche alcune lenti colorate possono essere utili a ridurre la luce dello sfondo e migliorare il contrasto”. Attenzione poi con le lenti a contatto, ammonisce Loperfido, perché “davanti allo schermo del computer diminuisce la frequenza degli ammiccamenti oculari, si riduce il film lacrimale e l’occhio è visibilmente più asciutto” e più vulnerabile. Per proteggere gli occhi dei ‘forzati del pc’ è inoltre fondamentale la scelta del monitor. I più sicuri sono quelli “piatti di ultima generazione”, dice l’oculista: ottimizzano contrasto e risoluzione, riducono i campi elettrostatici (tra le cause dell’occhio asciutto) e “favoriscono una maggiore distanza tra occhio e video. Soprattutto in quelle postazioni di lavoro (tipo le reception) dove spazi esigui facilitano posture sbagliate incrementando l’astenopia”.
Per quanto riguarda le fonti di luce, gli esperti affermano che è necessario evitare riflessi sullo schermo: la luce deve essere presente, ma contenuta, e il contrasto tra schermo e ambiente appropriato. È infine fondamentale che le fonti luminose siano perpendicolari allo schermo (né di fronte né alle spalle dell’operatore), e la postazione pc deve essere distante almeno un metro dalle finestre (schermate con tende regolabili). E ancora.

La sedia ‘sana’ deve essere ben bilanciata, deve muoversi su rotelle autofrenanti, deve avere un sedile regolabile in altezza e uno schienale posizionato in modo da sostenere la zona lombare. La scrivania, invece, deve avere una superficie opaca, preferibilmente di colori tenui o neutri. Le dimensioni devono permettere una certa libertà nel posizionare gli elementi sulla scrivania, e la distanza tra bordo e tastiera deve essere di almeno di 15 centimetri per poter appoggiare gli avambracci.
Per finire, le pause. Qualche datore di lavoro storcerà il naso, ma per salvaguardare la salute oculare è importante ‘staccare la spina’ per 15 minuti ogni due ore di lavoro. Le pause benefiche sono un diritto previsto dalle legge e durante lo ‘stop’ è consigliabile sgranchirsi braccia e schiena, senza tuttavia impegnare gli occhi. Da italiasalute.it

DEGENERAZIONE MACULARE RETINICA ED EFFICACIA DEGLI INTEGRATORI.

Gli studi sulle patologie degenerative oftalmiche legate all’età (AREDS e AREDS2) hanno evidenziato che gli integratori alimentari possono rallentare la progressione della degenerazione maculare legata all’età (AMD), la causa più comune di cecità negli americani più anziani. In un nuovo report, gli scienziati hanno analizzato 10 anni di dati AREDS2. Nuovi studi patrocinati dal National Institutes of Health, hanno dimostrato che la formula AREDS2, che ha sostituito con gli antiossidanti luteina e zeaxantina il beta-carotene, non solo riduce il rischio di cancro ai polmoni dovuto al beta-carotene, ma è anche più efficace nel ridurre il rischio di progressione dell’AMD, rispetto alla formula originale.

“Il beta-carotene aumenta il rischio di cancro ai polmoni per i fumatori. Pertanto il nostro obiettivo con AREDS2 era quello di trovare una formulazione di integratore altrettanto efficace che potesse essere utilizzata da chiunque, indipendentemente dal fatto che fumasse o meno”, ha affermato Emily Chew , M.D., direttore della Divisione di Epidemiologia e Applicazione Clinica presso il National Eye Institute (NEI) e autore principale del report. “I dati di 10 anni di studi confermano che non solo la nuova formula è più sicura, ma è anche più efficace nel rallentare la progressione dell’AMD”.

L’AMD è una malattia degenerativa della retina che coinvolge , il tessuto fotosensibile nella parte posteriore dell’occhio. La morte progressiva delle cellule retiniche nella macula ovvero di quella parte della retina che fornisce una chiara visione centrale, porta inesorabilmente ad una grave ipovisione . Il trattamento può rallentare o invertire la perdita della vista anche se purtroppo, non esiste una cura risolutiva per l’AMD.

Lo studio AREDS originale, lanciato nel 1996, ha mostrato che una formulazione di integratori alimentari (500 mg di vitamina C, 400 unità internazionali di vitamina E, 2 mg di rame, 80 mg di zinco e 15 mg di beta-carotene) potrebbe rallentare significativamente la progressione dell’AMD da malattia da moderata a tardiva. Tuttavia, due studi simultanei hanno anche rivelato che le persone che fumavano e assumevano beta-carotene avevano un rischio significativamente più alto di cancro ai polmoni del previsto.

In AREDS2, iniziato nel 2006, Chew e colleghi hanno confrontato la formulazione di beta-carotene con una con 10 mg di luteina e 2 mg di zeaxantina. Come il beta-carotene, la luteina e la zeaxantina sono antiossidanti con attività nella retina. La formazione contenente beta-carotene è stata somministrata solo ai partecipanti che non avevano mai fumato o che avevano smesso di fumare.

Alla fine dei cinque anni del periodo di studio previsto da AREDS2, i ricercatori hanno concluso che luteina e zeaxantina non aumentano il rischio di cancro ai polmoni e che la nuova formazione potrebbe ridurre il rischio di progressione dell’AMD di circa il 26%. Dopo il completamento del periodo di studio di cinque anni, a tutti i partecipanti allo studio è stata offerta la formazione AREDS2 finale che includeva luteina e zeaxantina invece del beta-carotene.

In questo nuovo report, i ricercatori hanno seguito 3.883 dei 4.203 partecipanti AREDS2 originali per altri cinque anni dalla fine dello studio AREDS2 nel 2011, raccogliendo informazioni sul fatto che la loro AMD fosse progredita fino alla malattia tardiva e se fosse stata diagnosticata cancro ai polmoni. Anche se tutti i partecipanti erano passati alla formula contenente luteina e zeaxantina dopo la fine del periodo di studio, lo studio di follow-up ha continuato a dimostrare che il beta-carotene aumentava di quasi il doppio il rischio di cancro ai polmoni per le persone che avevano fumato. Non vi è stato un aumento del rischio di cancro ai polmoni invece in coloro che hanno ricevuto luteina/zeaxantina. Inoltre, dopo 10 anni, il gruppo originariamente assegnato a ricevere luteina/zeaxantina aveva un rischio aggiuntivo del 20% ridotto di progressione verso l’AMD tardiva rispetto a quelli originariamente assegnati a ricevere beta-carotene.

“Questi risultati hanno confermato che il passaggio della nostra formula dal beta-carotene alla luteina e alla zeaxantina è stata la scelta giusta”, ha affermato Chew.

liberamente tradotto ed adattato da dott. Alessandro Guerri medico specialista in medicina del lavoro.

fonte:

National Institutes of Health
JAMA Ophthalmol (2022) – doi: 10.1001/jamaophthalmol.2022.1640
https://www.nih.gov/news-events/news-releases/nih-study-confirms-benefit-supplements-slowing-age-related-macular-degeneration

TUTELA DEL LAVORO CON PIATTAFORME DIGITALI

ROMA.  – Un disegno di legge per tutelare i lavoratori del mondo digitale. La proposta, in nove articoli per “tutelare il lavoro nei casi di utilizzo di piattaforme digitali e a contrastare i fenomeni di sfruttamento lavorativo”, arriva dai senatori della Commissione parlamentare d’inchiesta sulle condizioni di lavoro in Italia, sullo sfruttamento e sulla sicurezza nei luoghi di lavoro pubblici e privati.

Un’iniziativa che incassa la “piena adesione” del ministro del Lavoro, Andrea Orlando, e che, ricorda, un ddl di sua iniciativa “che collima con questa proposta sotto molteplici aspetti”. Per Orlando, “la necessità di adeguare il sistema normativo alle modalità organizzative dettate dalle nuove tecnologie è una realtà di cui dobbiamo prendere atto e su cui è necessario intervenire tempestivamente”.

“Se il lavoro è cambiato e si sta evolvendo, se oggi parliamo di transizione digitale in atto, non dobbiamo pensare che il lato oscuro del mercato del lavoro non evolva”, spiega il presidente della Commissione parlamentare, Gianclaudio Bressa.

“L’utilizzo sempre più massiccio delle nuove tecnologie  -aggiunge Bressa – ha fatto emergere il fenomeno del “caporalato digitale” dove i lavoratori della gig economy hanno sostituito i braccianti agricoli. Non è più soltanto il furgone a caricare al mattino i lavoratori in attesa della chiamata, ma è l’uso degli algoritmi che costituisce il fulcro per lo sfruttamento dei lavoratori. Ecco, allora, che il pericolo più profondo è che l’algoritmo e, più in generale, l’intelligenza artificiale, possano diventare strumenti senza controllo”.

Il governo, continua Orlando, sta portando avanti un impegno “anche a livello europeo per la definizione di regole più giuste per i lavoratori digitali e per fare in modo che l’Italia sia espressione di una avanguardia nel riconoscimento delle tutele   dei diritti per questi lavoratori”.

Il numero delle lavoratrici e dei lavoratori morti sul lavoro, osserva il ministro, “permane drammaticamente alto ed è inaccettabile per un Paese come il nostro” e “bisogna sfatare un luogo comune duro da abbattere: associare che le morti sul lavoro siano legate a qualche tipo di fatalità. Le morti sul lavoro, come gli incidenti, sono conseguenza di cattive forme organizzative, di mancanza di prevenzione e formazione, e anche conseguenza del tipo di competizione che si sceglie”.

Nell’economia digitale e nel lavoro tramite piattaforme, ad esempio, prosegue Orlando, “il rischio è quello dei ritmi di lavoro dovuto ad una commistione fra l’estrema modernità delle tecnologie digitali e il lavoro taylor-fordista di matrice novecentesca, con mansioni parcellizzate e ripetitive, tali da creare una catena continua ma anche forme di ‘caporalato digitale’, che trovano nell’utilizzo degli algoritmi il fulcro per lo sfruttamento del lavoratore”.

Il nuovo ddl proposto dalla Commissione d’inchiesta individua, tra le altre cose, “una serie di disposizioni che stabiliscano dei livelli minimi di tutela per tutti i lavoratori della gig economy”, prevede “misure ulteriori di protezione dei dati personali dei lavoratori nel caso in cui il committente utilizzi delle piattaforme digitali” e introduce dei “nuovi obblighi a carico del committente che utilizzi delle piattaforme digitali”.

da:

Valentina Accardo/ANSA-la voce d ‘Italia

INTELLIGENZA ARTIFICIALE E ROBOTICA: IMPATTO SUI LAVORATORI.

L’automazione sul luogo di lavoro è in crescita. Benché i progressi tecnologici schiudano nuove opportunità, presentano anche nuove sfide per il futuro della sicurezza e della salute sul lavoro (SSL).

Nell’ambito del programma quadriennale di ricerca sulla digitalizzazione, l’EU-OSHA ha pubblicato una relazione iniziale per affrontare tipi e definizioni dell’intelligenza artificiale (IA) e della robotica avanzata per l’automazione delle attività sul lavoro. La relazione passa in rassegna gli usi attuali e potenziali in tutti i settori e i compiti, dai robot industriali e di magazzino ai software di IA nel settore sanitario e fornisce una panoramica delle politiche e delle strategie a livello nazionale e dell’UE.

Per approfondire, leggi la relazione e la sintesi Robotica avanzata, intelligenza artificiale e automazione delle attività: definizioni, usi, politiche e strategie e sicurezza e salute sul lavoro

Un documento programmatico presenta una tassonomia della robotica avanzata e dei sistemi basati sull’IA che possono essere impiegati sui luoghi di lavoro, seguendo un approccio basato sui compiti, per strutturare e valutare le opportunità e le sfide in materia di SSL.

da osha.eu

Per una panoramica del progetto, rimandiamo alla presentazione PowerPoint

Maggiori informazioni su questi risultati e su quelli a venire sono disponibili nella sezione tematica del sito Digitalizzazione del lavoro

ACRILAMIDE ED ALIMENTI

Nonostante non ci sono più dubbi circa la correlazione tra l’aumentata esposizione all’acrilamide e il maggior rischio di sviluppare il cancro, l’Unione europea è lontana da una normativa che tuteli la salute dei consumatori. L’acrilammide è un contaminante di processo è che si forma naturalmente negli alimenti amidacei durante la normale cottura ad alta temperatura. La principale reazione chimica che ne è la causa è nota come “reazione di Maillard”, la stessa reazione chimica che conferisce ai cibi l’aspetto abbrustolito e li rende più gustosi. L’acrilammide ha inoltre diffusi impieghi non alimentari in ambito industriale ed è presente nel fumo di tabacco.

Cos’è l’acrilammide

Questa sostanza è presente in diversi alimenti: dai prodotti fritti a base di patate alle fette biscottate e i biscotti passando per il pane morbido e i cracker. Di recente, uno studio condotto dall’Università Federico II di Napoli e Roma San Raffaele su 90 campioni di baby food, indicati per lo svezzamento dei bambini da 4 a 36 mesi, ha evidenziato una concentrazione molto alta (seppur al di sotto delle soglie di riferimento) in quasi tutti i prodotti, in particolare modo nei biscotti.

Un’esposizione preoccupanti soprattutto per i bambini: l’acrilammide è stata classificata nel gruppo 2A dalla Iarc dell’Oms come “probabile cancerogeno per l’uomo” e l’Efsa ne raccomanda l’assenza. Tuttavia, non esiste un vero e proprio limite di legge, ma solo delle soglie – periodicamente riviste al ribasso – alle quali le aziende alimentari devono tendere per tenere sotto controllo la sostanza tossica. Così, in pratica, in caso vengano rilevate dei prodotti con concentrazioni superiori al livello di riferimento, non scatta nessun ritiro alimentare ma solo l’obbligo per le aziende di mettere in atto una serie di azioni di contenimento.

La denuncia di Safe

L’associazione Safe – Safe Food Advocacy Europe che segue molto da vicino l’evolversi della legislazione europea, da tempo denuncia le falle di questo sistema: “L’attuale meccanismo di controllo non è efficiente nel ridurre l’esposizione all’acrilammide poiché la procedura di avviso agli altri Stati membri viene attuata tra 15 e 30 giorni dopo che uno Stato membro ha notificato la contaminazione”. L’organizzazione fa riferimento al sistema di allerta europeo, Rassf che raccoglie le segnalazioni. “Secondo le notifiche degli Stati membri al sistema di allerta rapido su alimenti e mangimi (RASFF) nel 2020-2021, le contaminazioni da acrilammide erano comprese tra 497 e 2690 µg/kg, che sono 4-5 volte superiori ai valori di riferimento in vigore in l’Unione Europea” fa sapere l’associazione.

I prossimi passi

La Commissione europea ha avviato da poco un nuovo giro di consultazioni per rivedere nuovamente i limiti di mitigazione. Le aziende – dal canto loro – hanno presentato all’esecutivo i risultati del monitoraggio dell’acrilammide che sono tenuti costantemente a svolgere, mentre dall’altro Safe ha mostrato, ancora una volta, tutte le falle di quel sistema di controllo tanto decantato e chiesto alla Commissione di accelerare la fissazione di limiti di legge certi.

da ilsalvagente.it

RISCHIO CHIMICO IN AGRICOLTURA: LA VALUTAZIONE DI INSETTICIDI E FUNGHICIDI SULLE FOGLIE.

da inail.it

Il Quaderno si inserisce nel filone di ricerca sulla valutazione del rischio chimico nei lavoratori del comparto agricolo e presenta un approccio completamente nuovo per la valutazione dell’esposizione.

A questo scopo è stato sviluppato un metodo quantitativo per l’analisi diretta di alcuni comuni pesticidi sulle foglie di due colture estremamente diffuse in Italia: l’olivo e la vite. L’obiettivo del progetto era quello di ottenere un metodo di analisi molto veloce ed affidabile per valutare l’effettiva esposizione dei lavoratori agricoli durante le operazioni di rientro in campo. L’uso di una innovativa interfaccia per spettrometria di massa, la desorption electrospray ionization interface, ha permesso di raggiungere tale obiettivo fornendo i valori di concentrazione dei residui dei pesticidi semplicemente scansionando la superficie della foglia. Tali valori sono direttamente correlabili, tramite un’equazione, all’esposizione dermica potenziale e quindi possono fornire una stima molto accurata della quantità potenzialmente assorbibile dal lavoratore. Il metodo sviluppato è risultato quindi essere sensibile e accurato ma anche molto rapido essendo privo di pretrattamento (scarsa manipolazione del campione da parte dell’analista); inoltre, la quantità di solventi usata in tutto il processo risulta decisamente esigua (nell’ordine di pochi millilitri). Tutti questi aspetti hanno contribuito a rendere il metodo anche ecologico e a basso rischio di esposizione per coloro che devono effettuare i controlli.




Prodotto: Volume – Collana Quaderni di ricerca
Edizioni: Inail – marzo 2020
Disponibilità: Consultabile solo in rete
Informazioni e richieste: dcpianificazione-comunicazione@inail.it

LA SICUREZZA DELLE MACCHINE DA IMBALLAGGIO

Partendo dal patrimonio informativo che negli anni l’Istituto ha costituito e dalle competenze maturate nell’espletamento delle attività di accertamento tecnico, il documento raccoglie schede tecniche sulle macchine afferenti al comitato tecnico normativo TC 146 macchine per imballaggio, trattando le più significative non conformità rilevate, al fine di illustrare, rispetto allo stato dell’arte di riferimento, le soluzioni costruttive ritenute accettabili, e promuovere un miglioramento dei livelli di sicurezza nei luoghi di lavoro, come previsto nella mission istituzionale.

Prodotto: Volume
Edizioni: Inail – 2022
Disponibilità: Momentaneamente consultabile solo in rete
Info: dcpianificazione-comunicazione@inail.it

Da inail.it