Ispettore qualità in reparto controlla checklist e report tecnici vicino a una macchina industriale con sistemi di misura di posizione

Prima dell’ordine, un OEM serio dovrebbe avere una checklist di accettazione. Non la lista delle belle parole – alta risoluzione, IP67, resistente agli oli – ma le prove che separano una specifica dichiarata da un sistema che regge davvero la vita in macchina. Affidabilità e robustezza non coincidono: la prima riguarda il comportamento atteso nel tempo e nelle condizioni d’uso; la seconda descrive la capacità di assorbire qualche urto, sporco o abuso senza cedere subito.

Sembra una distinzione accademica. In reparto non lo è. I guasti che fanno perdere ore e credibilità raramente si presentano come rotture nette. Arrivano come derive, fermate intermittenti, allarmi sporadici, scarti che compaiono solo dopo il lavaggio o nei cambi turno. E lì si scopre se il fornitore ha validato un sistema, oppure ha venduto un aggettivo.

La checklist che andrebbe chiusa prima dell’ordine

Un audit tecnico fatto bene parte da poche domande, molto scomode. Se restano senza risposta documentata, l’ordine è prematuro.

  • Ambiente reale: quali contaminanti sono previsti, con quali tempi di esposizione, quali detergenti, quali escursioni termiche, quali vibrazioni?
  • Compatibilità EMC: esiste un piano di prova con configurazione, cablaggi, criteri di accettazione e ripetibilità, oppure c’è solo una dichiarazione generica?
  • Durata e deriva: quanti cicli, quante ore, quale scostamento ammesso prima che il dato di posizione diventi inutilizzabile?
  • Tracciabilità: lotto, revisione, firmware, materiale delle tenute, report di prova e gestione delle non conformità sono rintracciabili senza inseguire dieci persone?
  • Criteri di fornitura: le stesse risposte arrivano da ufficio tecnico, qualità e commerciale, oppure ogni reparto racconta una storia diversa?

Qui si vede il primo punto cieco. Molti OEM controllano la prestazione nominale all’arrivo e saltano la validazione del contesto. Se il componente gira sul banco e comunica con il PLC, sembra a posto. Ma il banco prova non sporca, non vibra, non ha inverter vicini, non cambia detergente a metà stagione. La macchina sì.

Dove finisce il marketing e inizia la prova tecnica

La distinzione è semplice, anche se spesso viene nascosta sotto le parole giuste. Una posizione espressa bene da Sacemi: la robustezza descrive la resistenza a sollecitazioni o disturbi; l’affidabilità riguarda la probabilità che la funzione resti conforme nel tempo, dentro un profilo di missione definito. Tradotto: sopravvivere a una prova spot non equivale a garantire misura stabile dopo mesi di lavoro sporco.

La letteratura tecnica lo ripete da anni. In una tesi dell’Università di Bologna sulla validazione di affidabilità e sicurezza, il nodo non è il singolo componente forte, ma il metodo: ipotesi operative chiare, failure mode esplicitati, criteri di accettazione e verifica del sistema nelle condizioni attese. Se manca questo passaggio, la scheda tecnica resta una promessa educata.

Prendiamo i test contro i contaminanti. Renishaw richiama prove con oli leggeri, residui e graffi superficiali. Bene. Ma la domanda vera è un’altra: quale olio, con quale viscosità, a quale temperatura, per quanto tempo, con quale velocità periferica e dopo quali pulizie? Chi conosce il campo lo sa: la parola olio da sola dice poco. Un velo di nebbia lubrorefrigerante e un detergente alcalino a fine turno non sono la stessa storia.

IP, materiale, interfaccia: tutto utile. Ma sono fotografie. L’affidabilità è un film.

E la compatibilità EMC? Qui il catalogo tende a diventare fumoso. Per un encoder di sicurezza, SICK richiama la IEC 61800-5-3 come primo riferimento specifico e cita i principi IFA 2015 per test e certificazione. È un richiamo utile perché rimette ordine: la sicurezza non nasce dall’etichetta, nasce da un perimetro di prova, da criteri di guasto, da una catena di evidenze. Se si parla di disturbi condotti, irradiati, errori di comunicazione o perdita di conteggio, servono configurazioni ripetibili e soglie di accettazione, non aggettivi rassicuranti.

Nei settori regolati la carta pesa quanto il metallo

La manifattura tende a separare due mondi: da una parte la prestazione tecnica, dall’altra la burocrazia. È una distinzione comoda, e spesso falsa. La Commissione Europea ricorda che il sistema RASFF ha base giuridica nell’articolo 50 del Regolamento (CE) 178/2002. Il punto, qui, non è il settore alimentare in sé. È la logica: quando c’è un problema, conta la tracciabilità formale dell’informazione, non il ricordo di chi aveva già visto il pezzo.

Lo stesso meccanismo vale nella validazione di un sistema di misura di posizione. Se un sensore in campo genera fermate o deviazioni, servono seriali, revisioni, condizioni di prova, materiali delle parti esposte, compatibilità chimica, storico delle modifiche. Senza questa catena, la discussione degenera in opinione contro opinione. E l’OEM resta in mezzo, con il cliente fermo e la produzione che aspetta.

I settori regolati danno un promemoria poco romantico. SSICA ha segnalato 121 notifiche MOCA, con prevalenza di migrazione di formaldeide e ammine aromatiche, 49 casi, e contaminanti industriali, 32 casi. Non c’entra soltanto il packaging alimentare. C’entra il metodo: dove il rischio di contaminazione è concreto, la validazione documentata pesa quanto la tecnologia usata. Se un componente sta vicino a materiali, lubrificanti, polveri o cicli di lavaggio, la domanda non è funziona. La domanda è come lo dimostrate, con quale documentazione e fino a quale revisione.

È qui che molti capitolati inciampano. Chiedono precisione, risoluzione, protocollo di comunicazione. Non chiedono abbastanza sulla tenuta del dato dopo esposizione, sul comportamento con contaminanti reali, sulla coerenza dei report tra lotto e lotto. Poi, in audit, il problema non è tecnico: è che la carta non regge la macchina.

Le domande che smascherano le specifiche comode

Un fornitore serio non dovrebbe irritarsi davanti a cinque richieste molto terra terra. Primo: profilo di missione, scritto. Secondo: matrice EMC con set-up, cablaggio e criterio pass/fail. Terzo: prova ambientale con contaminanti nominati, non descritti in modo poetico. Quarto: gestione di revisioni, lotti, firmware e report. Quinto: analisi del reso e tempi di chiusura della non conformità. Se su uno solo di questi punti partono giri di parole, il rischio è già emerso.

Mettiamo il caso di una linea packaging che lavora bene per due mesi e poi inizia a perdere il riferimento dopo i lavaggi del fine settimana. Il sensore resiste ai liquidi, diceva la scheda. Ma quali liquidi? E dopo quante esposizioni? E con quale cavo, con quale serraggio, con quali disturbi generati dagli azionamenti vicini? L’affidabilità si rompe quasi sempre in queste pieghe, non nei claim da prima pagina.

Un altro indizio, da chi passa tempo in reparto, è la coerenza tra famiglie di prodotto. Se un costruttore tratta encoder incrementali e assoluti, interfacce come Profinet, EtherCAT, EtherNet/IP, CANopen o IO-Link, trasduttori lineari e controllori, la validazione non può essere letta come un timbro uguale per tutti: cambia con l’interfaccia, con il cablaggio, con l’ambiente applicativo, con la diagnosi disponibile — e la proposta di https://www.elap.it mostra bene quanto variegata possa essere questa articolazione.

Però qui cascano parecchi uffici acquisti. Vedono un marchio conosciuto, una storia industriale lunga, un prezzo accettabile e una scheda ordinata. Pensano che basti. Non basta. La qualità del fornitore si misura anche da quanto rapidamente collega un codice a una prova, una revisione a un report, un’anomalia a una causa verificata. Se serve una settimana soltanto per capire quale versione è stata spedita, la robustezza del componente conta già meno.

Mini-scorecard da audit: cinque prove, non cinque slogan

1 – ambiente reale. Passa chi indica contaminanti, detergenti, temperature, umidità e cicli di esposizione. Bocciato chi scrive adatto ad ambienti gravosi e si ferma lì.

2 – EMC verificabile. Passa chi mostra set-up, criteri di accettazione e comportamento del segnale durante il disturbo. Bocciato chi produce una conformità astratta, senza dire come è stata ottenuta.

3 – durata con deriva ammessa. Passa chi definisce ore, cicli e scostamento massimo della misura. Bocciato chi promette lunga vita senza legare la promessa a una soglia.

4 – tracciabilità completa. Passa chi collega lotto, revisione, firmware, materiali e report. Bocciato chi apre cartelle diverse per ogni reparto e costringe l’OEM a fare l’investigatore.

5 – risposta organizzativa. Passa chi dà la stessa risposta da commerciale, ufficio tecnico e qualità. Bocciato chi cambia versione dei fatti a seconda di chi alza il telefono.

Se il punteggio è basso, non si sta acquistando affidabilità. Si sta comprando una robustezza raccontata bene. E quella, in macchina, dura fino al primo problema serio. Poi arrivano fermo linea, scarti, rilavorazioni e discussioni su chi dovesse chiedere cosa. La parte amara è questa: quasi sempre si poteva vedere prima, con una checklist scritta bene e qualche domanda meno educata.

Di Giuliano Oliva

Sono uno scrittore a cui non piace molto scrivere. Il mio blog, questo blog, condivide i miei pensieri e le mie esperienze con il mondo.