De tijd dat machineveiligheid alleen ging over noodstoppen, hekwerken en lichtschermen is voorbij. Met de opkomst van slimme camera’s, cobots en zelflerende besturingssystemen, verandert de definitie van een ‘veilige machine’.
Voor installateurs en systeemintegratoren breken er spannende, maar complexe tijden aan. Twee nieuwe Europese wetten grijpen diep in op jullie werkzaamheden: de AI Act en de nieuwe Machineverordening (MVO). Deze wetten staan niet los van elkaar; ze vormen samen het nieuwe wettelijke kader voor machineveiligheid.
Installeer, integreer of wijzig jij machines met slimme componenten? Dan moet je weten wanneer je te maken hebt met een "Hoog Risico AI-systeem" en welke documentatieverplichtingen daarbij horen. In dit artikel zetten we de regels en praktische stappen op een rij.
1. De Dubbelslag: AI Act en Machineverordening
Om te begrijpen wat er verandert, moeten we eerst kijken naar de wetgeving.
- De Machineverordening (EU) 2023/1230: Deze vervangt de oude Machinerichtlijn. Belangrijkste wijziging: de wet erkent dat software en AI een veiligheidscomponent kunnen zijn. Een machine moet niet alleen fysiek veilig zijn, maar ook beschermd tegen cyberaanvallen die de veiligheid in gevaar brengen.
- De AI Act: Deze reguleert de AI-software zelf.
De cruciale koppeling: De AI Act stelt dat AI-systemen die fungeren als veiligheidscomponent in machines (zoals beschreven in de Machineverordening), automatisch in de categorie Hoog Risico vallen.
Kortom: Als jij een AI-camera installeert die een pers moet stopzetten zodra er een hand tussen komt, is die AI een veiligheidscomponent. Daarmee val je direct onder de strengste regels van zowel de MVO als de AI Act.
2. Wanneer heeft een machine "AI"?
Niet elke PLC met een stukje software is AI. Voor de installateur is het belangrijk om het onderscheid te maken tussen klassieke automatisering en AI.
- Klassieke Automatisering (Geen AI): Een systeem werkt op basis van vaste regels (Rule-based). "Als sensor A wordt onderbroken, dan stopt motor B." Dit is voorspelbaar en deterministisch.
- AI-systeem (Wel AI): Het systeem maakt gebruik van technieken zoals machine learning of neurale netwerken. Het 'leert' van data of herkent complexe patronen die niet expliciet zijn geprogrammeerd.
Voorbeelden van AI in machines:
- Adaptieve robotica: Een robotarm die zijn snelheid en route aanpast omdat hij via camera's ziet waar de monteur staat.
- Vision-systemen: Een kwaliteitscontrolesysteem dat leert wat een 'fout' product is door duizenden foto's te analyseren.
- Autonome mobiele robots (AMR's): Magazijnrobots die zelf hun route bepalen en obstakels ontwijken zonder vaste lijnen op de vloer.
3. De Rol van de Installateur: Integrator of Fabrikant?
Dit is het grootste valkuil-gebied. In de installatietechniek worden vaak losse componenten samengevoegd tot een werkend geheel.
Situatie A: De pure installateur
Je koopt een complete machine (bijv. een CNC-bank met ingebouwde AI) die al een CE-markering heeft van de fabrikant. Je installeert deze volgens de handleiding.
- Jouw plicht: Controleren of de documentatie klopt en de machine correct plaatsen. De fabrikant is verantwoordelijk voor de AI-compliance.
Situatie B: De integrator (Jij bouwt het systeem)
Jij koopt een 'kale' robotarm, zet er een slimme grijper op, hangt er veiligheidscamera's omheen en schrijft de software die deze delen laat samenwerken.
- Jouw plicht: Jij creëert een nieuwe machine. Jij wordt gezien als de fabrikant.
- Gevolg: Jij moet de CE-markering verzorgen, de risicobeoordeling doen én voldoen aan de eisen voor Hoog Risico AI als jouw software de veiligheid regelt.
Situatie C: De 'Substantiële Wijziging'
Je past een bestaande machine bij een klant aan door er een slimme AI-module aan toe te voegen die de functies of veiligheid verandert.
- Gevolg: Dit geldt als een 'substantiële wijziging'. De oude CE-markering vervalt voor dat deel. Jij moet opnieuw aantonen dat de machine (inclusief AI) veilig is.
4. Verplichtingen bij Hoog-Risico Machines
Valt de machine die jij bouwt of samenstelt onder Hoog Risico AI? Dan komen er bovenop de standaard machine-eisen (zoals de RI&E) extra verplichtingen bij.
A. Risicobeoordeling 2.0
De klassieke risico-inventarisatie (beknelling, pletgevaar, elektrocutie) moet worden uitgebreid met AI-specifieke risico's:
- Cybersecurity: Kan iemand de machine hacken waardoor de beveiliging uitvalt?
- Bias en Data: Herkent de veiligheidscamera ook mensen met donkere huidskleur of beschermende kleding?
- Autonomie: Kan de machine onvoorspelbaar gedrag vertonen dat tot gevaar leidt?
B. Technische Documentatie en Logging
Je moet niet alleen het elektrisch schema opleveren, maar ook:
- Data-governance: Documentatie over met welke data het systeem getraind is.
- Logging: Het systeem moet automatisch loggen wat het doet ("Black Box"). Als er een ongeluk gebeurt, moet uit te lezen zijn waarom de AI besloot om niet te stoppen.
C. Menselijk Toezicht (Human Oversight)
De wet eist dat een mens altijd kan ingrijpen. Als installateur moet je de Human-Machine Interface (HMI) zo ontwerpen dat de operator snapt wat de AI doet en een 'noodstop' of override kan gebruiken die voorrang heeft op de software.
5. Leveranciersmanagement: Wat moet je checken?
Als installateur ben je afhankelijk van wat je inkoopt. Je wilt niet aansprakelijk zijn voor een onveilige AI-module van een leverancier.
Checklist voor inkoop van machines/componenten met AI:
- CE-markering: Vraag specifiek: "Voldoet dit product aan de nieuwe Machineverordening (EU) 2023/1230 én de AI Act?"
- Conformiteitsverklaring: Staat hierin expliciet vermeld dat de AI-componenten zijn getoetst?
- Updatebeleid: Machines gaan 15 jaar mee, software niet. Garandeert de leverancier veiligheidsupdates gedurende de levensduur? Wie betaalt die updates?
- Gebruiksaanwijzing: Is duidelijk omschreven wat de grenzen van de AI zijn? (Bijv: "De AI-camera werkt niet betrouwbaar bij mist of stoom").
6. Praktijkvoorbeelden
Voorbeeld 1: De AI-heftruck (AGV)
Je installeert automatische heftrucks in een magazijn. Deze gebruiken AI om mensen te herkennen en te stoppen.
- Risico: Dit is een veiligheidscomponent.
- Actie: Je moet verifiëren dat de detectie-algoritmes gecertificeerd zijn voor veiligheidstoepassingen. Een standaard 'webcam-algoritme' is hier verboden.
Voorbeeld 2: Predictive Maintenance op een luchtbehandelingskast
Je installeert een module die trillingen meet en voorspelt wanneer een lager stuk gaat.
- Risico: Als de module faalt, stopt de machine misschien, maar ontstaat er geen direct gevaar voor mensen.
- Actie: Dit is waarschijnlijk géén hoog risico (en geen veiligheidscomponent). De zware AI-regels gelden niet, maar wel de algemene productveiligheid.
7. Advies: Bereid je nu voor
De Machineverordening is al gepubliceerd en de AI Act is in werking. Wacht niet tot de inspectie op de stoep staat.
Stappenplan voor de installateur/integrator:
- Opleiding: Zorg dat je engineers snappen dat software nu ook een veiligheidscomponent is. Kennis van SIL (Safety Integrity Level) en PL (Performance Level) moet worden aangevuld met AI-kennis.
- Contracten aanpassen: Neem in je leveringsvoorwaarden op dat jij niet verantwoordelijk bent voor wijzigingen die de klant zelf aanbrengt in de AI-parameters na oplevering.
- Cybersecurity basis: Zorg dat elke machine die je oplevert voldoet aan basis cyberhygiëne (geen default wachtwoorden, netwerkscheiding). Zonder cybersecurity is een AI-machine per definitie onveilig volgens de MVO.
- Documentatiebeheer: Richt een proces in om softwareversies en updates van je klanten bij te houden. Je moet jarenlang kunnen aantonen welke versie draaide ten tijde van een incident.
Conclusie
Voor bedrijven die machines installeren, betekent de intrede van AI dat de gereedschapskist groter wordt. Naast de schroevendraaier en de multimeter, zijn nu ook risico-analyses van algoritmes en cyberbeveiliging onmisbaar. Door nu je inkoop en documentatie op orde te brengen, voorkom je dat je onbedoeld verantwoordelijk wordt voor een "losgeslagen robot". Veiligheid is niet langer alleen mechanisch, maar ook digitaal.
0 reacties