Voldoet jouw installatiebedrijf al aan de AI Act?
De 10-punten checklist voor ondernemers in de techniek
Voor wie: Eigenaars, projectleiders en inkopers in de installatietechniek. Doel: Snel inzicht krijgen of jij juridisch risico loopt met je software en slimme apparaten.
De Europese AI Act is officieel van kracht. Veel installateurs denken: "Ik bouw geen robots, dus dit geldt niet voor mij." Dat is een misvatting. Als installateur ontwikkel je misschien geen software, maar je koopt, installeert en gebruikt het wel.
⚠️ Let op: De meeste harde verplichtingen uit de AI Act worden pas vanaf augustus 2026 gehandhaafd. Toch is het slim om nu te beginnen. Contracten die je vandaag sluit, lopen vaak nog door in 2026. Deze checklist helpt je om vóór die tijd op orde te zijn.
Gebruik je software voor personeelsplanning? Installeer je slimme camera’s met gezichtsherkenning? Of importeer je zelf sensoren uit China? Met deze 10 punten controleer je of je "in control" bent.
☐ 1. Maak een inventarisatie (De 0-meting)
Je kunt niet beheren wat je niet kent. Niet elk stukje software is AI, maar veel moderne tools zijn dat wel.
-
Wat: Kijk naar planningssoftware, HR-tools (werving), slimme camera’s, en geavanceerde gebouwbeheersystemen (GBS).
-
Actie: Maak een simpele lijst: Systeem | Leverancier | Functie. Vraag bij twijfel aan de leverancier: "Bevat dit product AI volgens de officiële EU-definitie?"
☐ 2. Check je HR- en Planningssoftware (Potentieel Hoog Risico!)
Gebruik je software die automatisch sollicitanten beoordeelt of monteurs inroostert op basis van prestaties?
-
Waarom: AI die wordt gebruikt voor werving, selectie of beoordeling van werknemers, valt in de wet onder Hoog Risico. Hier gelden straks strenge regels voor registratie en toezicht.
-
Actie: Vraag je softwareleverancier schriftelijk: "Valt deze software onder de categorie Hoog Risico in de AI Act en sorteren jullie voor op de eisen van 2026?"
☐ 3. De Import-Valkuil: Ben jij stiekem fabrikant?
Koop jij slimme gadgets, camera's of sensoren in buiten de EU (bijv. China) en verkoop je die onder je eigen merknaam door?
-
Waarom: Juridisch word jij dan gezien als de fabrikant/provider. Jij bent 100% aansprakelijk voor de CE-markering, de technische documentatie en AI-compliance.
-
Actie: Wees hier extreem voorzichtig mee. Als je de technische documentatie en risico-analyses niet zelf kunt leveren, stop dan met deze 'white label' import.
☐ 4. Transparantie: Chatbots en Klantcontact
Heb je een chatbot op je website of een virtuele assistent aan de telefoon?
-
Waarom: De wet eist transparantie. Een mens moet weten dat hij met een machine praat. Misleiding is verboden.
-
Actie: Zet er duidelijk bij: "Ik ben een digitale assistent" of "Dit gesprek wordt gevoerd door AI".
☐ 5. Update je inkoopvoorwaarden
Zorg dat je niet opdraait voor de fouten van jouw leverancier.
-
Waarom: Als jij een slim GBS installeert dat later illegaal blijkt (omdat het verboden AI-functies bevat), wil je de schade kunnen verhalen.
-
Actie: Voeg een clausule toe aan inkoopcontracten: "Leverancier garandeert dat alle geleverde hard- en software voldoet aan de EU AI Act."
☐ 6. Beveiliging (Cybersecurity is de basis)
Een AI-systeem moet veilig zijn. Dit hangt nauw samen met de Cyber Resilience Act.
-
Waarom: Onveilige apparaten mogen in de toekomst niet meer verhandeld worden.
-
Actie: Accepteer geen apparaten meer met standaardwachtwoorden (zoals
admin/1234). Zorg dat je een proces hebt voor updates.
☐ 7. Instructie aan monteurs: "Niet zelf knutselen"
Koppelen monteurs systemen aan elkaar via eigen scripts of handige apps (bijv. Home Assistant in een zakelijke omgeving)?
-
Waarom: Door systemen te combineren en eigen logica toe te voegen, kun je onbedoeld een 'nieuw AI-systeem' creëren. Hierdoor verschuift de verantwoordelijkheid van de leverancier naar jou.
-
Actie: Stel een interne regel op: Alleen goedgekeurde software en koppelingen mogen worden geïnstalleerd.
☐ 8. Menselijk Toezicht (Human Oversight)
Vertrouw je blind op AI-beslissingen in kritieke processen?
-
Waarom: Bij Hoog Risico AI eist de wet dat een mens kan ingrijpen.
-
Voorbeeld: Een systeem stelt voor om een lift uit te schakelen wegens een voorspelde storing.
-
Actie: Zorg dat er altijd een ervaren medewerker (de 'human in the loop') is die de bevoegdheid heeft om de AI te overrulen.
☐ 9. Privacy & Bedrijfsgeheimen (Shadow AI)
Stoppen medewerkers klantgegevens in openbare tools zoals ChatGPT om een offerte te schrijven?
-
Waarom: Dit is vaak een datalek (AVG) en kan bedrijfsgeheimen blootgeven.
-
Actie: Stel een beleid op: Geen persoonsgegevens of bedrijfsgeheimen in openbare, gratis AI-tools.
☐ 10. Documenteer je keuzes
De inspectie vraagt om bewijs als er iets misgaat.
-
Actie: Bewaar van kritische systemen de conformiteitsverklaringen (CE), de handleidingen en de correspondentie met leveranciers in een centrale map.
⚠️ Praktische Tijdlijn (Geen paniek, wel actie)
-
Nu direct: Punten 1, 3 en 9 (Inventarisatie, Import-check, Privacybeleid).
-
Komend jaar: Punten 2, 4, 5 en 7 (Gesprekken met leveranciers en werkprocessen aanpassen).
-
Richting 2026: Punten 6, 8 en 10 (Zorgen dat alles klaar staat voor de handhaving).
Tip: Hang deze lijst op in de kantine. Compliance begint niet bij de jurist, maar bij bewustwording op de werkvloer.
0 reacties