Europa kent als tendens om met regelgeving te pogen haar achterstand in technologie op China en vooral de Verenigde Staten te compenseren met strenge wetten. Vervolgens kan Europa met hoge boetes voor Amerikaanse bedrijven het mislopen van belastinginkomsten uit eigen technologieplatforms compenseren.
Zo zien we steeds hogere boetes inzake databeschermingswet AVG voor Amerikaanse bedrijven als Meta en Google. De Digital Services Act (DSA) en vooral Digital Markets Act (DMA) moeten de grote platforms verder aan banden leggen. Voor de DMA moeten zes digitale platforms met in samen 22 diensten vanaf maart 2024 aan regels voldoen:
Alphabet (Google Search, Chrome, YouTube, Android, Maps, Play, Shopping)
Meta (Facebook, Messenger, Whatsapp, Instagram, Marketplace, reclame)
Microsoft (Windows, LinkedIn)
Amazon (reclame, Marketplace)
Apple (Safari, iOS, Appstore)
ByteDance (TikTok).
Ook de DSA benoemt vooral Amerikaanse platforms en zoekdiensten voor de zwaarste regels: AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube, Zalando, Bing en Google Search.
Amerikanen beschouwen dit als specifiek op hen gerichte regelgeving. Europa zegt haar Europese consumenten en ondernemers te moeten beschermen tegen de overmacht van de grote platforms.
Voor de AI Act speelt hetzelfde. Europa zegt, net als met de AVG in 2018, een mondiale primeur te hebben die over de hele wereld van invloed zal zijn: want Europa zet de toon en bedrijven moeten hun diensten veelal zodanig aanpassen dat ze ook elders in de wereld dezelfde voorwaarden bieden.
Europese startups willen vrijheid
Met de AI Act is juist op dit punt afgelopen vrijdag 10 november 2023 het overleg vastgelopen omdat Duitsland en Frankrijk eisen dat de regels voor modellering van AI soepeler worden. Dat doen ze onder invloed van enkele AI-bedrijven die menen op wereldschaal van betekenis te kunnen worden in concurrentie met Amerikaanse spelers. Een Nederlandse betrokkene bij het overleg bevestigt dit anoniem en inmiddels bericht Euractiv erover.
De AI Act voorziet vooral in het beteugelen van wat hoog-risico toepassingen worden benoemd: waarbij de kans op discriminatie van, en nadelige gevolgen voor personen het grootst is. Het dossier bevindt zich momenteel in de laatste fase van onderhandelingen met de ‘trialoog’ tussen de Europese Commissie, lidstaten en het Europees Parlement. De laatste eist scherpe wetgeving, de grote lidstaten (ook Italië) willen die plotseling niet in die mate en de Europese Commissie bevindt zich op de wip om te pogen tot een compromis te komen.
Tijdens de laatste politieke trialoog op 24 oktober leek er consensus te zijn voor de trapsgewijze aanpak met strengere regels naarmate de toepassing in een hogere categorie van risico valt. Net als bij de DMA en DSA kunnen de hoog-risico toepassingen concreet worden benoemd.
In een vergadering van de Telecom and Information Society Working Party donderdag, een technisch orgaan van de Raad van Ministers van de EU, spraken vertegenwoordigers van verschillende lidstaten, met name Frankrijk, Duitsland en Italië, zich echter uit tegen elke vorm van regelgeving voor modellen.
Mistral, een Franse AI-start-up met open source modellen, meent te veel te zullen worden gehinderd door de AI Act en heeft de Franse regering ervan weten te overtuigen. In Duitsland hetzelfde laken een pak Aleph Alpha, dat een succesvolle lobby heeft gevoerd bij de regering in Berlijn.
Probleem op de achtergrond is dat er nogal wat twijfels leven over de uitvoering van de AI Act, gezien de stormachtige ontwikkeling. Kun je de markt nu wel reguleren en hoe hard is dat nodig? Hoe effectief te handhaven zonder Europa op achterstand te zetten?
Het Spaanse voorzitterschap van de Europese Commissie probeert dit weekend en de komende dagen tot een compromis te komen, want enige eerzucht speelt doorgaans als het om het tonen van daadkracht als periodiek EU-voorzitter gaat. Spanje moet hierna weer 13 jaar wachten op het voorzitterschap. België wordt het eerste halfjaar van 2024 voorzitter.
De AI Act is gemodelleerd als wetgeving voor productveiligheid. Daarmee veronderstelt de AIAct dat AI een product of systeem is, dat afgebakend en ‘af’ is, voordat het ingezet wordt voor de toepassingen die de producent voor ogen had.
De AI Act classificeert de toepassingsgebieden naar vooraf veronderstelde risico’s. Dat is dus eigenlijk een list based approach en geen risk based approach. De lijsten en ook wijzigingen daarin, komen tot stand op basis van politiek compromis in de ondoorgrondelijke annexen van de AI Act.
De verordening kent ook een brede definitie van AI. Niet alleen systemen met geavanceerde zelflerende modellen, maar ook recht-toe-rechtaan formules in een Excel macro kunnen eronder vallen als zij ‘hoog risico’ geacht worden. Alles wat tegenwoordig een ‘algoritme’ wordt genoemd, valt eronder.
En meer, want de beleidsmakers willen toekomstvast zijn. Verder kent de AI Act een uit de wereld van productveiligheid overgenomen systematiek van vereiste gedegen documentatie, conformance testen en certificering, bekend van het CE-keurmerk. Dat veronderstelt dat er heldere criteria voor ‘OK’ vast te stellen zijn die vooraf vastgesteld en geverifieerd kunnen worden, door externe keuringsinstanties en toezichthouders.
Als je dit even op je laat inwerken dan zie dat dit misschien nog wel zou kunnen werken voor medische apparatuur, zelfrijdende auto’s en industriële robots (hoewel deze ook al hun eigen sector specifiek regels hebben of krijgen). Je zult dan ook zien dat dit ‘productveiligheidsparadigma’ wel heel lastig past op meer algemene(re) AI (general purpose AI en zeker ook generative AI), waarbij de producent (en denk daarbij ook aan opensource!) eerder een gereedschapskist en onderdelen aanlevert en de afnemer zelf bepaalt waarvoor en hoe de AI ingezet wordt.