AI-wetsvoorstel: Garanderen van transparante richtlijnen voor ChatGPT om een holistische benadering te bevorderen.

artificial intelligence

Rapporten suggereren dat onderhandelingen over de Europese AI-wet hebben geleid tot consensus over de mate van transparantie die wordt verwacht van AI-ontwikkelaars in hun modellen. Besprekingen over het gebruik van gezichtsscans en toegang tot de broncode worden verwacht uit te monden in een definitieve vergadering vandaag.
Op woensdag kwamen leden van het Europees Parlement, vertegenwoordigers van de Europese Commissie en EU-lidstaten samen om de EU AI Act te bespreken. Er zijn echter verdeeldheden ontstaan binnen Europa, aangezien zwaargewicht landen zoals Frankrijk, Duitsland en Italië zich nu verzetten tegen de ernstige gevolgen van het niet naleven van de wet. Deze landen uiten bezorgdheid dat strenge regelgeving een verwoestende impact kan hebben op startups in hun respectievelijke landen.
Ondanks de verdeeldheid gaven de deelnemers een sterke wens weer om de inhoud van de wetgeving zo veel mogelijk te consolideren. Vanwege de tijdsbeperkingen in aanloop naar de Europese verkiezingen heerst er een voelbare urgentie rondom de noodzaak van discussies en voortgang.
Desalniettemin meldt Bloomberg dat er geen overeenstemming kon worden bereikt over de volledige inhoud van de AI-wet. Na uitgebreide onderhandelingen die liepen van woensdag tot donderdag, zijn de deelnemers overeengekomen om vrijdagochtend een extra vergadering te houden, die om 9.00 uur begint. Deze beslissing is genomen om een grondige discussie en afhandeling van de nog openstaande zaken te waarborgen.
De discussies van vandaag zullen draaien om het gebruik van biometrische identificatie, specifiek gezichtsscans, in onze regio. Het lijkt erop dat de wetgeving met betrekking tot basismodellen, waar eerder geen consensus over was, nu is vastgesteld. Deze modellen zullen meer transparantie moeten bieden over de trainingsdata die ze gebruiken, hoewel de huidige vereisten nog maar basis zijn. Verder zullen de discussies van vandaag ingaan op de vraag of AI-modellen verplicht moeten zijn om hun broncode bekend te maken.
Bovendien zal een deel van de wetgeving afhangen van het principe van vrijwilligheid. Om systeemrisico’s aan te pakken, die het potentieel hebben om een domino-effect te veroorzaken en te leiden tot een ineenstorting van de bredere economie, zal een vrijwillige gedragscode worden ontwikkeld. De Europese Commissie zal naar verwachting een lijst samenstellen van AI-modellen die onder deze classificatie vallen.

AI-wetsvoorstel: Garanderen van transparante richtlijnen voor ChatGPT om een holistische benadering te bevorderen.
Verspreid de liefde

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Schuiven naar boven