Home Natuur Wat de strenge AI-wetgeving van de EU betekent voor onderzoek en ChatGPT

Wat de strenge AI-wetgeving van de EU betekent voor onderzoek en ChatGPT

0
Wat de strenge AI-wetgeving van de EU betekent voor onderzoek en ChatGPT


De verklaring van de Europese Commissie wordt weergegeven op een smartphone met AI- en EU-sterren op de achtergrond.

Vertegenwoordigers van de regeringen van de EU-lidstaten hebben deze maand de EU AI Act goedgekeurd.Krediet: Jonathan Raa/NurPhoto by way of Getty

De landen van de Europese Unie staan ​​op het punt om de eerste alomvattende reeks wetten ter wereld aan te nemen om kunstmatige intelligentie (AI) te reguleren. De EU AI Act legt de strengste regels op aan de meest risicovolle AI-modellen, en is ontworpen om ervoor te zorgen dat AI-systemen veilig zijn en de grondrechten en de waarden van de EU respecteren.

“Deze daad heeft enorme gevolgen, in termen van het vormgeven van hoe we denken over AI-regulering en het scheppen van een precedent”, zegt Rishi Bommasani, die onderzoek doet naar de maatschappelijke influence van AI aan de Stanford College in Californië.

De wetgeving komt naarmate AI zich snel ontwikkelt. Dit jaar zullen naar verwachting nieuwe versies van generatieve AI-modellen worden gelanceerd – zoals GPT, die ChatGPT aanstuurt, ontwikkeld door OpenAI in San Francisco, Californië – en bestaande systemen worden gebruikt voor oplichting en om desinformatie te verspreiden. China maakt al gebruik van een lappendeken van wetten om het commerciële gebruik van AI te sturen, en Amerikaanse regelgeving is in voorbereiding. Afgelopen oktober ondertekende president Joe Biden het eerste AI-uitvoerend bevel van het land, waarin federale instanties werden verplicht actie te ondernemen om de risico’s van AI te beheersen.

De regeringen van de EU-landen hebben de wetgeving op 2 februari goedgekeurd, en de moist moet nu definitief worden goedgekeurd door het Europees Parlement, een van de drie wetgevende machten van de EU; Dit zal naar verwachting in april gebeuren. Als de tekst ongewijzigd blijft, zoals beleidswaarnemers verwachten, zal de moist in 2026 in werking treden.

Sommige onderzoekers hebben de moist verwelkomd vanwege het potentieel om open wetenschap aan te moedigen, terwijl anderen zich zorgen maken dat het innovatie zou kunnen onderdrukken. Natuur onderzoekt hoe de moist het onderzoek zal beïnvloeden.

Wat is de aanpak van de EU?

De EU heeft ervoor gekozen AI-modellen te reguleren op foundation van hun potentiële risico, door strengere regels toe te passen op risicovollere toepassingen en aparte regelgeving te schetsen voor AI-modellen voor algemene doeleinden, zoals GPT, die brede en onvoorspelbare toepassingen hebben.

De moist verbiedt AI-systemen die ‘onaanvaardbare risico’s’ met zich meebrengen, bijvoorbeeld systemen die biometrische gegevens gebruiken om gevoelige kenmerken af ​​te leiden, zoals de seksuele geaardheid van mensen. Toepassingen met een hoog risico, zoals het gebruik van AI bij aanwerving en rechtshandhaving, moeten aan bepaalde verplichtingen voldoen; Ontwikkelaars moeten bijvoorbeeld laten zien dat hun modellen veilig, transparant en begrijpelijk zijn voor gebruikers, en dat ze zich houden aan de privacyregelgeving en niet discrimineren. Voor AI-tools met een lager risico zullen ontwikkelaars gebruikers nog steeds moeten vertellen wanneer ze interactie hebben met door AI gegenereerde inhoud. De moist is van toepassing op modellen die actief zijn in de EU en elk bedrijf dat de regels overtreedt, riskeert een boete van maximaal 7% van zijn jaarlijkse mondiale winst.

“Ik denk dat dit een goede aanpak is”, zegt Dirk Hovy, computerwetenschapper aan de Bocconi Universiteit in Milaan, Italië. AI is snel krachtig en alomtegenwoordig geworden, zegt hij. “Het opzetten van een raamwerk om het gebruik en de ontwikkeling ervan te begeleiden, is absoluut logisch.”

Sommigen zijn van mening dat de wetten niet ver genoeg gaan, waardoor er ‘gapende’ uitzonderingen bestaan ​​voor militaire en nationale veiligheidsdoeleinden, evenals mazen in de moist voor het gebruik van AI bij wetshandhaving en migratie, zegt Kilian Vieth-Ditlmann, een politicoloog bij AlgorithmWatch, een Berlijnse non-profit organisatie die de effecten van automatisering op de samenleving onderzoekt.

Hoeveel gevolgen zal dit voor onderzoekers hebben?

In theorie heel weinig. Vorig jaar heeft het Europees Parlement een clausule aan het wetsontwerp toegevoegd die AI-modellen vrijstelt die puur voor onderzoek, ontwikkeling of prototyping zijn ontwikkeld. De EU heeft onerous gewerkt om ervoor te zorgen dat de moist geen negatieve invloed heeft op het onderzoek, zegt Joanna Bryson, die AI en de regulering ervan bestudeert aan de Hertie College in Berlijn. “Ze willen innovatie echt niet tegenhouden, dus het zou me verbazen als dit een probleem gaat worden.”

Veel mensen schrijven aan rijen gebogen bureaus, gefotografeerd vanuit een hoge hoek.

Het Europees Parlement moet het laatste groene licht geven aan de moist. Er wordt in april een stemming verwacht.Krediet: Jean-Francois Badias/AP by way of Alamy

Maar de moist zal waarschijnlijk nog steeds impact hebben, omdat het onderzoekers aan het denken zet over transparantie, de manier waarop zij over hun modellen rapporteren en mogelijke vooroordelen, zegt Hovy. “Ik denk dat het zal filteren en goede praktijken zal bevorderen”, zegt hij.

Robert Kaczmarczyk, arts aan de Technische Universiteit van München in Duitsland en medeoprichter van LAION (Massive-scale Synthetic Intelligence Open Community), een non-profitorganisatie gericht op het democratiseren van machine studying, maakt zich zorgen dat de moist kleine bedrijven zou kunnen hinderen die onderzoek, en die mogelijk interne structuren moeten opzetten om zich aan de wetten te houden. “Het is heel moeilijk om je als klein bedrijf aan te passen”, zegt hij.

Wat betekent dit voor krachtige modellen zoals GPT?

Na verhitte discussies kozen beleidsmakers ervoor om krachtige modellen voor algemene doeleinden – zoals de generatieve modellen die afbeeldingen, code en video creëren – in hun eigen tweeledige categorie te reguleren.

Het eerste niveau omvat alle modellen voor algemene doeleinden, behalve modellen die alleen in onderzoek worden gebruikt of onder een open-sourcelicentie worden gepubliceerd. Deze zullen onderworpen zijn aan transparantievereisten, inclusief particulars over hun trainingsmethoden en energieverbruik, en moeten aantonen dat ze de auteursrechtwetten respecteren.

Het tweede, veel strengere niveau zal betrekking hebben op modellen voor algemene doeleinden waarvan wordt aangenomen dat ze “capaciteiten met een hoge influence” hebben, die een hoger “systeemrisico” met zich meebrengen. Deze modellen zullen onderworpen zijn aan “een aantal behoorlijk belangrijke verplichtingen”, zegt Bommasani, waaronder strenge veiligheidstests en cyberveiligheidscontroles. Ontwikkelaars zullen particulars over hun architectuur en gegevensbronnen moeten vrijgeven.

Voor de EU staat ‘groot’ feitelijk gelijk aan gevaarlijk: elk mannequin dat er meer dan 10 gebruikt25 FLOP’s (het aantal computerbewerkingen) in coaching kwalificeert als hoge influence. Het trainen van een mannequin met die hoeveelheid rekenkracht kost tussen de 50 miljoen en 100 miljoen greenback – de lat ligt dus hoog, zegt Bommasani. Het zou modellen moeten bevatten zoals GPT-4, het huidige mannequin van OpenAI, en zou toekomstige iteraties van Meta’s open-source rivaal, LLaMA, kunnen omvatten. Open-sourcemodellen in dit niveau zijn onderworpen aan regelgeving, hoewel modellen die alleen voor onderzoek bedoeld zijn hiervan uitgezonderd zijn.

Sommige wetenschappers zijn tegen het reguleren van AI-modellen en concentreren zich liever op de manier waarop ze worden gebruikt. “Slimmer en capabeler betekent niet meer schade”, zegt Jenia Jitsev, AI-onderzoeker bij het Jülich Supercomputing Middle in Duitsland en medeoprichter van LAION. Het baseren van regelgeving op welke mate van capaciteit dan ook heeft geen wetenschappelijke foundation, voegt Jitsev toe. Ze gebruiken de analogie van het als gevaarlijk definiëren van alle chemie die een bepaald aantal manuren gebruikt. “Het is internet zo onproductief als dit.”

Zal de moist open-source AI versterken?

EU-beleidsmakers en voorstanders van open supply hopen van wel. De moist stimuleert het beschikbaar, repliceerbaar en transparant maken van AI-informatie, wat bijna hetzelfde is als “het voorlezen van het manifest van de open-sourcebeweging”, zegt Hovy. Sommige modellen zijn opener dan andere, en het blijft onduidelijk hoe de taal van de moist zal worden geïnterpreteerd, zegt Bommasani. Maar hij denkt dat de wetgevers van plan zijn modellen voor algemeen gebruik, zoals LLaMA-2 en die van start-up Mistral AI in Parijs, vrij te stellen.

De aanpak van de EU om open-source AI aan te moedigen verschilt aanzienlijk van de Amerikaanse strategie, zegt Bommasani. “De redenering van de EU is dat open supply van cruciaal belang zal zijn om de EU te laten concurreren met de VS en China.”

Hoe zal de moist ten uitvoer worden gelegd?

De Europese Commissie zal een AI-bureau oprichten dat toezicht moet houden op modellen voor algemene doeleinden, geadviseerd door onafhankelijke deskundigen. Het bureau zal manieren ontwikkelen om de mogelijkheden van deze modellen te evalueren en de daarmee samenhangende risico’s te monitoren. Maar zelfs als bedrijven als OpenAI de regelgeving naleven en bijvoorbeeld hun enorme datasets indienen, vraagt ​​Jitsev zich af of een overheidsinstantie de middelen zal hebben om inzendingen adequaat te onderzoeken. “De eis om transparant te zijn is erg belangrijk”, zeggen ze. “Maar er werd weinig nagedacht over de manier waarop deze procedures moeten worden uitgevoerd.”

LEAVE A REPLY

Please enter your comment!
Please enter your name here