Er zou nog een beleidsstrijd kunnen ontstaan rond de contentaanbevelingssystemen van Massive Tech in de Europese Unie, waar de Commissie wordt geconfronteerd met een oproep van een aantal parlementariërs om op profilering gebaseerde contentfeeds – ook wel ‘personalisatie’-engines genoemd die gebruikersgegevens verwerken – in toom te houden. om te bepalen welke inhoud ze moeten tonen.
Het volgen en profileren van gebruikers door reguliere platforms om ‘gepersonaliseerde’ inhoudsfeeds mogelijk te maken, heeft al lang zorgen geuit over mogelijke schade voor individuen en democratische samenlevingen, waarbij critici suggereren dat de technologie de verslaving aan sociale media aanwakkert en geestelijke gezondheidsrisico’s met zich meebrengt voor kwetsbare mensen. Er zijn ook zorgen dat de technologie de sociale cohesie ondermijnt by way of de neiging om verdeeldheid zaaiende en polariserende inhoud te versterken die individuen naar politieke uitersten kan duwen door hun verontwaardiging en woede te kanaliseren.
De temporary, ondertekend door 17 Europarlementariërs van politieke groeperingen waaronder S&D, hyperlinks, groenen, EPP en Renew Europe, pleit ervoor dat de aanbevelingssystemen van technologieplatforms standaard worden uitgeschakeld – een idee dat naar voren kwam tijdens de onderhandelingen over de Digital Companies Act (DSA) van het blok. ) maar die de definitieve verordening niet hebben gehaald omdat er geen democratische meerderheid voor bestond. In plaats daarvan stemden de EU-wetgevers in met transparantiemaatregelen voor aanbevelingssystemen, samen met de eis dat grotere platforms (zogenaamde VLOP’s) ten minste één inhoudsfeed moeten aanbieden die niet op profilering is gebaseerd.
Maar in hun temporary dringen de Europarlementariërs aan op een algehele standaard voor de technologie. “Op interactie gebaseerde aanbevelingssystemen, in het bijzonder hypergepersonaliseerde systemen, vormen een ernstige bedreiging voor onze burgers en onze samenleving als geheel, omdat ze prioriteit geven aan emotionele en excessive inhoud, en zich specifiek richten op individuen die waarschijnlijk worden geprovoceerd”, schrijven ze.
“De verraderlijke cyclus stelt gebruikers bloot aan sensationele en gevaarlijke inhoud, waardoor hun platformbetrokkenheid wordt verlengd om de advertentie-inkomsten te maximaliseren. Amnesty’s experiment op TikTok onthulde dat het algoritme een gesimuleerde 13-jarige binnen slechts een uur blootstelde aan video’s waarin zelfmoord werd verheerlijkt.’ Bovendien onthulde Meta’s interne onderzoek dat een significante 64% van de toetredingen tot extremistische groeperingen voortkomt uit hun aanbevelingsinstrumenten, waardoor de verspreiding van extremistische ideologieën wordt verergerd.”
De oproep volgt onlineveiligheidsrichtlijnen opstellen voor platforms voor het delen van video’s, eerder deze maand gepubliceerd door de Ierse mediacommissie (Coimisiún na Meán) – die verantwoordelijk zal zijn voor lokaal toezicht op de DSA zodra de regelgeving in februari van kracht wordt voor diensten die onder de reikwijdte vallen. Coimisiún na Meán adviseert momenteel over richtlijnen waarin wordt voorgesteld dat platforms voor het delen van video’s “maatregelen moeten nemen om ervoor te zorgen dat aanbevelingsalgoritmen op foundation van profilering standaard worden uitgeschakeld”.
De publicatie van de richtlijn volgde op een aflevering van gewelddadige burgerlijke onrust in Dublin waarvan de politie van het land suggereerde dat deze was aangewakkerd door desinformatie die door extreemrechtse ‘hooligans’ op sociale media en berichtenapps werd verspreid. En eerder deze week de Ierse Raad voor Burgerlijke Vrijheden (ICCL) – dat al lange tijd campagne voert op het gebied van digitale rechten – riep de Commissie ook op om het voorstel van Coimisiún na Meán te steunen en haar voorstel te publiceren. eigen rapport Het pleit ervoor om gepersonaliseerde feeds standaard uit te schakelen, omdat het beweert dat algoritmen voor sociale media samenlevingen verscheuren.
In hun temporary gaan de leden van het Europees Parlement ook in op het voorstel van de Ierse mediaregulator – wat suggereert dat het “effectief” problemen zou aanpakken die verband houden met aanbevelingssystemen die de neiging hebben om “emotionele en excessive inhoud” te promoten, waarvan zij op dezelfde manier beweren dat deze de maatschappelijke cohesie kan schaden.
In de temporary wordt ook verwezen naar een onlangs aangenomen verslag van het Europees Parlement over het verslavende ontwerp van onlinediensten en consumentenbescherming, waarvan zij zeggen dat “de schadelijke influence werd benadrukt van aanbevelingssystemen op onlinediensten die zich bezighouden met het profileren van individuen, vooral minderjarigen, met de bedoeling gebruikers zo lang mogelijk op het platform te houden en ze zo te manipuleren by way of de kunstmatige versterking van haat, zelfmoord, zelfbeschadiging en desinformatie”.
“Wij roepen de Europese Commissie op om het voorbeeld van Ierland te volgen en beslissende actie te ondernemen door deze maatregel niet alleen goed te keuren in het kader van de TRIS-procedure (Technical Laws Info System), maar ook door deze maatregel aan te bevelen als een risicobeperkende maatregel die door zeer grote onlineplatforms moet worden genomen. VLOPs) volgens artikel 35(1)(c) van de Digital Companies Act om ervoor te zorgen dat burgers betekenisvolle controle hebben over hun gegevens en online-omgeving”, schrijven de EP-leden en voegen eraan toe: “De bescherming van onze burgers, vooral de jongere generatie, is van het allergrootste belang, en wij zijn van mening dat de Europese Commissie een cruciale rol moet spelen bij het waarborgen van een veilige digitale omgeving voor iedereen. Wij kijken uit naar uw snelle en beslissende actie in deze kwestie.”
Onder TRIS zijn de EU-lidstaten verplicht om de Commissie op de hoogte te stellen van ontwerpen van technische voorschriften voordat deze als nationale moist worden aangenomen, zodat de EU een juridische toetsing kan uitvoeren om ervoor te zorgen dat de voorstellen constant zijn met de regels van het blok – in dit geval de DSA .
Het systeem betekent dat nationale wetten die de EU-regelgeving willen ‘vergulden’ waarschijnlijk niet door de toetsing zullen komen. Het voorstel van de Ierse mediacommissie om de aanbevelingssystemen van videoplatforms standaard uit te schakelen, zal het TRIS-proces dus wellicht niet overleven, aangezien het verder lijkt te gaan dan de letter van de relevante moist.
Dat gezegd hebbende, zelfs als het voorstel van Coimisiún na Meán de EU-toetsing van de juridische consistentie niet doorstaat, stelt de DSA wel een eis aan grotere platforms (ook bekend als VLOPS) om de risico’s die voortvloeien uit aanbevelingssystemen te beoordelen en te beperken. Dus het is tenminste mogelijk platforms zouden kunnen besluiten deze systemen zelf standaard uit te schakelen als compliancemaatregel om te voldoen aan hun DSA-verplichtingen voor systeemrisicobeperking.
Hoewel niemand tot nu toe zo ver is gegaan – en het is duidelijk niet een stap die deze door advertenties gefinancierde, op betrokkenheid gebaseerde platforms als commerciële standaard zouden kiezen.
De Commissie weigerde publiekelijk commentaar op de temporary van de leden van het Europees Parlement (of het rapport van de ICCL) toen wij erom vroegen. In plaats daarvan wees een woordvoerder op wat zij omschrijven als “duidelijke” verplichtingen voor de aanbevelingssystemen van VLOPs, zoals vastgelegd in artikel 38 van de DSA – die vereist dat platforms ten minste één optie bieden voor elk van deze systemen, die niet gebaseerd is op profilering. Maar we konden het debat over profilering van diervoeders bespreken met een EU-functionaris die over de achtergrond sprak, zodat we vrijer konden praten.
Ze waren het erover eens dat platforms ervoor zouden kunnen kiezen om op profilering gebaseerde aanbevelingssystemen standaard uit te schakelen als onderdeel van hun DSA-naleving van de systeemrisicobeperking, maar bevestigden dat geen enkele tot nu toe zo ver van zichzelf is afgeweken.
Tot nu toe hebben we alleen gevallen gezien waarin niet-profilerende feeds als optie beschikbaar zijn gesteld aan gebruikers, zoals door TikTok En Instagram — om te voldoen aan de bovengenoemde (artikel 38) DSA-vereiste om gebruikers de keuze te bieden om dit soort personalisatie van inhoud te vermijden. Dit vereist echter een actieve opt-out door gebruikers – terwijl het standaard instellen van non-profilering voor feeds duidelijk een sterkere vorm van inhoudsregulering zou zijn, omdat er geen actie van de gebruiker nodig is om impact te sorteren.
De EU-functionaris met wie we spraken, bevestigde dat de Commissie aanbevelingssystemen onderzoekt in haar hoedanigheid van handhaver van de DSA op VLOP’s – onder meer by way of de formele process die op X werd geopend. eerder deze week. Aanbevelingssystemen waren ook een aandachtspunt voor enkele formele verzoeken om informatie die de Commissie VLOP’s heeft gestuurd, waaronder één op Instagram gericht op de veiligheidsrisico’s voor kinderen, ze hebben ons verteld. En ze waren het erover eens dat de EU grotere platforms zou kunnen dwingen om gepersonaliseerde feeds standaard uit te schakelen in haar rol als handhaver, dat wil zeggen door gebruik te maken van de bevoegdheden die zij heeft om de moist te handhaven.
Maar ze suggereerden dat de Commissie een dergelijke stap alleen zou ondernemen als zij zou vaststellen dat deze effectief zou zijn in het beperken van specifieke risico’s. De ambtenaar wees erop dat er meerdere soorten op profilering gebaseerde inhoudsfeeds in het spel zijn, zelfs per platform, en benadrukte de noodzaak om elk in zijn context te beschouwen. Meer in het algemeen pleitten zij voor ‘nuance’ in het debat rond de risico’s van aanbevelingssystemen.
De aanpak van de Commissie hier zal bestaan uit het geval per geval beoordelen van de zorgen, zo stelden zij voor, waarbij zij pleitte voor datagestuurde beleidsinterventies op het gebied van VLOP’s, in plaats van algemene maatregelen. Dit is tenslotte een verzameling platforms die divers genoeg zijn om video-sharing- en sociale-mediagiganten te omvatten, maar ook retail- en informatiediensten. en (meest latest) pornosites. Het risico dat handhavingsbesluiten niet onder de aandacht worden gebracht door juridische problemen als er geen robuust bewijsmateriaal is om ze te onderbouwen, is duidelijk een zorg van de Commissie.
De functionaris voerde ook aan dat er behoefte is aan het verzamelen van meer gegevens om zelfs fundamentele facetten te begrijpen die related zijn voor het debat over aanbevelingssystemen – zoals de vraag of het standaard uitschakelen van personalisatie effectief zou zijn als risicobeperkende maatregel. Gedragsaspecten behoeven ook meer onderzoek, suggereerden ze.
Vooral kinderen kunnen zeer gemotiveerd zijn om een dergelijke beperking te omzeilen door simpelweg de setting om te draaien, betoogden ze, zoals kinderen hebben laten zien dat ze daartoe in staat zijn als het gaat om het ontsnappen aan ouderlijk toezicht. Ze beweren dat het niet duidelijk is dat het standaard uitschakelen van op profilering gebaseerde aanbevelingssystemen dit zou doen daadwerkelijk effectief zijn als kinderbeschermingsmaatregel.
Over het geheel genomen was de boodschap van onze EU-bron een pleidooi om de verordening – en de Commissie – de tijd te geven om te werken. De DSA werd pas eind augustus van kracht op de eerste reeks VLOP’s. Terwijl, alleen deze weekhebben we gezien dat het eerste formele onderzoek werd geopend (op X), dat een element van het aanbevelingssysteem omvat (gerelateerd aan zorgen rond X’s systeem van crowdsourced contentmoderatie, bekend als Group Notes).
Wij hebben het ook gezien stroom van formele verzoeken om informatie op platforms in de afgelopen weken, nadat ze hun eerste reeks risicobeoordelingsrapporten hadden ingediend – wat aangeeft dat de Commissie niet tevreden is met de mate van gedetailleerdheid die tot nu toe is verstrekt. Dat impliceert dat er binnenkort krachtiger actie kan volgen als de EU haar nieuwe rol van regionale internetsheriff op zich neemt. Dus – uiteindelijk – wordt 2024 een belangrijk jaar voor de beleidsreactie van het blok om Massive Tech aan te pakken. En om te beoordelen of de handhaving door de EU al dan niet de resultaten oplevert waar campagnevoerders voor digitale rechten hongerig naar zijn.
“Dit zijn kwesties waarover we platforms ondervragen op foundation van onze wettelijke bevoegdheden – maar het algoritme van Instagram is anders dan dat van X, is anders dan dat van TikTok – we zullen hierin genuanceerd moeten zijn”, vertelde de ambtenaar ons, en suggereerde dat de aanpak van de Commissie zal veranderen een lappendeken van interventies opzetten, waaronder het verplicht stellen van verschillende standaardwaarden voor VLOP’s, afhankelijk van de contexten en risico’s in verschillende feeds. “Wij kiezen het liefst voor een aanpak die echt telkens rekening houdt met de specifieke kenmerken van de platformen.”
“We starten nu met deze handhavingsactie. En dit is eigenlijk nog een reden te meer om onze energie niet te verdunnen in een soort concurrerende wettelijke kaders of zoiets,” voegden ze eraan toe, terwijl ze een pleidooi hielden voor voorstanders van digitale rechten om zich achter het programma van de Commissie te scharen. “Ik zou liever hebben dat we werken in het kader van de DSA – die de problemen kan aanpakken die (de temporary van de EP-leden en het ICCL-rapport) naar voren brengen over aanbevelingssystemen en het versterken van illegale inhoud.”