Home Bedrijf Navigeren door de toekomst van AI-regelgeving voor ethische innovatie

Navigeren door de toekomst van AI-regelgeving voor ethische innovatie

0
Navigeren door de toekomst van AI-regelgeving voor ethische innovatie


De meningen van ondernemers die bijdragen, zijn die van henzelf.

Dit verhaal verscheen oorspronkelijk op Readwrite.com

Als het gesprek rond de toekomst van AI groeit, laait het debat over AI-governance op. Sommigen zijn van mening dat bedrijven die door AI aangedreven instruments gebruiken of aanschaffen de mogelijkheid moeten krijgen om zichzelf te reguleren, terwijl anderen vinden dat strengere wetgeving van de overheid wenselijk is. nodig.

De dringende behoefte aan enig bestuur in het snelgroeiende AI-landschap is duidelijk.

De opkomst van AI: een nieuwe generatie innovatie

Er zijn talloze toepassingen van AI, maar een van de meest innovatieve en bekende organisaties op het gebied van kunstmatige intelligentie is OpenAI. OpenAI kreeg bekendheid nadat zijn natuurlijke taalprocessor (NLP), ChatGPT, viraal ging. Sindsdien zijn verschillende OpenAI-technologieën behoorlijk succesvol geworden.

Veel andere bedrijven hebben meer tijd, onderzoek en geld besteed aan het zoeken naar een soortgelijk succesverhaal. Alleen al in 2023 zullen de uitgaven aan AI naar verwachting 154 miljard greenback bedragen, een stijging van 27% ten opzichte van het voorgaande jaar, volgens een artikel gerapporteerd door Readwrite.com. Sinds de launch van ChatGPTAI is van de periferie uitgegroeid tot iets waarvan bijna iedereen ter wereld zich bewust is.

De populariteit ervan kan worden toegeschreven aan verschillende factoren, waaronder het potentieel om de output van een bedrijf te verbeteren. Uit onderzoek blijkt dat wanneer werknemers hun digitale vaardigheden verbeteren en samenwerken met AI-toolskunnen ze de productiviteit verhogen, de teamprestaties verbeteren en hun probleemoplossend vermogen vergroten.

Na zulke positieve publicaties te hebben gezien, gebruiken veel bedrijven in verschillende sectoren – van productie en financiën tot gezondheidszorg en logistiek – AI. Nu AI van de ene op de andere dag de nieuwe norm lijkt te worden, maken velen zich zorgen over de snelle implementatie die leidt tot technologische afhankelijkheid, privacyproblemen en andere problemen andere ethische zorgen.

De ethiek van AI: hebben we AI-regelgeving nodig?

Door het snelle succes van OpenAI is er steeds meer discussie ontstaan ​​onder wetgevers, regelgevers en het grote publiek over veiligheid en ethische implicaties. Sommigen zijn voorstander van verdere ethische groei in de productie van AI, terwijl anderen van mening zijn dat individuen en bedrijven de vrijheid moeten hebben om AI te gebruiken zoals ze willen, om belangrijkere innovaties mogelijk te maken.

Als er niets wordt aangevinkt, veel consultants zijn van mening dat de volgende problemen bestaan zal ontstaan.

  • Vooroordelen en discriminatie: Bedrijven beweren dat AI vooroordelen helpt wegnemen omdat robots niet kunnen discrimineren, maar door AI aangedreven systemen zijn slechts zo eerlijk en onbevooroordeeld als de informatie die erin wordt ingevoerd. AI-tools zullen deze vooroordelen alleen maar versterken en in stand houden als de gegevens die mensen gebruiken bij het coderen van AI al bevooroordeeld zijn.
  • Menselijke keuzevrijheid: Velen zullen een afhankelijkheid van AI opbouwen, wat van invloed kan zijn op hun privateness en keuzevrijheid met betrekking tot de controle over hun leven.
  • Gegevensmisbruik: AI kan cybercriminaliteit helpen bestrijden in een steeds digitalere wereld. AI heeft de kracht om veel grotere hoeveelheden gegevens te analyseren, waardoor deze systemen patronen kunnen herkennen die op een potentiële dreiging kunnen duiden. Er bestaat echter de zorg dat bedrijven AI ook zullen gebruiken om gegevens te verzamelen die kunnen worden gebruikt om mensen en consumenten te misbruiken en te manipuleren. Dit leidt tot de vraag of AI mensen meer of minder veilig maakt (forgerock dotcom).
  • De verspreiding van verkeerde informatie: Omdat AI niet menselijk is, begrijpt het geen goed of fout. Als zodanig kan AI onbedoeld valse en misleidende informatie verspreiden, wat bijzonder gevaarlijk is in het huidige tijdperk van sociale media.
  • Gebrek aan transparantie: de meeste AI-systemen werken als ‘zwarte dozen’. Dit betekent dat niemand zich ooit volledig bewust is van hoe en waarom deze instruments tot bepaalde beslissingen komen. Dit leidt tot een gebrek aan transparantie en zorgen over de verantwoording.
  • Baanverlies: Een van de grootste zorgen binnen de beroepsbevolking is het verdwijnen van banen. Hoewel AI kan verbeteren waartoe werknemers in staat zijn, zijn velen bezorgd dat werkgevers er simpelweg voor zullen kiezen om hun werknemers volledig te vervangen en winst boven ethiek te verkiezen.
  • Chaos: Over het algemeen bestaat er algemene bezorgdheid dat als AI niet wordt gereguleerd, dit zal leiden tot massale chaos, zoals bewapende informatie, cybercriminaliteit en autonome wapens.

Om deze zorgen te bestrijden dringen consultants aan op meer ethische oplossingen, zoals het toekennen van de hoogste prioriteit aan de belangen van de mensheid boven de belangen van AI en de voordelen ervan. Velen geloven dat de sleutel is om prioriteit te geven aan mensen bij het voortdurend implementeren van AI-technologieën. AI magazine nooit proberen mensen te vervangen, manipuleren of controleren, maar eerder met hen samenwerken om te verbeteren wat mogelijk is. En een van de beste manieren om dit te doen is het vinden van een balans tussen AI-innovatie en AI-beheer.

AI-governance: zelfregulering versus overheidswetgeving

Als het gaat om het ontwikkelen van beleid over AI, is de vraag: wie moet de ethische risico’s van AI precies reguleren of beheersen?

Moeten het de bedrijven zelf en hun stakeholders zijn? Of moet de overheid ingrijpen en een ingrijpend beleid opstellen dat van iedereen eist dat hij zich aan dezelfde regels en voorschriften houdt?

Naast het bepalen wie moet reguleren, zijn er vragen over wat er precies moet worden gereguleerd en hoe. Dit zijn de drie belangrijke uitdagingen van AI-governance.

Wie moet reguleren?

Sommigen zijn van mening dat de overheid niet begrijpt hoe ze AI-toezicht goed kan krijgen. Op foundation van de eerdere pogingen van de overheid om digitale platforms te reguleren, zijn de regels die zij creëren onvoldoende wendbaar om om te gaan met de snelheid van technologische ontwikkelingen, zoals AI.

In plaats daarvan zijn sommigen van mening dat we bedrijven die AI gebruiken, moeten toestaan ​​om als pseudo-overheden op te treden en hun eigen regels op te stellen om AI te besturen. Deze zelfregulerende aanpak heeft echter tot veel bekende schade geleid, zoals problemen met de gegevensprivacy, gebruikersmanipulatie en de verspreiding van haat, leugens en desinformatie.

Ondanks het voortdurende debat ondernemen organisaties en regeringsleiders al stappen om het gebruik van AI te reguleren. Het EU-Parlement heeft bijvoorbeeld al een belangrijke stap in de richting gezet het opzetten van uitgebreide AI-regelgeving. En in de Amerikaanse Senaat heeft meerderheidsleider Chuck Schumer het voortouw bij het schetsen ervan een breed plan voor het reguleren van AI. Het Witte Huis Workplace of Science and Expertise is ook begonnen met het creëren van de blauwdruk voor een AI-Invoice of Rights.

Wat zelfregulering betreft, verbieden vier toonaangevende AI-bedrijven al samen te creëren een zelfbesturend regelgevend agentschap. Microsoft, Google, OpenAI en Anthropic hebben onlangs allemaal de lancering aangekondigd van het Frontier Mannequin Discussion board om ervoor te zorgen dat bedrijven betrokken zijn bij het veilige en verantwoorde gebruik en de ontwikkeling van AI-systemen.

Wat moet er gereguleerd worden en hoe?

Er is ook de uitdaging om precies te bepalen wat er gereguleerd moet worden; zaken als veiligheid en transparantie zijn enkele van de belangrijkste zorgen. Als reactie op deze bezorgdheid heeft het Nationwide Institute of Requirements and Expertise (NIST) een basislijn vastgesteld voor veilige AI-praktijken in hun land. Kader voor AI-risicobeheer.

De federale overheid is van mening dat het gebruik van licenties kan helpen bij het reguleren van AI. Licenties kunnen werken als een instrument voor regelgevend toezicht, maar kunnen nadelen hebben, zoals het werken als een meer ‘one measurement suits all’-oplossing wanneer AI en de effecten van digitale technologie niet uniform zijn.

Het antwoord van de EU hierop is een flexibeler, op risico gebaseerd regelgevingskader voor AI dat een meerlaagse aanpak mogelijk maakt die beter tegemoetkomt aan de uiteenlopende gebruiksscenario’s voor AI. Op foundation van een beoordeling van het risiconiveau zullen verschillende verwachtingen worden afgedwongen.

Afsluiten

Helaas is er nog niet echt een duidelijk antwoord op de vraag wie moet reguleren en hoe. Er worden nog steeds talloze opties en methoden onderzocht. Dat gezegd hebbende, heeft de CEO van OpenAI, Sam Altman, het idee onderschreven van een federaal agentschap dat zich expliciet bezighoudt met AI-toezicht. Ook Microsoft en Meta hebben eerder het idea van een nationale AI-toezichthouder onderschreven.

Verwant: De 38-jarige leider van de AI-revolutie kan het ook niet geloven – Maak kennis met Sam Altman, CEO van Open AI

Totdat er een solide beslissing is genomen, wordt het echter als de beste praktijk beschouwd voor bedrijven die AI gebruiken om dit zo verantwoord mogelijk te doen. Alle organisaties zijn wettelijk verplicht om te opereren onder een zorgplicht. Als wordt vastgesteld dat een bedrijf dit schendt, kunnen er juridische gevolgen aan verbonden zijn.

Het is duidelijk dat regelgeving een should is; er bestaat geen uitzondering. Voorlopig is het dus aan bedrijven om te bepalen wat de beste manier is om het koord te bewandelen tussen het beschermen van de publieke belangen en het bevorderen van investeringen en innovatie.

LEAVE A REPLY

Please enter your comment!
Please enter your name here