Home Gezondheid De wereld komt bijeen om de bescherming en het beleid van AI te bespreken te midden van de groeiende data-asymmetrie

De wereld komt bijeen om de bescherming en het beleid van AI te bespreken te midden van de groeiende data-asymmetrie

0
De wereld komt bijeen om de bescherming en het beleid van AI te bespreken te midden van de groeiende data-asymmetrie


Dit jaar zullen we een beweging zien voor een verantwoord, ethisch gebruik van AI die begint met duidelijke AI-beheerskaders die de mensenrechten en waarden respecteren.

In 2024 staan ​​we op een adembenemend kruispunt.

Kunstmatige intelligentie (AI) heeft ongelooflijke verwachtingen geschapen over het verbeteren van levens en het stimuleren van bedrijven op manieren die nog maar een paar jaar geleden ondenkbaar waren. Maar het brengt ook ingewikkelde uitdagingen met zich mee rond individuele autonomie, zelfbeschikking en privateness.

Ons vermogen om organisaties en overheden onze meningen, vaardigheden en fundamentele aspecten van onze identiteit toe te vertrouwen, staat op het spel. In feite is er sprake van een groeiende digitale asymmetrie die AI creëert en in stand houdt – waarbij bedrijven bijvoorbeeld toegang hebben tot persoonlijke gegevens, vooroordelen en drukpunten van klanten, of dit nu individuen of andere bedrijven zijn. AI-gestuurde algoritmische personalisatie heeft een nieuw niveau van machteloosheid en kwetsbaarheid toegevoegd.

Dit jaar zal de wereld een gesprek organiseren over de bescherming die nodig is om ervoor te zorgen dat elke persoon en organisatie zich op zijn gemak zal voelen bij het gebruik van AI, terwijl ook ruimte voor innovatie wordt gegarandeerd. Respect voor fundamentele mensenrechten en waarden zal een zorgvuldig evenwicht vereisen tussen technische samenhang en digitale beleidsdoelstellingen die het bedrijfsleven niet belemmeren.

Het is tegen deze achtergrond dat de Cisco AI Readiness-index blijkt dat 76% van de organisaties geen alomvattend AI-beleid heeft ingevoerd. In haar jaarlijkse technologische traits en voorspellingen wees Liz Centoni, Chief Technique Officer en GM of Purposes, erop dat hoewel er grotendeels algemene overeenstemming bestaat over het feit dat we regelgeving, beleid en zelfcontrole en bestuur door de industrie nodig hebben om de risico’s van AI te beperken, dat is niet genoeg.

“We moeten bijvoorbeeld genuanceerder worden op gebieden als IE-inbreuk, waarbij stukjes van bestaande kunstwerken worden geschraapt om nieuwe digitale kunst te genereren. Dit gebied heeft regelgeving nodig”, zei ze.

Tijdens een toespraak op het World Financial Discussion board een ​​paar dagen geleden legde Liz Centoni breed uit dat het gaat om de gegevens die AI-modellen voeden. Ze kon niet méér gelijk hebben. Gegevens en context om AI-modellen aan te passen zijn onderscheidend, en AI heeft grote hoeveelheden kwaliteitsgegevens nodig om nauwkeurige, betrouwbare en inzichtelijke resultaten te produceren.

Een deel van het werk dat nodig is om gegevens betrouwbaar te maken, omvat het catalogiseren, opschonen, normaliseren en beveiligen ervan. Het is in volle gang en AI maakt het gemakkelijker om een ​​enorm datapotentieel te ontsluiten. Cisco heeft bijvoorbeeld al toegang tot enorme hoeveelheden telemetrie vanuit de normale bedrijfsvoering – meer dan wie dan ook ter wereld. We helpen onze klanten ongeëvenaarde AI-gestuurde inzichten te verkrijgen op verschillende apparaten, applicaties, beveiliging, het netwerk en web.

Dat omvat meer dan 500 miljoen verbonden apparaten op onze platforms, zoals Meraki, Catalyst, IoT en Management Heart. Met onze dreigingsinformatie analyseren we al meer dan 625 miljard dagelijkse webverzoeken om miljoenen cyberaanvallen te stoppen. En 63 miljard dagelijkse observatiegegevens zorgen voor proactieve zichtbaarheid en banen de weg naar een snellere gemiddelde tijd tot oplossing.

Knowledge vormen de ruggengraat en onderscheidende issue

AI is en blijft het komende jaar voorpaginanieuws, en dat betekent dat ook information in de schijnwerpers zullen staan. Knowledge vormen de ruggengraat en de onderscheidende issue voor AI, en het is ook het gebied waar de paraatheid het zwakst is.

Uit de AI Readiness Index blijkt dat 81% van alle organisaties claimt dat er sprake is van enige mate van silo- of gefragmenteerde information. Dit vormt een cruciale uitdaging vanwege de complexiteit van het integreren van gegevens in verschillende opslagplaatsen.

Hoewel in silo’s opgeslagen information lange tijd werden gezien als een barrière voor het delen van informatie, samenwerking en holistisch inzicht en besluitvorming in de onderneming, voegt het AI-quotiënt een nieuwe dimensie toe. Met de toenemende complexiteit van gegevens kan het moeilijk zijn om workflows te coördineren en betere synchronisatie en efficiëntie mogelijk te maken. Voor het benutten van information uit verschillende silo’s is ook het volgen van de datalijn nodig, zodat alleen de goedgekeurde en relevante information worden gebruikt en de output van het AI-model kan worden verklaard en getraceerd naar trainingsdata.

Om dit probleem aan te pakken zullen bedrijven het komende jaar steeds meer overgaan op AI, omdat ze op zichzelf staande gegevens willen verenigen, de productiviteit willen verbeteren en hun activiteiten willen stroomlijnen. Sterker nog, we kijken over een jaar terug en zien 2024 als het start van het einde van de datasilo’s.

Opkomende regelgeving en harmonisatie van regels over eerlijke toegang tot en gebruik van gegevens, zoals de EU-gegevenswet die volgend jaar volledig van toepassing worden, vormen het start van een ander aspect van de AI-revolutie dat dit jaar op stoom zal komen. Door een enorm economisch potentieel te ontsluiten en aanzienlijk bij te dragen aan een nieuwe markt voor information zelf, zullen deze mandaten ten goede komen aan zowel gewone burgers als bedrijven die toegang zullen krijgen tot de gegevens die worden gegenereerd door hun gebruik van producten en diensten en deze zullen hergebruiken.

Volgens de Wereld Economisch Discussion boardwordt voorspeld dat de hoeveelheid gegevens die in 2025 wereldwijd wordt gegenereerd, elke dag 463 exabytes per dag zal bedragen. De enorme hoeveelheid bedrijfskritische gegevens die over de hele wereld wordt gecreëerd, overtreft ons vermogen om deze te verwerken.

Het lijkt echter contra-intuïtief dat naarmate AI-systemen steeds meer information blijven verbruiken, de beschikbare publieke information binnenkort een plafond zullen bereiken en taalgegevens van hoge kwaliteit zullen waarschijnlijk tegen 2026 uitgeput zijn volgens sommige schattingen. Het is nu al duidelijk dat organisaties zich zullen moeten richten op het verwerken van personal en synthetische information. Zowel particuliere als synthetische gegevens kunnen, web als alle gegevens die niet gevalideerd zijn, ook leiden tot vertekening in AI-systemen.

Dit brengt het risico met zich mee van onbedoelde toegang en gebruik, aangezien organisaties worden geconfronteerd met de uitdagingen van het verantwoord en veilig verzamelen en onderhouden van gegevens. Misbruik van privégegevens kan ernstige gevolgen hebben, zoals identiteitsdiefstal, financieel verlies en reputatieschade. Hoewel synthetische gegevens kunstmatig zijn gegenereerd, kunnen ze ook worden gebruikt op manieren die privacyrisico’s met zich meebrengen als ze niet op de juiste manier worden geproduceerd of gebruikt.

Organisaties moeten ervoor zorgen dat ze beschikken over beleid, procedures en richtlijnen voor databeheer, afgestemd op de verantwoordelijkheidskaders voor AI, om zich tegen deze bedreigingen te beschermen. “Leiders moeten zich inzetten voor transparantie en betrouwbaarheid rond de ontwikkeling, het gebruik en de resultaten van AI-systemen. Wat de betrouwbaarheid betreft, moet het aanpakken van valse inhoud en onverwachte resultaten bijvoorbeeld worden aangestuurd door organisaties met verantwoorde AI-beoordelingen, robuuste coaching van grote taalmodellen om de kans op hallucinaties te verkleinen, sentimentanalyse en outputvorming”, aldus Centoni.

Erkenning van de urgentie die AI met zich meebrengt, zullen de processen en structuren die het delen van gegevens tussen bedrijven, de samenleving en de publieke sector vergemakkelijken, onder intensief toezicht staan. In 2024 zullen we zien dat bedrijven van elke omvang en sector formeel verantwoorde AI-beheerskaders schetsen om de ontwikkeling, toepassing en gebruik van AI te begeleiden met als doel gedeelde welvaart, veiligheid en welzijn te bereiken.


Met AI als zowel katalysator als canvas voor innovatie, dit is één van een reeks blogs waarin Cisco EVP, Chief Technique Officer en GM of Purposes Liz Centoni’s worden onderzocht technische voorspellingen voor 2024. Haar volledige tech-trendvoorspellingen zijn te vinden in Het jaar van AI-gereedheid, adoptie en technische integratie e-boek.

Bekijk de andere blogs in de Technische traits 2024 serie.

Deel:

LEAVE A REPLY

Please enter your comment!
Please enter your name here