De Opkomst van het Tijdperk van Kunstmatige Intelligentie: Wie Houdt de Controle?
In San Francisco kwamen technische experts uit de overheid, particuliere sector, academische wereld en het maatschappelijk middenveld samen om te bespreken hoe de risico's van steeds krachtiger wordende AI-systemen beheerst kunnen worden.
Istanbul
Büşra Begçecanlı, verslaggever van Anadolu Ajansı, analyseert de besluiten die zijn genomen tijdens de AI-conferentie in San Francisco op 20 en 21 november 2024.
"Kunstmatige intelligentie is anders dan welke technologie dan ook in de geschiedenis van de mensheid." Deze krachtige uitspraak werd gedaan door Gina Raimondo, de Amerikaanse minister van Handel, tijdens de AI-conferentie. Raimondo benadrukte dat het belangrijk is om na te denken over de consequenties van AI voordat er ondoordacht wordt doorgegaan met de ontwikkeling ervan.
Deze bijeenkomst markeerde de eerste vergadering van het International Network of Artificial Intelligence Safety Institutes, georganiseerd door de Amerikaanse ministeries van Handel en Buitenlandse Zaken. Het netwerk bracht AI-veiligheidsinstituten uit negen landen en de Europese Commissie bijeen om internationale samenwerking op het gebied van AI-beheer te versterken.
Een cruciale stap voor internationale samenwerking
Tijdens de conferentie werden vier prioriteiten vastgesteld om de internationale samenwerking rond AI-veiligheid te bevorderen:
- Onderzoek: Samenwerken met wetenschappelijke gemeenschappen om risico's en mogelijkheden van geavanceerde AI-systemen te onderzoeken.
- Testen: Het ontwikkelen van best practices en gezamenlijke testmethodologieën voor AI-systemen.
- Richtlijnen: Uniforme benaderingen ontwikkelen voor het interpreteren van testresultaten.
- Inclusiviteit: Kennis en hulpmiddelen toegankelijk maken voor verschillende regio’s en belanghebbenden.
De conferentie behandelde ook de resultaten van gezamenlijke tests op Meta's Llama 3.1-model, waarbij de nadruk lag op meertalige capaciteiten en de betrouwbaarheid van de informatie die het model verstrekt.
Financiering en toekomstige stappen
De VS, Zuid-Korea en Australië maakten bekend meer dan 11 miljoen dollar vrij te maken voor AI-veiligheidsonderzoek, met een focus op het beheer van synthetische inhoud. Bovendien stelde de VS een nieuw AI-veiligheidsteam in: de TRAINS Task Force. Dit team richt zich op het testen van AI-modellen in kritieke veiligheidsdomeinen zoals nucleaire, biologische en cyberveiligheid.
Een AI-race tussen grootmachten
De AI-race tussen de VS en China is niet alleen een technologische strijd, maar ook een machtsstrijd over de toekomstige wereldorde. Terwijl de VS een leidende rol nastreeft in internationale AI-samenwerking, blijft het land zich richten op het versterken van defensieve en offensieve capaciteiten met bondgenoten. Deze strategie weerspiegelt de groeiende spanningen met China, dat snel vooruitgang boekt op het gebied van AI.
Senator Chuck Schumer benadrukte dat het essentieel is om te voorkomen dat China de regels voor AI bepaalt. De VS ziet de oprichting van internationale samenwerkingsverbanden zoals het netwerk van AI-veiligheidsinstituten als een belangrijk instrument om de groeiende invloed van China in te perken.
Deze ontwikkelingen benadrukken hoe kunstmatige intelligentie niet alleen technologie is, maar een strategisch instrument dat de geopolitieke machtsverhoudingen fundamenteel kan veranderen. Het tijdperk van AI is begonnen, en de vraag wie de controle zal hebben, blijft centraal staan.
[Büşra Begçecanlı, verslaggever bij Anadolu Ajansı.]
©TURKİNFO.NL
FACEBOOK YORUMLAR