Techgiganten OpenAI, Anthropic, Microsoft en Google hebben een overkoepelende organisatie voor kunstmatige intelligentie (AI) samengesteld. The Frontier Model Forum, zoals de organisatie heet, moet ervoor zorgen dat AI op een veilige en verantwoordelijke manier wordt ontwikkeld.
“Bedrijven die AI-technologie ontwikkelen hebben een verantwoordelijkheid om te zorgen dat het veilig, stabiel en onder menselijke controle is”, zei president van Microsoft Brad Smith.
Volgens de topman is de nieuwe waakhond bedoeld om de techsector dichter bij elkaar te brengen in het verder ontwikkelen van AI. Dat meldt de Britse krant The Guardian. Nieuwe AI-technologie moet bovendien altijd als doel hebben om voordelen voor mensen met zich mee te brengen.
Onderzoek
De leden van The Frontier Model Forum hebben aangegeven te willen investeren in onderzoek naar de veiligheid van AI. Zo moeten richtlijnen worden ontwikkeld om onder meer AI-systemen te controleren en vertrouwens- en veiligheidsrisico’s te bespreken met politici en academici.
Lees verder via rtlnieuws.nl

Bezorgde burgers? Hoe rechts-extremisme structureel aanwezig is bij anti-azc-protestbeweging Defend Netherlands
Een nieuw wiel of een betere auto? 3 redenen en 3 randvoorwaarden voor samenwerken in toezicht
Raad van State ziet mogelijkheden voor wet tegen verheerlijking terrorisme, maar eist eerst duidelijkere afbakening



