03:33
18 mei 2024

Het gebruik van AI als hacktool is overhyped

Het gebruik van AI als hacktool is overhyped

De offensieve potentie van populaire grote taalmodellen (LLM’s) is op de proef gesteld in een nieuw onderzoek waaruit bleek dat GPT-4 het enige model was dat levensvatbare exploits kon schrijven voor een reeks CVE’s. Het artikel van onderzoekers van de University of Illinois Urbana-Champaign testte een reeks populaire LLM’s, waaronder OpenAI’s GPT-3.5 en GPT-4, plus toonaangevende opensource-agents van Mistral AI, Hugging Face en Meta.

De AI-agents kregen een lijst met 15 kwetsbaarheden, variërend qua ernst van medium tot kritiek, om te testen hoe succesvol de LLM’s autonoom exploitcode konden schrijven voor CVE’s. De onderzoekers maakten een specifieke prompt om de beste resultaten van de modellen te krijgen, die de agent aanmoedigde om niet op te geven en zo creatief mogelijk te zijn met zijn oplossing.

Alleen GPT-4
Tijdens de test kregen de agents toegang tot web browsing-elementen, een terminal, zoekresultaten, het maken en bewerken van bestanden en een code-interpreter. Uit de resultaten van het onderzoek bleek dat GPT-4 het enige model was dat in staat was om met succes een exploit te schrijven voor een van de one-day kwetsbaarheden, met een succespercentage van 86,7%.

Lees verder via agconnect.nl

Meer weten over toezicht in verbinding? Kom naar het wegens succes herhaalde HCB Seminar Toezicht in Transitie 2024 – Toezicht in verbinding op 16 mei 2024 in Den Haag, georganiseerd door het Haags Congres Bureau. In de HCB Seminarreeks Toezicht in Transitie 2024 gaat het op 16 mei om de verbinding met de omgeving:

  • Toezicht met de omgeving – Burgers en bedrijven betrekken

Sprekers zijn Bart Snels en Floryt van Wesel, Inspectie belastingen, toeslagen en douane en Paul van Dijk, zelfstandig adviseur.

Meer informatie vindt u hier.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *