Microsoft: AI kan nooit volledig veilig worden gemaakt

Nieuws
17-01-2025
Laurence van Aggelen
Microsoft-wetenschappers hebben de veiligheid van meer dan 100 generatieve AI-producten van het bedrijf getest en zijn tot een opmerkelijke conclusie gekomen: AI-modellen versterken bestaande beveiligingsrisico’s en introduceren nieuwe.

In een preprint-paper, Lessons from red-teaming 100 generative AI products, stellen de 26 auteurs, waaronder Azure-CTO Mark Russinovich, dat “AI-systemen nooit volledig veilig zullen zijn”.

Hoewel dit verontrustend klinkt, benadrukken de onderzoekers dat de kosten voor het aanvallen van AI-systemen verhoogd kunnen worden, zoals bij traditionele IT-beveiligingsmaatregelen door middel van ‘defense-in-depth’ en ‘security-by-design’.

AI-systemen

De paper biedt acht lessen, waarvan de eerste is om “te begrijpen wat het systeem kan en waar het wordt toegepast”. AI-modellen gedragen zich verschillend afhankelijk van hun ontwerp en toepassing, en een goed begrip hiervan is essentieel om effectieve verdediging te implementeren. Grotere modellen, zoals de Phi-3-reeks, blijken beter instructies te volgen, wat nuttig is voor gebruikers, maar ook risicovoller maakt bij kwaadaardige input.

[....]

Lees verder op: ICT Magazine

Gerelateerde vacatures

Geïnteresseerd in een carrière bij organisaties in ditzelfde vakgebied? Bekijk hieronder de gerelateerde vacatures en vind de perfecte match voor jou!
Top vacature
PwC
Marktconform
Junior, Medior
Amsterdam
Use your technical expertise not only to simplify and automate tasks, but also to bring about a transformation within our organization. As a crucial pivot within our team, you play...
Top vacature
Adyen
Marktconform
Medior
Amsterdam
Adyen is seeking a Machine Learning Engineer to join our central MLOps team, which is responsible for building platforms and tools for all of our data science teams. In this...