IT-auditors en generatieve AI
Uit een rondetafelgesprek georganiseerd door NOREA, de beroepsorganisatie van IT-auditors, blijkt dat IT-auditors de hype rondom generatieve AI hebben opgepakt en op zoek zijn naar manier waarop zij de kansen van deze technologie kunnen benutten. Tegelijkertijd zijn IT-auditors zich ook bewust van de risico’s van generatieve AI en dat het gebruik hiervan fundamentele invloed kan hebben op hun werkzaamheden. De deelnemers aan dit rondetafelgesprek zien voordelen in het gebruik van generatieve AI, zoals het verhogen van de efficiëntie in de werkzaamheden, een competitieve voorsprong in advisering naar klanten en het aantrekkelijker maken van het vak. Tegelijkertijd zien de deelnemers ook risico’s zoals onvoldoende menselijk toezicht op resultaten, het onbedoeld delen van vertrouwelijke informatie met AI-systemen van derden, privacy-inbreuken en bias/discriminatie. Het is noodzakelijk dat organisaties de risico’s in kaart brengen voordat zij starten met het gebruik van generatieve AI. Â
De rol van het bestuur in het gebruik van generatieve AI
Gezien de noodzaak van het correcte gebruik van AI bij organisaties, is het belangrijk dat het bestuur betrokken is bij de strategische en ethische vraagstukken die het gebruik van AI met zich meebrengt. Ten eerste is het de taak van het bestuur om te bepalen welke waarde generatieve AI kan opleveren voor de organisatie. Voorbeelden van waarde voor de organisatie zijn concurrentievoordeel en inzichten naar aanleiding van data-analyse die leiden tot nieuw marktpotentieel. Daarnaast moet het bestuur ervoor zorgen dat alle belangrijke risico’s in kaart worden gebracht. Een belangrijk risico is de betrouwbaarheid en transparantie van AI, omdat AI-modellen vaak als een ‘black box’ functioneren. Hierdoor is het bijna onmogelijk om te begrijpen hoe het model tot een beslissing komt. Dit kan leiden tot wantrouwen. Een ander belangrijk risico is de privacy en veiligheid. Wanneer grote hoeveelheden persoonsgegevens worden verwerkt door het AI-model, neemt de kans op een datalek of cyberaanval toe. Het is aan het bestuur om de waarde en de risico’s van generatieve AI binnen de organisatie tegen elkaar af te wegen en om te zorgen dat passende maatregelen worden genomen om de risico’s te mitigeren. Â
Privacy en generatieve AI
Zoals eerder benoemd, is privacy één van de belangrijkste risico’s van het gebruik van generatieve AI. De kans dat persoonsgegevens worden gelekt of op onrechtmatige wijze worden verwerkt, neemt toe door het gebruik van AI. Een goed voorbeeld is het gebruik van AI-chatbots door organisaties. Deze technologie biedt een aanzienlijke verbetering in de efficiëntie, maar organisaties en haar medewerkers zijn zich vaak niet bewust van de enorme privacyrisico’s die het gebruik van chatbots met zich meebrengen. Medewerkers gebruiken chatbots vaak op eigen initiatief en voeren daarbij persoonsgegevens in, zoals gegevens over klanten. De bedrijven achter de chatbots slaan de ingevoerde gegevens vaak op, waardoor er sprake is van een datalek. De Autoriteit Persoonsgegevens (AP) waarschuwt bedrijven om te vermelden dat ze zich bewust te zijn van de risico’s en duidelijke afspraken moeten maken met medewerkers. Dit voorbeeld illustreert dat generatieve AI enorme privacyrisico’s met zich meebrengt, waar organisaties zich vaak nog niet van bewust zijn.Â
Meer informatie
We kunnen concluderen dat generatieve AI veel waarde kan opleveren voor organisaties, maar dat het essentieel is om vooraf na te denken over mogelijke risico’s die het gebruik ervan met zich meebrengt. Onze afdeling IT Advies heeft voldoende kennis om u te helpen bij het uitzoeken van de mogelijke waarde van AI voor uw organisatie, maar ook om een goede inschatting te maken van de risico’s met bijbehorende maatregelen. Voor meer informatie kunt u contact op nemen met een van onze specialisten via onderstaande button of per mail: IT-Advies@vanoers.nl