Bliver jeres hemmeligheder lækket til ChatGPT?
Værktøjer som ChatGPT, Copilot og Gemini kan være fristende at bruge – men man skal have styr på sin sikkerhed – ligesom med alle andre it-løsninger.
27. juni 2024 / Nye teknologier
Især i firmaer og organisationer bør LLM-sikkerhed (Large Language Model: red) være højt oppe på dagsordenen. Det gælder både vurdering af selve modellerne, man bruger, udefrakommende manipulation af prompts, hvilke firmadata man risikerer at lække til modellerne, hvilke resultater, man får, og hvad man bruger dem til.
I denne podcast har AI Denmark besøg af Zaruhi Aslanyan, som er sikkerhedsarkitekt på Alexandra Instituttet og Michael Rømer Bennike, der er senior sikkerhedsarkitekt samme sted, for at høre mere om udfordringerne, og hvad man som virksomhed kan gøre.
Desværre er der – ligesom med al anden it-sikkerhed – ikke nogle nemme løsninger.