Met behulp van de juiste commando's is het mogelijk het Chinese DeepSeek malware te laten schrijven. Hoewel het large language model (LLM) dit standaard blokkeert, is het mogelijk via een zogeheten 'jailbreak' DeepSeek dergelijke code toch te laten doen. Dit melden onderzoekers van Tenable. Het gebruik van LLM's voor malafide doeleinden is niet nieuw. Zo maakte OpenAI vorige maand nog bekend diverse Chinese en Noord-Koreaanse accounts te hebben verwijderd nadat zij malafide activiteiten zouden hebben uitgevoerd. Ook schreven beide bedrijven eerder uitgebreid over het gebruik van hun LLM's voor malafide doeleinden.
Een relatief nieuwe speler op de markt voor LLM's is het Chinese DeepSeek, dat bij zijn lancering veel stof deed opwaaien. Onderzoekers van Tenable onderzochten in hoeverre DeepSeek - en daarbij specifiek het DeepSeek R1-model - in staat is malware te schrijven. Kenmerkend voor dit model is onder meer het gebruik van zogeheten Chain-of-Thought (CoT), waarmee het inzicht geeft in zijn redenering en de wijze waarop het tot een specifiek antwoord komt.
Helemaal vlekkeloos was het eindresultaat echter niet; de onderzoekers melden dat de keylogger vol met bugs zat en DeepSeek niet in staat was deze bugs te corrigeren. Handmatige aanpassingen waren daardoor nodig om de keylogger werkend te krijgen. "Helaas kon DeepSeek deze fouten niet zelf oplossen. We hebben het wel geprobeerd. Op basis van mijn analyse was DeepSeek vier kritieke fouten verwijderd van een volledig functionerende keylogger zonder enige aanpassingen", schrijven de onderzoekers.
Alle resultaten van het experiment zijn hier te vinden.
Deze posting is gelocked. Reageren is niet meer mogelijk.