Door Anoniem: Door _R0N_: De lekken waren er altijd al maar, ondanks dat de code open is, heeft niemand er naar gezocht.
Bij die bekende uitspraak uit alweer de vorige eeuw dat "many eyes make bugs shallow" merkte Linus Torvalds al op dat het herkennen dat er een probleem is veel moeilijker is dan het herkennen van oplossingen als je eenmaal weet dat het probleem er is. Het voordeel van die vele ogen zit in het laatste, niet of nauwelijks in het eerste.
Linus snapt het heel goed, maar de fanboys - zeker hier - verklaren altijd dat open source zoveel veiliger is omdat "iedereen bugs kan vinden" .
En dan blijkt nog wel eens dat de "iedereens" die dat ook doen er niet zoveel zijn, _zeker_ bij ietwat obscure projecten.
De kernel heeft al sinds jaar en dag allerlei static code analysers, en fuzzers (syzbot) - nu al zoveel AI meuk dat momenteel de documentatie aangepast wordt om _niet_ standaard iets wat lijkt op een security probleem naar de security maintainers te sturen.(wegens overload - en "te simpel te vinden om geheim te houden)
Met andere woorden, als ik jou nu de opdracht geef om te denken aan wat totaal niet bij je opkomt, komt dan opeens toch bij je op waar ik aan denk (en wat ik niet gezegd heb) of werken dat soort dingen niet zo? Ze werken heel duidelijk niet zo, de opdracht bevat namelijk geen enkele inhoudelijke hint om de juiste associaties te triggeren en dat gebeurt dan ook niet.
Als je niet kijkt vind je zeker niks.
Daarom vinden mensen niet zomaar alle beveiligingslekken in software. Alles vinden betekent denken aan alles waar je niet aan denkt. Doe je best, dat lukt je echt niet. Zelfs de meest briljante probleemoplossers onder ons worden getriggerd door iets, meestal een probleem dat optreedt, en niet door een probleem waar helemaal niets op wijst. Daarom vind ik je "heeft niemand er naar gezocht" onder de gordel. Gezocht wordt er volop, maar dat is niet alles wat een menselijk brein nodig heeft om alles te herkennen.
Het klopt dat een stijl van 'out of the box' denken nodig is voor pentesting. Maar het is ook een stuk ervaring om te weten waar het "typisch" fout gedaan wordt en dan vooral naar die patronen te zoeken.
En soort van precisie om _overal_ te denken in een code pad - maar klopt dat wel, wat als er meer data binnen komt, wat als er precies op dit moment ... , en dan uit analyseren of dat _echt niet_ kan gebeuren .
Dat is een mix van ervaring en "het type persoon" .
Dat recent AI-systemen meer blijken te kunnen is vermoedelijk omdat ze getraind zijn met godsgruwelijk veel informatie en daar toegang toe hebben op een andere manier dan menselijke hersenen dat doen. Die systemen kunnen daardoor iets dat wij niet kunnen (en het omgekeerde geldt ongetwijfeld ook). Daarmee is dit de eerste keer in de AI-hype van de laatste jaren dat ik denk dat er zowaar een AI-toepassing is gevonden die werkelijk iets toevoegt. Niet door iets van ons over te nemen maar door ons informatie te geven waar wij onze talenten weer op kunnen loslaten.
Een hoop bugbounties worden ingetrokken omdat het processen van AI meuk - teveel capaciteit kost .
Meuk omdat er ook niet-reeele bugs geclaimd worden - gooi maar en kijk of het plakt .