image

Utrechtse GGZ-instelling vernietigt oude dataset met patiëntgegevens

maandag 12 augustus 2019, 12:13 door Redactie, 26 reacties

De Utrechts GGZ-instelling Akwa GGZ heeft besloten om een oude dataset met geaggregeerde en gepseudonimiseerde patiëntgegevens te vernietigen, nadat de Autoriteit Persoonsgegevens vaststelde dat het het hier om persoonsgegevens ging. De dataset was afkomstig van Stichting Benchmark Geestelijke Gezondheidszorg (SBG) en werd gebruikt voor het ontwikkelen van kwaliteitsstandaarden en meetinstrumenten.

Akwa GGZ is bezig met de doorontwikkeling van Routine Outcome Monitoring (ROM). ROM is een tool om de kwaliteit in de zorg te verbeteren. "We hebben destijds die verarmde dataset van SBG overgenomen op verzoek van het werkveld", zegt directeur Dominique Vijverberg. In mei kwam de Autoriteit Persoonsgegevens al met een voorlopig standpunt dat het hier toch om persoonsgegevens ging.

Patiënten zouden voor de verwerking dan hun toestemming hebben moeten geven of er zou een wettelijke grondslag benodigd zijn. Na het voorlopige standpunt besloot de GGZ-instelling om de dataset in quarantaine te plaatsen en partijen hier geen toegang meer toe te geven. "Sindsdien hebben we onderzocht welke toegevoegde waarde de oude dataset in zich heeft voor de toekomst. In de praktijk blijkt de behoefte van het veld voor inzage in de historische data sterk afgenomen", aldus Akwa GGZ.

De instelling stelt dat de database strijdig is met de manier van werken omdat het alleen werkt met gegevens waarvoor de patiënt uitdrukkelijk toestemming heeft gegeven. Daarop is besloten de oude dataset te vernietigen.

Reacties (26)
12-08-2019, 12:32 door Anoniem
Geeft maar weer eens te meer aan dat gegevens nergens veilig zijn.. hoeveel van dit soort databases zijn er bij andere zorginstellingen, politie, belastingdienst enz enz?
12-08-2019, 13:11 door Anoniem
Door Redactie: een oude dataset met geaggregeerde en gepseudonimiseerde patiëntgegevens
Gepseudonimiseerde gegevens blijven persoonsgegevens, want te herleiden naar de persoon. Geanonimiseerde gegevens zijn geen persoonsgegevens, want op geen enkele manier te herleiden naar de persoon. Bij (deugdelijke) anonimisatie valt de informatie niet meer onder de AVG (want geen persoonsgegevens) en heeft de AP er dus ook niets meer over te zeggen. Een goede manier om te anonimiseren is trouwens vaak meerdere records aggregeren, dus wat dat betreft is de opmerking in het artikel geaggregeerde en gepseudonimiseerde wel apart. Gepseudonimiseerd is voor zover ik ben tegengekomen niet geaggregeerd. Het doel van het pseudonimiseren is juist om in het belang van de persoon wiens data het betreft eventueel te kunnen de-pseudonimiseren. Als je eenmaal geaggregeerd hebt, kan je niet meer herleiden naar één persoon.
12-08-2019, 13:23 door Anoniem
Beter random generated datasets gebruiken.
12-08-2019, 13:48 door Anoniem
Wie tussen de letters doorleest weet dat er enkel en alleen is gesteld dat men heeft besloten de data te vernietigen - niet dat men dit ook daadwerkelijk gaat doen... voor wat meer context, zie:

https://www.zorgictzorgen.nl/akwa-ggz-zegt-sbg-database-te-vernietigen/

Let wel: men heeft dus ook nadrukkelijk aangegeven dezelfde data in de toekomst alsnog als indicator voor zorginkoop te willen gebruiken, en ook op dezelfde wijze blijven vergaren als men voorheen deed, alleen dan met een nog zorgvuldiger pr-praatje om er omheen te lullen...
12-08-2019, 15:54 door Anoniem
Beter random generated datasets gebruiken.

Klinkt leuk, random generated datasets. Denk je niet dat men datasets nodig heeft uit de werkelijke praktijk (met betere anonimisering) ? Random generated heeft in veel gevallen geen enkele inhoudelijke waarde.
12-08-2019, 15:56 door Anoniem
Geeft maar weer eens te meer aan dat gegevens nergens veilig zijn.. hoeveel van dit soort databases zijn er bij andere zorginstellingen, politie, belastingdienst enz enz?

Is er misbruik gemaakt dan van de data ? Hoop wel dat ze het volgende keer beter aanpakken, bij anonimisering. Maar verder lijkt het niet alsof het voor de patienten enig probleem heeft veroorzaakt. Of dat er iemand te kwader trouw was.
12-08-2019, 16:07 door Anoniem
Door Anoniem: Beter random generated datasets gebruiken.

Je wilt een tool ontwikkelen om de kwaliteit te verbeteren. Dan heb je niets aan random data. Dan heb je een pseudo dataset nodig, die een weerspiegeling van de echte wereld is, maar waar geen gegevens van echte personen in zitten. Je moet dus eerst heel goed uitzoeken wat er in een echte dataset zit aan normale en afwijkende zaken. Vervolgens ga je bepalen wat je wilt meten. Dan kan het best zijn dat je in de pseudo dataset juist meer afwijkende zaken wilt opnemen, zodat de tool die sneller herkent. Maar ook weer niet te veel, om te voorkomen dat de tool die als normaal gaat kenmerken.

Hetzelfde als dat je een invoerformulier gaat testen. Dan ga je ook geen random input genereren. Dan kijk je naar hoe de achterliggende applicatie werkt en ga je zo veel mogelijk testen met randsituaties.
Je mag ergens een leeftijd invoeren. Dan zijn getallen van 1 tot 99 niet interessant. Dat werkt meestal wel. Daar hoef je maar 1 keer een getal ergens in het midden in te voeren. Je wilt echter weten wat er gebeurt als je 0 of -1 of 100 of 101 invoert.
Als je geen leeftijd in moet voeren, maar een geboortedatum, wat zijn dan de grensgevallen? Wat gebeurt er als ik vandaag invul, of morgen.
Kun je zelf een maand invullen of moet je kiezen.

Peter
12-08-2019, 18:09 door karma4
Door Anoniem: Beter random generated datasets gebruiken.
Random gegevens om een proces te verbeteren?
Dat heet garbage in en er zal garbage uit komen.

Voor procesverbetering heb je goede meetwaarden nodig.
Goede meetwaarden zijn per definitie productiegegevens.
Je zult alleen wat niet ter zake doet er uit willen laten dat kan bij personen heel weinig zijn zodat je in een goede gecontroleerde veilige omgeving moet zien op te zetten.
12-08-2019, 18:40 door Briolet
Door Anoniem: Geeft maar weer eens te meer aan dat gegevens nergens veilig zijn.. hoeveel van dit soort databases zijn er bij andere zorginstellingen, politie, belastingdienst enz enz?

De kerk heeft er nog veel die zelfs een paar honderd jaar terug gaan. In elk geval verder terug dan de gemeentelijke archieven.
12-08-2019, 19:32 door Anoniem
Door karma4:
Door Anoniem: Beter random generated datasets gebruiken.
Random gegevens om een proces te verbeteren?

Ja, dan kan je je software fuzz-testen. Met AI als het kan!

Dat heet garbage in en er zal garbage uit komen.

Voor procesverbetering heb je goede meetwaarden nodig.
Goede meetwaarden zijn per definitie productiegegevens.

Met echte productie data testen is zo jaren negentig.

Als programmeur wil je de echte data niet op je apparatuur hebben staan. Veel te riskant. Zie ook https://www.security.nl/posting/547256/Juridische+vraag%3A+Hoe+voorkom+je+aansprakelijkheid+wanneer+een+klant+productiedata+met+persoonsgegevens+als+testdata+aanlevert%3F.

Bovendien zal echte productie data ook corrupties bevatten als de data set groot genoeg is. Met random gegenereerde data kan je goed nabootsen wat er dan gebeurt met je nieuwe code.

Met productie data testen is precies wat er fout ging met de belastingdienst en diens broedkamer.
12-08-2019, 19:53 door Anoniem
Welke data zal de THE FAMILY wel niet hebben...
12-08-2019, 20:27 door Anoniem
Een database vol disinfo waar uiteindelijk niemand meer wijs uit komt. Ik neem aan dat dit jouw hulpvraag is?

Kom maar op met die privacy opties tenzij de instelling nog steeds curieuze bedoelingen heeft.

Het AP is ook maar een stempelkussendienst (goed/slecht). Ik zie dat je van de andere post (in jouw gedachtenlijntje) wel genoten hebt. Geen dank daarvoor.
12-08-2019, 21:04 door karma4
Door Anoniem: Ja, dan kan je je software fuzz-testen. Met AI als het kan!
… Met echte productie data testen is zo jaren negentig.
Wat jij voorstelt en je denkbeelden is jaren 60, beter nog je moet terug naar het weefgetouw. Inclusief de ponskaarten. .
- Iemand bedenkt een proces,
- Iemand maakt een ontwerp hoe dat zou moeten gaan
- Je zet er een stel code kloppers op om te bouwen.
- laat een persoon kijken of het resultaat klopt.
Of je het nu de watervalmetode noemt of met scrum de customer journey, het maakt weinig uit.
In deze ouderwetse gedachte kun je me random test data wat doen.

Misschien heb je ooit van Alan Turing gehoord.Die draaide het proces om. als je een gewenst resultaat weet. hoe kan je dan een machine neerzetten die dat resultaat kan herhalen. .

Als programmeur wil je de echte data niet op je apparatuur hebben staan. Veel te riskant. ….
Bovendien zal echte productie data ook corrupties bevatten als de data set groot genoeg is. Met random gegenereerde data kan je goed nabootsen wat er dan gebeurt met je nieuwe code.
Probeer maar eens een schaakpartij of go van een computer te winnen. Het zijn de voorbeelden waarbij de productie gegevens tot resultaten leiden welke door coderen vanuit mensen gewoonweg onmogelijk zijn.


Met productie data testen is precies wat er fout ging met de belastingdienst en diens broedkamer.
Je geeft exact aan waar het probleem lag en wat er speelde.
Dat is namelijk de grote weerstand van die oude code kloppers die dachten buiten spel te komen te staan.
Die hebben het spel als "klokkenluiders" gespeeld om die nieuwe collega's af te branden zodat ze zelf weer verder konden.
Als je het Machine Learning doorhebt:
- Je laat de code via tools genereren uit bekende productie gegevens met gemarkeerde resultaten (training set)
Je gebruikt daarbij wat er is aan kennis vanuit de bestaande vloer. (ervaren toezichtspersonen)
Deze source code wordt aangeduid als "het model"
- De kwaliteit van wat er uit komt test je met de trainingsdataset. Iets wat mensen niet eens doen. je kijkt of wat bedacht is ook echt een verbetering is met andere gevallen.
Daarna of liever veel eerder ga je kijken om dat in de productie toe te passen. Aansluiten in koppelvlakken waarbij de afhankelijkheden in andere processen goed afgestemd moet worden.

Wat mis zit als cultuur is het op de eigen afdeling gaan bouwen op de eigen desktops dat een ieder alle data overal naar toe sleept. Je herkent het als "loa lokaal ontwikkelde applicaties) met de oplossingen van handmatig verwerken.
Natuurlijk vinden die oude code kloppers zoiets heerlijk. Ze zouden toch eens productief moeten worden of weggeautomatiseerd worden. Dat verhaal speel trouwens overal ik heb het nog nooit anders gezien sinds lotus 123a.


-
12-08-2019, 21:38 door Anoniem
Door Anoniem: Welke data zal de THE FAMILY wel niet hebben...

Vast alleen educatieve liedjes zoals Dodenrit van Drs. P

Of bedoel je de CIA?
13-08-2019, 00:21 door Anoniem
ML en AI is leuk totdat je de kern processen niet meer ziet of gehacked / overgenomen worden. Wie dan op de trumpet blaast is een raadsel. Misschien interne Facebook algoritmes die een eigen taaltje hebben ontwikkeld. Klinkt dit bekend?

Met Bigdata hetzelfde. Handig maar u was gewaarschuwd voor Big data leaks. Dan gaat het opeens niet meer over individuele celldata maar over privacy van hele hele volksstammen Er zijn individuelen die waarschuwen en voorkomen maar dan moet de vendor wel eens actie ondernemen anders is het failliessement aanstaande.

Als dat lang genoeg genegeerd wordt is de vendor slecht en komt er "vanzelf" een alternatief. Of dat beter is ziet men dan wel. Als Microsoft stopt met Windows zal Linux een goede boost krijgen, omgekeerd zou de wereld naar de kl**te gaan.

Denk zelf heel goed na en laat je niet leiden/lijden (naar de afgrond).

Eerlijk gezegd ben ik van mening dat dit verdiend is. Blijf maar bij Windows waar je "goed" in bent, de Linux users redden zich wel.
13-08-2019, 07:30 door Anoniem
Anoniem is ook niet meer wat het geweest is.
AI kan ons moeiteloos vinden.
Zie artikel over Belgiache onderzoek:
https://newscientist.nl/nieuws/ai-vindt-je-zelfs-als-je-gegevens-anoniem-verwerkt-zijn/
13-08-2019, 09:35 door Anoniem
Door karma4:
Door Anoniem: Ja, dan kan je je software fuzz-testen. Met AI als het kan!
… Met echte productie data testen is zo jaren negentig.
Wat jij voorstelt en je denkbeelden is jaren 60, beter nog je moet terug naar het weefgetouw. Inclusief de ponskaarten. .
- Iemand bedenkt een proces,
- Iemand maakt een ontwerp hoe dat zou moeten gaan
- Je zet er een stel code kloppers op om te bouwen.
- laat een persoon kijken of het resultaat klopt.
Of je het nu de watervalmetode noemt of met scrum de customer journey, het maakt weinig uit.
In deze ouderwetse gedachte kun je me random test data wat doen.

Misschien heb je ooit van Alan Turing gehoord.Die draaide het proces om. als je een gewenst resultaat weet. hoe kan je dan een machine neerzetten die dat resultaat kan herhalen. .

Het is andersom, karma4. Alan Turing had jaren 60 denkbeelden en fuzzing is nog steeds zeer relevant. Zie bijvoorbeeld https://www.security.nl/posting/586115/Google-fuzzer+vindt+9_000+bugs+in+opensourcesoftware uit 2018.

Als programmeur wil je de echte data niet op je apparatuur hebben staan. Veel te riskant. ….
Bovendien zal echte productie data ook corrupties bevatten als de data set groot genoeg is. Met random gegenereerde data kan je goed nabootsen wat er dan gebeurt met je nieuwe code.
Probeer maar eens een schaakpartij of go van een computer te winnen. Het zijn de voorbeelden waarbij de productie gegevens tot resultaten leiden welke door coderen vanuit mensen gewoonweg onmogelijk zijn.

Zo ver ik weet werken schaakprogramma's nog steeds prima met MinMax https://en.wikipedia.org/wiki/Minimax. Go is een ander verhaal omdat de zoekruimte veel te groot is om met een supercomputer te doorzoeken.
13-08-2019, 13:42 door Anoniem
Door Anoniem:
Door karma4:
Door Anoniem: Ja, dan kan je je software fuzz-testen. Met AI als het kan!
… Met echte productie data testen is zo jaren negentig.
Wat jij voorstelt en je denkbeelden is jaren 60, beter nog je moet terug naar het weefgetouw. Inclusief de ponskaarten. .
- Iemand bedenkt een proces,
- Iemand maakt een ontwerp hoe dat zou moeten gaan
- Je zet er een stel code kloppers op om te bouwen.
- laat een persoon kijken of het resultaat klopt.
Of je het nu de watervalmetode noemt of met scrum de customer journey, het maakt weinig uit.
In deze ouderwetse gedachte kun je me random test data wat doen.

Misschien heb je ooit van Alan Turing gehoord.Die draaide het proces om. als je een gewenst resultaat weet. hoe kan je dan een machine neerzetten die dat resultaat kan herhalen. .

Het is andersom, karma4. Alan Turing had jaren 60 denkbeelden en fuzzing is nog steeds zeer relevant. Zie bijvoorbeeld https://www.security.nl/posting/586115/Google-fuzzer+vindt+9_000+bugs+in+opensourcesoftware uit 2018.

Als programmeur wil je de echte data niet op je apparatuur hebben staan. Veel te riskant. ….
Bovendien zal echte productie data ook corrupties bevatten als de data set groot genoeg is. Met random gegenereerde data kan je goed nabootsen wat er dan gebeurt met je nieuwe code.
Probeer maar eens een schaakpartij of go van een computer te winnen. Het zijn de voorbeelden waarbij de productie gegevens tot resultaten leiden welke door coderen vanuit mensen gewoonweg onmogelijk zijn.

Zo ver ik weet werken schaakprogramma's nog steeds prima met MinMax https://en.wikipedia.org/wiki/Minimax. Go is een ander verhaal omdat de zoekruimte veel te groot is om met een supercomputer te doorzoeken.

De eerste computer die de Turing test volledig doorstaat moet ik nog zien. Achter de gordijnenvan bijvoorbeeld Facebook zijn het vaak gewoon mensen (hele afdelingen) die aan de touwtjes trekken en beslissen wat gebanned wordt- onder tijdsdruk en zonder na te denken want dat is hun werk niet. Dat is ook gevaarlijk want ze kunnen zo het algoritme de schuld geven als het misgaat (er is dus geen accountability). Zo stel ik mij dat dan voor.

De meeste "AI is overal" praat is een waan en vooral desinfo uit bepaalde hoeken cq landen die ons bang willen maken en jaloers zijn op voortgang (zie de bang geworden Elon Musk). Die angst wordt helaas gevoed door misbruik aan deze kant waardoor de propaganda helaas zichzelf maakt. Van de arrogantie hier wordt elders weer geprofiteerd maar ik praat tegen de lucht. De delusive van een technologische superieure AI is een soort nieuwe grootheidswaan waar steeds meer mensen last van hebben. De waan zelf is een soort virus waar hier niemand van profiteert (dag Elon).
13-08-2019, 15:48 door Anoniem
Door Anoniem:
Door Redactie: een oude dataset met geaggregeerde en gepseudonimiseerde patiëntgegevens
Gepseudonimiseerde gegevens blijven persoonsgegevens, want te herleiden naar de persoon. Geanonimiseerde gegevens zijn geen persoonsgegevens, want op geen enkele manier te herleiden naar de persoon. Bij (deugdelijke) anonimisatie valt de informatie niet meer onder de AVG (want geen persoonsgegevens) en heeft de AP er dus ook niets meer over te zeggen. Een goede manier om te anonimiseren is trouwens vaak meerdere records aggregeren, dus wat dat betreft is de opmerking in het artikel geaggregeerde en gepseudonimiseerde wel apart. Gepseudonimiseerd is voor zover ik ben tegengekomen niet geaggregeerd. Het doel van het pseudonimiseren is juist om in het belang van de persoon wiens data het betreft eventueel te kunnen de-pseudonimiseren. Als je eenmaal geaggregeerd hebt, kan je niet meer herleiden naar één persoon.

Het feit dat er geoordeeld werd dat het om persoonsgegevens gaat, impliceert enkel en alleen dat de GDPR nu van toepassing is.
Naast toestemming van de natuurlijke persoon, zijn er volgens de GDPR nog 5 andere grondslagen die toelaten om toch nog deze persoonsgegevens te verwerken.

Afhankelijke van de soort gegevens en wat er mee gedaan wordt, denk ik dat het best wel mogelijk is om te argumenteren dat het gaat om:

* Vitale belangen,
* Algemene belangen, of
* Gerechtvaardigde belangen.
13-08-2019, 18:14 door karma4 - Bijgewerkt: 13-08-2019, 18:18
Door Anoniem:
Zo ver ik weet werken schaakprogramma's nog steeds prima met MinMax https://en.wikipedia.org/wiki/Minimax. Go is een ander verhaal omdat de zoekruimte veel te groot is om met een supercomputer te doorzoeken.
Nou nee, https://towardsdatascience.com/how-22-years-of-ai-superiority-changed-chess-76eddd061cb0 De methodiek om zoiets te doen is al veel ouder, het betreft statistiek en wiskunde. Alleen de machines konden het niet aan.
Het is andersom, karma4. Alan Turing had jaren 60 denkbeelden en fuzzing is nog steeds zeer relevant.
Ken de klassiekers. "The bomb machine" was een special purpose ontwerp met als enige doel vanuit een begin gegeven (gencrypte data) en een bekend resultaat het onderliggende codeerproces te achterhalen.
De machine heeft niets van programmeren of een von Neumann benadering te maken.

Daarmee is jouw fuzzing volledig uit beeld. Dat is namelijk gebaseerd op fouten zien te ontdekken veroorzaakt door code kloppers. Code kloppen is het beroep van de koetsier en trekschuit., het wordt overbodig bij echte vernieuwing.

De eerste computer die de Turing test volledig doorstaat moet ik nog zien.
….
De meeste "AI is overal" praat is een waan en vooral desinfo uit bepaalde hoeken cq landen die ons bang willen maken en jaloers zijn op voortgang (zie de bang geworden Elon Musk).
...
De delusive van een technologische superieure AI is een soort nieuwe grootheidswaan waar steeds meer mensen last van hebben. De waan zelf is een soort virus waar hier niemand van profiteert (dag Elon).
Dank je, je hebt hem aardig door. Zeker die Turing test ligt in het verlengde van de omgekeerde data resultaat geeft met low-code de nieuwe aanpak. De desinfo weelt tierig, je kunt dat ook als teken van een omslagpunt zien. Bij elke grote verandering is dat gebeurt.

Wat Elon Musk betreft, hij is onlogisch. Wel flink willen verdienen aan een auto die zelfrijdend zou zijn, intussen de persoon bestuurder inzittenden nauwlettend volgt. Tegelijkertijd zegt hij dat die techniek, zijn eigen verdienmodel, gevaarlijk is voor de mensheid. Hij zou dat hele gedoe met Tesla subiet moeten afstoppen als hij eerlijk is.
13-08-2019, 19:06 door Anoniem
Door Anoniem: Welke data zal de THE FAMILY wel niet hebben...

Interessante Netflix serie over een machtige religieuze cult. Vorige week zond CNN een interview uit over de schrijvers van het boek over The Fellowship (invoedrijke groep in DC en wereldwijd).

Fijn dat ze voor een soft disclosure zijn gegaan. Ik heb er niets meer aan toe te voegen.
13-08-2019, 19:24 door Anoniem
Door karma4:
Door Anoniem:
Zo ver ik weet werken schaakprogramma's nog steeds prima met MinMax https://en.wikipedia.org/wiki/Minimax. Go is een ander verhaal omdat de zoekruimte veel te groot is om met een supercomputer te doorzoeken.
Nou nee, https://towardsdatascience.com/how-22-years-of-ai-superiority-changed-chess-76eddd061cb0 De methodiek om zoiets te doen is al veel ouder, het betreft statistiek en wiskunde. Alleen de machines konden het niet aan.

Ik weet niet of het eerlijk is om een MinMax tree met machine learning te vergelijken. Je zou eigenlijk beide teams (Leela Chess Zero en Stockfish) een budget van een paar ton moeten geven, om daarna hun eigen machine te maken.

Ik begrijp dat Lc0 zwaar leunt op nVidia GPU's en Stockfish op Multiprocessor CPU's.

Ik vind de ontwikkeling wel heel interessant, maar ik zou mijn geld nog steeds op MinMax trees inzetten omdat die voor mijn gevoel minder fouten kunnen maken. Of dingen over het hoofd kunnen zien.

Bedankt voor het refereren naar Lc0!

Zelf schaak in niet meer tegen mijn computers sinds die na de jaren negentig gewoon veel te goed zijn geworden. Het werkt demotiverend om steeds te moeten verliezen. Je had vroeger Battle Chess voor MS-DOS. Daarvan was het een eitje om te winnen. Bovendien waren de animaties erg leuk om te zien.
13-08-2019, 22:37 door Anoniem
Nvidia is beursgenoteerd. Als ik geld had zou ik "beide doen".

Het leukste MS DOS spelletje is Game Informer

https://www.abandonwaredos.com/news-item.php?idn=481&title=Game+Informer+Greatest+Games
15-08-2019, 13:06 door Anoniem
Door Anoniem: Ik begrijp dat Lc0 zwaar leunt op nVidia GPU's en Stockfish op Multiprocessor CPU's.

Om mijn eigen post aan te vullen:
https://www.chess.com/news/view/announcing-the-new-computer-chess-championship#tech
Technical Specifications:

The CCCC will run on cutting-edge technology.

CPU Engines:
CPUs: 2 x Intel Xeon Platinum 8168 @ 2.70 GHz 33 MB L3
Cores: 48 physical (96 logical)
RAM: 256GB DDR4-2666 ECC Registered RDIMM
SSD: 2x Crucial MX300 (1TB) in RAID1
OS: Windows Server 2016

GPU Engines:
GPU: 4x Tesla V100 (64 GB GPU memory)
CPU: Intel(R) Xeon(R) CPU E5-2686 v4 @ 2.30 GHz
Cores: 16 physical (32 virtual)
RAM: 256 GB

Ondertussen heeft Stockfish overigens CCC9 gewonnen van Lc0:
https://www.chess.com/news/view/computer-chess-championship-9-stockfish-10-lc0
15-08-2019, 13:21 door Anoniem


Zelf schaak in niet meer tegen mijn computers sinds die na de jaren negentig gewoon veel te goed zijn geworden. Het werkt demotiverend om steeds te moeten verliezen. Je had vroeger Battle Chess voor MS-DOS. Daarvan was het een eitje om te winnen. Bovendien waren de animaties erg leuk om te zien.

Ik meen me te herinneren dat er ook een porno versie van in omloop was met dito animaties, maar daar kon ik toendertijd helaas niet aankomen. Ik houd me aanbevolen voor zowel Battle Chess als de meer seedy variant.
15-08-2019, 20:24 door Anoniem
Door Anoniem: Ik meen me te herinneren dat er ook een porno versie van in omloop was met dito animaties, maar daar kon ik toendertijd helaas niet aankomen. Ik houd me aanbevolen voor zowel Battle Chess als de meer seedy variant.

Bedoel je deze? https://gamer.nl/artikelen/nieuws/schaken-met-een-erotische-tintje-in-lovechess/
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.