Door Anoniem: Je denk toch niet dat een video-chip die twee high end schermen kan aansturen OOK nog zuinig is ?
En dan roep je "grafisch werk" op een low power CPU .
En vertel je jezelf erbij dat het ook nog zuinig is.
GET REAL.
Systemen zijn meestal gebalanceerd - of alles is behoorlijk low end, of midrange , of high end .
Een low-end CPU in een "grafisch werkstation" ga je niet snel vinden of voor elkaar krijgen .
Zoals ik al schreef gebruik ik nu een ASRock N100DC-ITX. Ik heb even een metertje tussen het stopcontact en de stekker gehangen waar alles weer aan hangt. Als ik de beeldschermen allebei uit zet gebruikt dat systeem in rust zo'n 16-17W. Nu ik met één beeldscherm aan een reactie zit te typen op security.nl zie ik het energiegebruik tussen zo'n 20-25W schommelen. Als ik met twee beeldschermen aan een forse reeks foto's in batch laat verwerken van raw naar jpg dan maakt het systeem gebruik van alle 4 de cpu-cores op 100%, en heeft het geheel even aan 60W getipt en zakte vervolgens af naar iets meer dan 50W. Daar zal de CPU op basis van de oplopende temperatuur zichzelf iets hebben afgeremd. Ik had trouwens uitgezocht of dat kwaad kan, en het antwoord was nee: dat kan bij moderne CPU's (en de N100 hoort tot de moderne wat dat betreft) geen kwaad meer, daar zijn ze expliciet op ontworpen. Een detail waar ik gisteren niet meer aan dacht, trouwens.
Als ik zoek naar wat laptops en desktop-pc's tegenwoordig verbruiken dan kom ik meerdere vermeldingen van 30-70W tegen voor laptops (niet voor gaming), maar ook ergens 18-45W, en ik kom voor desktop-pc's tegen dat die 70 tot ettelijke honderden watts verbruiken. Kennelijk doet mijn systeem het zo slecht nog niet.
Mijn beeldschermen hebben gewoon de meest gangbare resolutie van 1920x1080 pixels met een beelddiagonaal van 24". Ze zijn van een instapmodel van een van de topmerken voor grafisch werk. Dat betekent echt niet dat ze opeens veel meer energie verbruiken dan andere beeldschermen met die kenmerken. Voor het energieverbruik van het beeldscherm doet het er geen donder toe of je ze wel of niet kalibreert, en je kan voor
elk beeldscherm een kleurprofiel maken en gebruiken, met de juiste hulpmiddelen. En wat het aansturen van twee beeldschermen betreft: zelfs een Raspberry Pi kan dat tegenwoordig, en de grafische kaarten die op pc-moederborden zijn vastgesoldeerd kan ik me niet herinneren dat ik er deze eeuw een ben tegengekomen die dat niet kon, ik heb op minder krachtige moederborden ook wel eens met drie monitors gewerkt, probleemloos. Dat is helemaal niet high-end, dat is volkomen normaal.
Om mijn foto's te bewerken heb ik ooit zelf de software geschreven, met qua bediening een totaal andere benadering dan al die grafische pakketten gebruiken. Toen ik dat deed gebruikte ik ook al een fanless systeem dat substantieel trager was dan wat ik nu heb. Om daarmee te kunnen werken heb ik toen de bottlenecks in die software én in mijn werkwijze aangepakt om ook op langzame systemen goed te kunnen werken. Het kan.
Dus ik ben volkomen REAL, dus.
Maar goed - je hebt een erg ongebruikelijke vraag en ik ga dat niet voor jou bij elkaar proberen te speccen.
Veel te veel werk.
Je begon me wel stevig tegen te spreken alsof het allemaal wel beschikbaar was. En als ik je op je kennis daarover aanspreek is het opeens teveel werk? Duidelijk, die kennis valt dus nogal tegen. Hoe REAL ben je zelf?
De Apple macbook lijn is erg krachtig en heel stil . Voor mijn 'normale' gebruik gaat de fan gewoon niet aan.
Externe monitor kan prima.
Ik twijfel er niet aan dat dat mooi spul is. Persoonlijk val ik meer op Linux, en niet op laptops.
Je andere optie is om een high end systeem met waterkoeling te (laten) bouwen. Herrie fans zijn de goedkoopste manier om warmte naar buiten te krijgen, maar het kan ook anders.
Ik heb nu helemaal geen fan, op een systeem dat snel zat is.
Al dat aangenomen dat je twee schermen 'grafisch werk' ook echt serieus werk is .
Dan ga je niet tevreden zijn met een 5W Intel CPU uit de budget reeks.
Ik doe dat al vele jaren, DIT KAN. Die budget-moederborden van nu zijn krachtiger dan high-end systemen van dertig jaar terug, korter vermoedelijk. Daar is heel wat meer mee mogelijk dan jij kennelijk denkt.
Nee, copium is iemand die selecteert in de power-reeks (5W) waar geen andere vendor tussen staat in een beperkte lijst en vandaar argumenteert dat z'n Intel eigenlijk toch een goede performance-per-watt heeft.
Dan las je iets anders dan ik schreef, maar goed. De N100 heeft inderdaad niet de beste performance per watt, maar als ik naar de cijfers kijk die ik al gegeven heb denk ik toch dat ik op een systeem uit ben gekomen dat het opmerkelijk goed doet.
Als fanless _zo_ kritisch is dan zoek je daarop , maar voor passieve koeling zit je dan in systemen met een in absolute zin laag vermogen - en dus ook een performance plafond .
Natuurlijk, maar ik ben niet Shrek zoveel aan het renderen, ik gebruik het als huis-tuin-en-keuken desktopsysteem, draai tussendoor een video erop en ik bewerk foto's. Daarvoor is het krachtig zat.
Maar doe vooral je eigen selectie werk .
Dat heb ik allang gedaan. Maar als iemand me heel stellig gaat melden dat wat ik gedaan heb kennelijk klinkklare onzin was dan wil ik graag horen wat ik dan gemist had en wat er dan nog meer te krijgen is. Je maakt helaas duidelijk dat je me dat helemaal niet kan vertellen. Dan was je stelligheid kennelijk misplaatst.
Op die manier - zoek het lekker zelf uit.
Lekker kopen dan die N100, je wilt toch alleen maar horen dat het helemaal prima is.
Nee, ik wilde juist horen wat er niet prima aan is, in de zin dat er afgaande op wat jij inbracht nog van alles verkrijgbaar moest zijn dat ik kennelijk niet gevonden had. Dat het voor mij prima werkt wist ik al want ik gebruik het al.
Je bent dan de eerste "grafisch werker" waar ik van hoor die aan een low-power CPU genoeg heeft.
(ja, serieus. Afgezien van gamers of "research computing" waren grafici en ontwerpers altijd de doelgroep van de highest-end workstations )
Als softwareontwikkelaar heb ik meegemaakt dat nogal wat ontwikkelaars kicken op razend krachtige systemen voor zichzelf, en dan op die systemen heel makkelijk dingen maken die niet vooruit te branden zijn op de beperktere systemen waar ze op terecht komen. Een recept voor bloatware is dat. Dat was voor mij destijds trouwens ook een argument om zelf juist heel bescheiden systemen te gebruiken, dan ondervind je zelf wat je voor een ander maakt.
Bij wat ik aan grafisch werk heb gedaan (fotografie) heb ik ondervonden dat daar een hele industrie hevig is ingericht op de aanname dat iedereen alles uitsluitend met Adobe doet. Zo kreeg ik bijvoorbeeld met een drukker te maken die eisen stelde in hoe het aangeleverd moest worden, maar niet door de kenmerken zelf te geven maar als een of ander duister bestand met een instructie van hoe dat in Adobe-software geïmporteerd moest worden om de instellingen goed te zetten. Er waren meer van dat soort dingen, grotere en kleinere, en de constante factor erin leek te zijn dat iedereen als vanzelfsprekend aannam dat iedereen de software van Adobe gebruikte en dus dingen helemaal vanuit dat perspectief specificeerde. Dat is vergaande supplier lock-in, van een hele bedrijfstak.
Vanuit dat beeld kan ik me voorstellen dat hoe jij denkt dat het zit meer gebaseerd is op wat de software van Adobe aan hardware vergt dan wat veel grafische bewerkingen op zichzelf aan hardware vergen, en wellicht speelt er een zelfde soort kicken op high-end systemen dat ik bij mijn collega-ontwikkelaars zag.
Ja, ik ben duidelijk stronteigenwijs in dat soort dingen, maar wie weet laten buitenbeentjes als ik juist wel zien dat bij de stroom waarop iedereen comfortabel meedrijft wel wat kanttekeningen te plaatsen zijn. Ondertussen is dat moederbord met CPU dat ik gebruik prima in staat om alledaagse dingen als webbrowsen, e-mailen, een documentje schrijven, een filmpje kijken en dat soort dingen te doen, met in de praktijk nog een laag energieverbruik ook.