Fragen? Antworten!
Ergebnis: nur dockerd führt zu einer Steigerung des Stromverbrauchs um 1.44 kWh im Monat.
Da ist dann noch keine runtime drin. Finde ich als Faustwert schon mal nen ganz interessanten Wert und wüsste nun gern, was welche runtimes verursachen und was dafür Kriterien sein könnten. Ein Einflussfaktor dafür dürften die verwendeten Programmiersprachen sein. Dazu wurden in diesem Paper anhand von 10 Aufgaben (u.a. reverse-complement, fasta, binary-trees etc.) 27 Sprachen auf Effizienz und Energieverbrauch geprüft. Die normierten Ergebnisse findet ihr auf Seite 16.
Im Energieverbrauch führt C mit dem geringsten Wert, dicht gefolgt von Rust (1.03x C) und erst dann kommt C++ (1.34 C), was ich nicht gedacht hätte. Java (1.98 C), Swift (2.79 C), C# (3.14 C), Go (3.23 C) sowie Dart (3.83 C) sind immer noch solide, denke ich.
Das Python jetzt nicht besonders gut wegkäme, hatte ich mir schon gedacht, aber auf dem vorletzten Platz mit 80x Energieverbrauch im Vergleich zu C?
Das hätte ich trotzdem nicht gedacht. Auch Typescript (20x C) hat mich etwas gewundert, weil es nicht nur nen Stück, sondern 3x+ mehr Energie als Javascript (4.5x C) verbraucht.
In puncto Python würde mich interessieren, ob Cython verwendet wurde und, falls nein, welchen Einfluss das hätte.
Für das einzelne Entwicklungsprojekt stimmt es natürlich, dass Entwicklungskosten >> Betriebskosten sind. Grad aber große Player, könnten vielleicht durch die Verwendung einer anderen Sprache etwas eingespart werden.
Hat da jemand Erfahrungen bzw. das bei jemanden in der Firma mal Thema gewesen?
#greenIT