Leseempfehlungen zur Künstlichen Intelligenz, Teil 2

Die Schachsache, mit der wir den ersten Teil unserer Leselinkliste (LLL) beendet haben, markiert einen Umbruch in KI-Entwicklung. Auf der einen Seite hatte man einen gesetzten Meilenstein nun endlich erreicht (nach etwa 40 Jahren). Doch dieses Ereignis war nicht der Durchbruch, wie man sich das erhofft hatte. Eher war es der Abschluss einer Entwicklung. Nach den Enttäuschungen über den General Problem Solver (WP) hatte man sich auf die Lösung einzelner konkreter Aufgaben konzentriert. Nun endlich hatte man das Gefühl, das man alles,was man verstanden hatte, auch auf eine Maschine abbilden kann. Und darüber hinaus sagte man sogar, etwas zu verstehen bedeutet, es programmieren zu können. Mit anderen Worten, wenn ich nicht weiß, wie ich einem Computer eine gewisse Sache beibringen kann, habe ich diese Sache noch nicht richtig verstanden.

In diesem Bereich gibt es noch viel Luft nach oben. Das sind Sachen, die wir noch nicht so gut hinbekommen, weil wir sie einfach noch nicht so gut verstanden haben. “Digitalisierung” ist ein Schlagwort, das man heute oft hört. Dabei geht es darum, dass heute immer mehr Dinge computertechnisch abgewickelt werden. Das liegt aber meistens nicht daran, dass wir die Comuputer immer intelligenter machen, sondern daran, dass wir immer besser verstehen wie gewisse Dinge in unsere Gesellschaft funktionieren und wie man das elektronisch umsetzen kann. (Vieles haben wir auch schon verstanden aber noch nicht umgesetzt.)

Der Leser, der sich für das Thema Künstliche Intelligenz (WP) interessiert (also mein Leser) sollte ein Grundverständnis darüber haben, wie ein Computer (WP) funktioniert und wie er programmiert (WP) wird. Etwa so, wie er auch weiß, wie eine Fernsehsendung produziert wird, wie sie übertragen wird und schließlich wie die Sendung durch den Fernseher wieder sichtbar gemacht wird. Ok, die Kathodenstrahlröhre (WP) war gestern, aber ich denke der Leser kann sich etwas unter einem “Pixel” vorstellen und weiß, dass “Kabel Eins” kein Kabel ist. Was ist also ein Computer und wie funktioniert er? Ein grobes Schema formuliert die sogenannte von Neumann Architektur (WP) . Und wie bringen wir den Computer dazu, uns Arbeit abzunehmen? Hierzu lese man etwas über die Grundkonzepte höherer Programmiersprachen (WP) . Dazu gehören z.B. Variablen (WP) , Verzweigungen (WP) und Schleifen (WP) .

Heute ist die Objektorientierte Programmierung (OOP) (WP) sehr verbreitet, bei welcher Daten und Funktionalitäten auf kleine Einheiten (die Objekte) verteilt werden. Der Programmierer schafft in einem ersten Schritt eine anwendungsbezogene Abstraktionsebene, in dem er das Schema der Objekte entwirft. In einem zweiten Schritt werden dann Instanzen dieser Objekte (oft sehr viele Instanzen) mit einander vernetzt und die Instanzen treten in Interaktion miteinander. So entwickeln die Instanzen ein gewisses Eigenleben und im Computer entsteht eine simulierte Welt in der Akteure aufeinander treffen. Computerspiele sind der Paradefall für die objektorientierte Programmierung.

An dieser Stelle empfehle ich meinen Artikel “Mit SVG und Javascript richtigen Strom erzeugen – eine grafische Animation des einschrittigen Übertrages nach Howard Aiken und Konrad Zuse.” In dem Artikel, sieht man wie man auf einem “Schaltplan” Instanzen von Objekten wie “Schalter” und “Verbindungen” platziert. Das Konzept, das hinter den Objekten steht ist in diesem Javascript-Programm definiert, welches ich ausführlich kommentiert habe.

Dies sollte zeigen, wie der Computer dann doch noch zu einem “General Problem Solver” geworden ist. Andererseits sind auch die Grenzen dieser Art von künstlicher Intelligenz in den 90-er Jahren deutlich geworden. Die Erfolge der letzten Jahre bei der Weiterentwicklung der Künstlichen Intelligenz (etwa seit 2008) sind weitgehend einer ganz anderen Herangehensweise zu verdanken. Stichworte dazu sind Data-Science , Künstliche Neuronale Netze und Maschinelles Lernen . Mein Anliegen ist es, zu zeigen, dass man mit wenigen Grundkenntnissen (Grundlagen des Programmierens und Grundlagen der höheren Mathematik ) in der Lage ist, auch die in dieser Art der KI eingesetzten Methoden im Grundsatz verstehen zu können.

Data-Science ist ein sehr weitreichender Begriff. In Bezug auf Künstliche Intelligenz geht es darum, in komplexen Daten ein Schema zu erkennen, aus der eine Bedeutung erschlossen werden kann. Zum Beispiel wird ein Bild im Computer durch mehrere Millionen einzelner Zahlenwerte dargestellt, die die Farbwerte der Bildpixel repräsentieren. Wie kann man daraus die Bedeutung des Bildes ableiten? Um sich langsam dem Thema zu näher, kann man als Erstes den Artikel “Niemand hat die Absicht eine …” von Peter Stahl über statistische Datenanalyse lesen. Sein Team-Kollege Steffen Wittkamp zeigt dann im gleichen Blog wie man als Programmierer erste Erfahrungen mit Bilderkennung sammeln kann: “Machine Learning – ein Appetizer!” . Als Methode wird hier eine sogenannte Support Vector Machine (WP) einer frei verfügbaren Programmsammlung als Black-Box verwendet.

Auch der Zeit-Autor Andreas Loos fragte sich, ob man in einer Woche eine künstliche Intelligenz erschaffen kann. Sein Artikel “Mein Bot und ich” ist in der Zeit-Online-Serie Maschinenraum erschienen, die sich seit September 2016 dem Thema KI widmet.

Doch KI ist nicht nur etwas für Jungs. Fast hätte ich zu diesem Schluss kommen müssen. Doch dann habe ich Olivia Klose von Microsoft Germany entdeckt. Sie bezeichnet sich selbst als Technologie-Evangelistin. Sie will also (oder sie hat den Auftrag dazu) die neuen (auch von Microsoft entwickelten) KI-Technologien gewissermaßen unter das Volk bringen und dafür werben. In ihrem Blog erklärt Olivia Grundlagen des maschinellen Lernens zum Teil in deutsch und auch als Videos. Die Leserin, die sich bereits als Fachfrau in unserem Thema sieht, sei noch auf diese Konferenz im Juli 2017 hingewiesen: “Women in Data Science and Mathematics Research Collaboration Workshop”.

Kommen wir jetzt nochmal auf die Support Vektor Maschine zurück, die Steffen eingesetzt hat. Hier wird ein digitales Bild als ein einziger Punkt in einem hoch dimensionalen Raum aufgefasst. Die Idee dieser Methode ist es, dass alle Punkte mit einer speziellen Bedeutung (Bild mit Lastwagen) in einem speziellen Bereich des Raumes liegen und diejenigen Punkte mit der gegensätzlichen Bedeutung (Bild ohne Lastwagen) in einem anderem Bereich. Man sucht dann nach einer mathematischen Formel, die einen Punkt des Raumes in eine einzige Zahl verwandelt. Ist die berechne Zahl für die Datenwerte eines Bildes dann größer als Null, schließt man auf ein gewisse Bedeutung des Bildes. Ist die Zahl kleiner als Null, liegt die gegenteilige Bedeutung vor. Die Punkte des Raumes, wo die berechnete Zahl genau Null ist, bilden dann eine Fläche, die die beiden Bedeutungen von einander trennt.

Das Problem besteht darin, diese magische Formel zu finden, die als Entscheidungsinstanz geeignet ist. Die Herangehensweise ist immer so, dass man eine Kollektion von Beispieldatensätzen haben muss, bei denen das gewünschte Ergebnis bereits vorliegt. Mit diesen Datensätzen “trainiert” man die Support Vector Machine. Bei diesem Vorgang werden Parameter der Maschine, die in die gesuchte Formel als Konstanten eingehen, in einer systematischen Weise immer wieder verändert, bis die Maschine (also die Formel) für die gegebenen Beispiele das gewünschte Ergebnis liefert. Daher spricht man von einer “lernenden Maschine”. Der Erfolg dieses Lernprozesses ist aber nicht garantiert. Daher sollte man eine zweite Kollektion von Beispieldatensätzen haben. Auf diese wendet man die trainierte Maschine an und schaut, wie oft die Maschine mit ihrer Bewertung richtig liegt. Ist das Ergebnis nicht zufriedenstellend, so muss man noch nicht gleich verzagen, denn es gibt die SVM in verschiedenen Varianten und sie haben auch noch zwei Stellschrauben (in der Literatur meist c und N genannt). Man muss also ein bisschen herumprobieren, bis man etwas trainieren konnte, was dann auch funktioniert. Man darf darüber dann aber keine falsche Vorstellung haben. Wenn es funktioniert, funktioniert es, weil man es gesehen hat, dass es funktioniert und nicht weil man Erkenntnisse über Zusammenhänge gewonnen hat.

Hier ist eine Einführung “Basics of support vector machines” in der es eine kleine Inline-Applikation gibt, mit der man etwas herumspielen kann. Die Einstellung “linear” ist die Grundvariante einer SVM, bei der man versucht, die Entscheidungsfunktions als eine lineare Funktion zu realisieren. Die Trennfläche (s.o.) ist dann ein Hyperenbene (WP) . Die anderen Varianten entstehen dadurch, dass man den Grundraum in einen höher dimensionalen Raum hineinbiegt und dort wieder das lineare Grundverfahren anwendet. In diesem Video wird das veranschaulicht, in dem ein 2-dimensionaler Raum in einem 3-dimensionalen hineingebogen wird. Dort lassen sich dann die roten Punkte von den blauen Punkten durch eine Ebene von einander abtrennen. Bringt man diese Trennung zurück in den Originalraum hat man eine elliptische Trennkurve.

In einen 3. Teil dieser Artikelreihe werden wir erläutern, was “künstliche neuronale Netze” sind.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Leseempfehlungen zur Künstlichen Intelligenz, Teil 1

Wie ich es versprochen habe, publiziere ich hier eine kleine Nachleseliste zu meinem Vortrag über Künstliche Intelligenz (WP) bei der Vortragreihe der Initiative Lebenslanges Lernen an der Universität Duisburg – Essen . Ich setze immer den Zusatz WP in Klammern hinter einen Link, wenn es sich um einen Link zu Wikipedia handelt. Dann kann man den Link auch ignorieren, denn Begriffe bei Wikipedia nachzuschlagen ist ja heute Standard. Vielleicht ist es aber trotzdem hilfreich hier einfach nur einen Mausklick (WP) machen zu müssen.

Wer kann uns zum Thema Künstliche Intelligenz etwas sagen? Rufen wir als ersten Ramon Llull (WP) auf, den mallorquinischen Philosophen und Logiker aus dem Mittelalter, der natürlich Mönch war. Er gilt als einer der ersten, der über eine logischen Maschine (WP) nachdachte. Sehr ausführlich hat sich Martin Gardner (WP) in Logic Machines and Diagrams (1958) mit den Ideen von Llull auseinandergesetzt.

Als nächstes ist der Universalwissenschaftler Gottfried Wilhelm Leibniz (WP) zu nennen, der Rechenmaschinen mit einem Walzenmechanismus erfand, aber auch (zumindest theoretisch) das Rechnen mit Null und Eins (WP). Da Leibniz sich auch mit Psychologie befasste, liegt es nahe ihn auch zum Thema Künstliche Intelligenz zu befragen. Ich empfehle den Zeit-Artikel Er wollte die Welt mit Intelligenz in den Griff bekommen von Gero von Randow (WP) zum 300-sten Todestags von Leibniz zu lesen.

Richtig los ging es mit der KI durch die Dartmouth Conference (WP) von 1956, die den Titel “Dartmouth Summer Research Project on Artificial Intelligence” hatte. Die Initiatoren waren John McCarthy (WP) vom Dartmouth College, Marvin Minsky (WP) von der Harvard University, Nathaniel Rochester (WP) von IBM und Claude Shannon (WP) von den Bell Telephone Laboratories. Ich verlinke hier auf den 1955 gestellten Förderantrag .

1957 entwickelten Herbert Alexander Simon (WP) (1978 erhielt er den Wirtschaftsnobelpreis) und Allen Newell (WP) (damals bei der RAND_Corporation (WP) )ein Programm, das sie General Problem Solver (WP) nannten.

ELIZA (WP) ist ein Programm das Joseph Weizenbaum (WP) 1966 entwickelte und in der Lage ist, über Tastatureingaben mit einem Benutzer einen Dialog in natürlicher Sprache zu führen. Dabei nimmt ELIZA die Rolle eines Psychotherapeuten ein. Hier ist Weizenbaums Artikel ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine . Weizenbaum hat sich auch immer wieder kritisch geäußert und hat vor einer übertriebenen Technikgläubigkeit gewarnt. 2007, ein Jahr vor seinem Tod hat der 84-jährige Weizenbaum bei einem “Tag der Informatik” an der Universität Erlangen Nürnberg gesprochen. Nichts für Hastige aber lohnenswert ist es, sich die Aufzeichnung des Gespräches (in deutscher Sprache) anzusehen.

Zurück zu ELIZA. Hier noch ein aktueller Artikel zum 50-sten Geburtstag: Das sagten Sie bereits . Der Autor Ulrich Woelk ist Physiker und Schriftsteller. Wer einmal mit ELIZA sprechen will, kann es auf www.med-ai.com tun (deutsche Version). ELIZA muss man in Zusammenhang mit dem sogenannten Turing-Test (WP) sehen, der 1950 von Alan Turing (WP) formuliert wurde und ein Vorschlag ist, zu bewerten, ob eine Maschine eine Intelligenz besitzt, die mit der Intelligenz des Menschen vergleichbar ist. In dem Artikel Ein Trickser namens Eugene Goostman von Eike Kühl wird über ein entsprechendes Experiment von 2014 geschrieben.

Zu Alan Turing sollte man noch ein paar Worte sagen. Chronologisch hätte man noch vor der Dartmoith Conference auf Turing eingehen müssen, denn er starb 1954 und gilt als Wegbereiter der KI-Forschung. Ihm gelang es 1936 mit Hilfe einer theoretischen Maschine (die man heute Turingmaschine (WP) nennt) den Begriff der Berechenbarkeit (WP) mathematisch zu definieren. Das damit verbundene Entscheidungsproblem (WP) steht in engem Zusammenhang mit den Gödelschen Unvollständigkeitssätzen (WP) , die besagen, dass eine nach strikten Regeln aufgebaute Mathematik immer unvollständig bleiben muss. Als weiteres muss Turings Beitrag zur Kryptographie (WP) erwähnt werden, denn er war in Bletchley Park wesentlich an der Entschlüsselung deutscher Funksprüche beteiligt. 1943 kam dort auch einer der ersten Röhren-Computer zum Einsatz.

Im Online-Archiv der Wochenzeitschrift “Die Zeit” habe ich nach dem ersten Artikel zum Thema Künstliche Intelligenz gesucht. Ich habe Das Märchen vom klugen Roboter aus dem Jahr 1966 von Thomas von Randow (WP) gefunden. von Randow ist den Zeit-Lesern auch als Autor von Logeleien unter dem Pseudonym Zweistein bekannt und manche erinnern sich vielleicht noch an die WDR-Sendung Kopf um Kopf (WP) , bei der er beteiligt war.

Einen Computer zu bauen, der dem Menschen beim Schachspiel überlegen ist, galt als Herausforderung in der KI-Forschung. 1966 kritisiert Thomas von Randow in dem erwähnten Artikel, wie schlecht die Schachprogramme noch seien. Erst 1996 gelinkt es dem System Deep Blue (WP) von IBM den damaligen Schachweltmeister Kaspasrow in einem einzelnen Spiel zu schlagen, doch Kasparow gewann das Match. In einem zweiten Match 1997 gewann aber die Maschine. Zum Nachlesen empfehle ich den Artikel Schachweltmeister Garri Kasparow tritt zum zweiten Mal gegen den IBM-Schachcomputer Deep Blue an der vor dem zweiten Match erschienen ist. Interessant ist der Artikel, weil die Aspekte “extreme Hardwareleistung” und “intelligente Programmierung” gegenübergestellt werden. Der Autor Klaus Manhart ist Lesern von Computer-Magazinen als Erklären aktueller Entwicklungen bekannt.

Wir machen nun eine Cut und verweisen den geneigten Leser auf einen Teil 2 an gleicher Stelle, der etwa in 14 Tagen kommen wird.

Auch möchte ist nochmal auf unseren ZIM-Talk hinweisen. Der nächste Vortrag “Künstliche Intelligenz – mehr als ein Oxymoron ?” wird Dienstag 20.12.2016 sein.

Jetzt noch zwei Bonus-Links für Auge und Ohr. Welche Farbe hat wohl Künstliche Intelligenz? Google weiß es: weitgehend ist es die Farbe Blau . Und wie hört sich Künstliche Intelligenz an? Nein, fragen wir anders. Wie hat die deutsche Schlagerwelt der 60-ziger Jahre unser Thema verarbeitet? Nachbarland Frankreich war behilflich. Die Französin France Gall singt: … und nur darum ist das so … .

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Zu Besuch beim 32C3 Chaos Communication Congress (CCC) in Hamburg

In einem Tweet wurde der 32C2 als „indoor burning man“ bezeichnet. Ein Vergleich der vielleicht etwas übertrieben scheint, aber der Eindruck des Kongresses im CCH in Hamburg auf Erstbesucher ist enorm, wie ich in Jahre 2014 selbst feststellen konnte. Es handelt sich um den führenden Kongress zum Thematik Security in Deutschland.
https://de.wikipedia.org/wiki/Chaos_Communication_Congress

In diesem Jahr war das Motto „gated communities“, also abgeschlossene Wohnkomplexe oder Benutzergruppen, wie sie derzeit in den großen abgeschlossenen Ökosystemen von Apple, Facebook, Amazon und Microsoft zu finden sind, die immer weiter die Benutzer einschränken, um sie in einem goldenen Käfig abzuschirmen. Ein Trend dem die Open Source Community Offenheit der Schnittstellen, Freiheit der Wahl und Privatsphäre entgegensteht.

Ein sehr interessanter Vortrag dort wurde von LaForge (Harald Welte, einem der Entwickler von netfilter/iptables und OpenBSC) zum Thema „Running your own 3G/3.5G Network “ präsentiert. Dort ging es um die Weiterentwicklung der OpenBSC-Open-Source GSMSoftware für 3G und LTE.

Viel zu lernen zu Wireless Security gab es im Vortrag „Building and Breaking Wireless
Security“ von Jiska.

Der Hack mit dem höchsten Medienecho dort war von der Gruppe um Karsten Nohl zu
sehen. Es handelte sich um einen Angriff auf „point of sale“-Bezahlsysteme für Kreditkartenzahlungen in Geschäften. Der Vortrag zu „Shopshifting – The potential for
payment system abuse“ ist unter https://media.ccc.de/v/32c3-7368-shopshifting zu finden.

Ebenfalls hochinteressant war der Vortrag zum weltweiten Iridium-Satellitetelefonienetzwerk:

https://media.ccc.de/v/32c3-7154-iridium_update

Abbilung der CCC-Rakete

Auch in diesem Jahr gab es einen Talk zur verwendeten Netzwerk und WLAN-Infrastruktur in Bezug auf Auslastung. Dort wurde unter Anderem ein großer Saal mit 3000 Sitzplätzen mit WLAN versorgt. Insgesamt wurde das ganze Gebäude mit nur 145 AP des Herstellers Aruba versorgt. Der Peak bei den gleichzeitig versorgten Clients lag bei 8150 bei insgesamt 20000 Unique Clients.
https://media.ccc.de/v/32c3-7555-32c3_infrastructure_review
Was Ruedi (Rüdiger Weis), ein Kryptograph und Professor an der Beuth-Hochschule Berlininteressantes zum Thema Windows 10 zu sagen hat, kann man im Vortrag „Microsofts Windows 10 Botnet “ nachlesen.

Alle Vorträge sind hier im Video-Archiv zum Kongress zu finden:
https://media.ccc.de/c/32c3

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Empfehlungen zum Einsatz von Windows 10 an der Universität Duisburg-Essen

Das neue Betriebssystem von Microsoft Windows 10 hat durch seine verstärkte Ausrichtung auf mobile NutzerInnen neue Features erhalten, die ähnlich wie bei IOS und Android erhebliche Auswirkung auf die Privatsphäre der AnwenderInnen haben. So sammelt Windows 10 Telemetriedaten zu den NutzerInnen  um die User-Experience mit Hilfe der integrierten virtuellen Assistentin “Cortana” zu verbessern.
AnwenderInnen die deutsche oder europäische Datenschutzstandards gewohnt sind, werden aber anhand der Daten die Microsoft erhebt ein eher mulmiges Gefühl bekommen.  Microsoft hat die datenschutzrelevanten Einstellungen aber recht übersichtlich in der Registrierkarte “Datenschutz” unter “Einstellungen” zusammengefasst. Leider geht Microsoft nach dem “opt-out”-Verfahren vor, d.h. nach der Installation sind die Einstellungen maximal Datenschutz-ungünstig vorbelegt und die AnwenderInnen müssen sich die Zeitnehmen die Einstellungen anzupassen. Es ist zu befürchten, dass sich nicht Jeder die Zeit nimmt, die Datenschutzeinstellungen sorgfältig zu konfigurieren. Besonders  unangenehm aufgefallen ist, dass Microsoft bei Updates  -  absichtlich oder nicht – die Datenschutzeinstellungen auf ungünstige  Einstellungen zurücksetzt.
Einen schönen Überblick zu der Thematik und Tipps zur Konfiguration gibt dieser Artikel auf Heise-Online.

Die Universität Duisburg-Essen ist  dem Microsoft Bundesvertrag (Mitarbeiter) beigetreten. Im Rahmen dieses Vertrages können Sie Windows-Betriebssysteme  als Upgrade auf allen Arbeitsplatzrechnern und PC-Pools installieren. Voraussetzung für den Einsatz einer aktuellen Windows-Version ist immer das Vorhandensein einer qualifizierenden Betriebssystem-Lizenz. Das ZIM betreibt derzeit in den Pools Windows 7 und empfiehlt auch den AnwenderInnen der UDE diese Windows-Variante an Arbeitsplätzen.  Den Einsatz von Windows 10 an der UDE empfiehlt das ZIM aus Datenschutzerwägungen derzeit explizit nicht.

Wenn Sie nicht auf den Einsatz verzichten wollen oder können, verwenden Sie eine der Versionen  „Windows 10 Education“ oder  „Windows 10 Enterprise LTSB“ (Long Term Servicing Branch). „Windows 10 Enterprise LTSB“ wurde für geschäftskritische Systeme konzipiert. Für diese Version verteilt Microsoft ausschließlich aktuelle Sicherheitsupdates und Hotfixes. Für den Einsatz an Arbeitsplätzen besser geeignet ist die Version “Education”, die kontinuierliche Weiterentwicklungen erhält. Bei diesen beiden Versionen lässt sich über Gruppenrichtlinien zentral die Übermittlung von Telemetrie-Daten an Microsoft vollständig zu unterbinden (Telemetry-Level 0: Security). Dies kann auch lokal auf dem jeweiligen Rechner eingestellt werden. Vor der Verwendung  der Versionen “Windows 10 Home” und “Pro”  an Arbeitsplätzen der Hochschule soll aus Datenschutzerwägungen abgesehen werden, da hier kein vollständigen Deaktivieren der Telemetrie möglich ist.

Das kostenlose Tool “O&O shutup10” vereinfacht die Datenschutzeinstellungen.

Für alle NutzerInnen ,die die Datenschutzeinstellungen manuell vornehmen möchten, sind anbei einige Screenshots mit empfohlenen Einstellungen aufgeführt:

win10-1win10-2win10-3win10-5win10-6win10-7

 

Veröffentlicht unter Allgemein | Verschlagwortet mit | Hinterlasse einen Kommentar

GreenIT am Arbeitsplatz – Empfehlungen des ZIM für einen CO2-schonenden Arbeitsplatz

Für vom ZIM zentral verwaltete Arbeitsplätze in den CIP-Pools und den PC-Halls kann eine GreenIT freundliche Konfiguration leicht etabliert werden. Dort kann durch geeignete Konfiguration des Powermanagements und von An- und Abschaltzyklen (z.B. wake-on-LAN bei Updates) eine Menge Energie eingespart werden. Eine zentrale Konfiguration der folgenden Tipps für die individuellen Arbeitsplätze kann dort in der Breite CO2 einsparen.

Neben den Bestrebungen zentrale IT-Systeme CO2-recourcenschonend zu etablieren und konfigurieren, lohnt es sich auch einen Blick auf die einzelnen Arbeitsplätze der Hochschulmitarbeiter zur werfen.

Sie können Ihren bestehenden Arbeitsplatz mit Hilfe dieser ZIM-GreenIT-Tipps für die CO2-Einsparung optimieren:

  1. Die Windows Energieoptionen:
    Stellen Sie Ihren PC so ein, dass nach 5 Minuten Inaktivität der Bildschirm auf dunkel geschaltet wird. Konfigurieren Sie den Rechner nach 15 Minuten Inaktivität in den Ruhemodus.
  2. Vermeiden Sie animierte Bildschirmschoner – diese verbraten unnötig Energie.
  3. Reduzieren Sie die Helligkeit Ihres Monitors. Viele Flachbildschirme sind im Default-Zustand viel zu hell eingestellt. Sie schonen mit so einer Einstellung auch Ihre Augen.
  4. Meiden Sie spiegelnde Displays. Diese müssen sehr viel heller eingestellt werden, um die Reflektionen zu überstrahlen. Sie tun so auch etwas für die Ergonomie Ihres Arbeitsplatzes.
  5. Wenn Sie Ihren Rechner abschalten, trennen Sie Ihm mit einer schaltbaren Steckerleiste vom Netz. Viele PCs, Notebooks, Flachbildschirme und Drucker haben keinen echten Netzschalter mehr und verbleiben in einem Standby-Modus bei dem das Netzteil weiterhin Strom aufnimmt. Schalten Sie auch Ihren Drucker ab wenn Sie Ihr Büro verlassen.
  6. Achten Sie auf hohe Prozessorauslastung. Schauen Sie im Taskmanager nach, welche Programme viel Rechenleistung verbrauchen auch wenn Sie den Computer nicht nutzen. Wenn möglich, ersetzen Sie diese Programme durch ressourcensparende Alternativen. Häufig deutet eine hohe Auslastung im idle-Betrieb auf einen Konfigurationsfehler oder einen Virenbefall hin.
  7. Der Einsatz eines Werbeblockers (z.B. Adblock plus) spart Energie. Animierte Werbefenster, besonders solche die Flash nutzen, verschwenden unnötig Rechenleistung beim Herunterladen und im Betrieb. Verzichten Sie am Besten ganz auf Flash und schauen Sie Videos bei Youtube nur im HTML5-Modus.
  8. Wenn Sie ein Notebook als Arbeitsgerät verwenden, dass Sie selten bewegen, entfernen Sie den Akku. Dieser wird sonst ständig nachgeladen. Sie sollen allerdings alle 3 Monate den Akku nachladen, um seine Lebensdauer nicht einzuschränken.
  9. Die Wahl eines  dunklen Desktop-und Browser-Themes bringt nur bei Röhrenmonitoren und bei OLED-TFT-Displays eine Energieeinsparung. OLED-Displays sind aber derzeit nur in einigen Smartphones und sehr hochwertigen Flachbildfernsehern verbaut. Auf Ihrem Smartphone mit OLED spart ein dunkles Theme tatsächlich CO2 ein und verlängert Ihre Akkulaufzeit.
  10. Auch im Internet können Sie Energie einsparen. Benutzen Sie eine energiesparende Suchmaschine.

Der PC-Service des ZIM kann bei der Konfiguration unterstützen und bei Beschaffungen Empfehlungen aussprechen.

Solarlader

Auch das ist GreenIT: Laden eines Smartphones per Solarpanel – zugegebenermaßen im Süden einfacher als in diesen Breiten

Schneller höher weiter? Durch geeignete Hardwareauswahl CO2 einsparen.

Hier sollen einige Empfehlungen für die Beschaffung GreenIT-konformer individueller Arbeitsplätze ausgesprochen werden. Während die Single-Core Performance von Prozessoren seit Jahren stagniert, werden heute fast ausschließlich Multi-Core-Systeme eingesetzt, die teilweise zusätzlich auf den einzelnen Cores Hyper-Threading realisieren, um Rechenleistung auf verschiedene Prozesse zu verteilen. Der typische Büroarbeitsplatz eines Mitarbeitern in der Verwaltung, der Administration bzw. eines Geisteswissenschaftlers mit Anwendungen wie Office und Webbrowser profitiert nur in einem geringen Maße von der Multi-Core-Architektur. Als Richtschnur kann gelten, dass für eine Büroarbeitsplatz eine Intel Core-I3 CPU ausreichend ist. Nur die Bearbeitung von Videos, Programmiertätigkeit, virtuelle Maschinen, Simulationssoftware (z.B. MathLAB), Statistik- und symbolische Mathematiksoftware erfordert mehr Rechenleistung und sollte daher mit hochwertigeren Arbeitsplätzen bezüglich der CPUs ausgestattet werden. Es kann sich auch bewähren, Arbeitsplätze „umgekehrt hirarchisch“ auszustatten. Studentische Hilfskräfte, die aufwändige Programmieraufgaben und Videoschnittaufgaben erledigen, benötigen möglicherweise mehr Rechenleistung als vielleicht Wissenschaftler oder Abteilungsleiter, die Anträge und Veröffentlichungen schreiben.

Eine Beispielkonfiguration mit Intel-NUC

Für einen typischen Büroarbeitsplatz wird hier als Beispiel folgende CO2-sparende GreenIT Konfiguration vorgeschlagen. Die Intel-NUC-Plattform ermöglicht basierend auf energiesparende Mobilprozessoren sowohl leistungsfähige als auch leise Arbeitsplatzrechner. Bei einer für typischen Büroeinsatz mit Internetnutzung geeigneter Konfiguration mit 8 GB RAM und einer 128 GB SSD kostet so ein Gerät ca. 320 €.

Hier die Beispielkonfiguration, die mit eine Leistungsaufnahme von unter 20Watt im Betrieb auskommen sollte:

Intel NUC Kit DC3217IYE Core i3-3217U Intel HD Grafik,
2x DDR3 SO-DIMM
1x mSATA.

Nachhaltigkeit in der IT

Bei GreenIT geht es darum eine den CO2-Ausstoß reduzierende IT zu etablieren. Dabei geht es nicht nur, wie landläufig angenommen, nur um stromsparende IT-Technologie, sondern auch um Nachhaltigkeit. Unter Nachhaltigkeit ist im Sinne von GreenIT auch die Nutzungsdauer von IT-Komponenten zu verstehen. Extrem kurze Erneuerungszyklen von PCs und Smartphones verursachen einen sehr hohen Ausstoß von CO2 bei der Produktion dieser Komponenten. Insofern kann die sorgfältige Auswahl von Arbeitsgeräten die Nutzungsdauer dieser Geräte verlängern. Worauf sollten Sie bei der Beschaffung achten?

Die Nutzungsdauer eines PCs und Notebooks kann wesentlich verlängert werden, wenn auf Kompatibilität mit Open Source Betriebssystemen geachtet wird. Im Gegensatz zu kommerziellen Betriebssystemen gibt es imOpen-Source-Linux-Umfeld Distibutution, die sowohl auf aktueller Software und über Sicherheitsupdates verfügen als auch Unterstützung für sehr alte Hardware bieten. Für Hardware die etwa 5-10 Jahre alt ist, kann Lubuntu empfohlen werden. Ältere Hardware lässt sich mit Vectorlinux, Puppylinux und Slitaz auch heute noch sicher und sinnvoll betreiben. Achten Sie also bei der Beschaffung eines PCs oder Notebooks auf Linux-Konformität. Einige Hersteller verdongeln Ihre Notebooks mit nicht abschaltbaren „Secure-Boot“-Option im UEFI-Bios, was diese Geräte nachhaltig untauglich für alternative Betriebssysteme macht.

Vermeiden Sie möglichst nicht nachhaltige Bauformen, wie z.B. sehr flache Ultrabooks. In Ultrabooks sind Akkus häufig fest verbaut. Außerdem limitieren auch die wenigen oder propritär ausgeführte Anschlüsse an solchen Geräten die langfristige Nutzung der Geräte. Wenn sich Harddisk bzw. SSD und Speicher nicht einfach aufrüsten lassen, verursachen solche Geräte unnötige Probleme bei einer langfristigen Nutzung. Grundsätzlich sind aber Notebooks energiesparender ausgelegt als Desktop-Computer. Wenn Sie ein Notebook als reinen Desktop-Ersatz betreiben, sollten Sie aber den Akku entfernen.

Tablets und Smartphones

Achten Sie bei Smartphones und Tables auf wechselbare Akkus und die Unterstützung von standardisieren Speicherkarten (SD-Card-Slot). Wichtig ist auch die Unterstützung von Betriebssystemupdates durch den Hersteller. Wenn Sie beim Kauf eines Android-Smartphones nachhaltig agieren wollen, achten Sie darauf, dass Sie ein Gerät wählen, dass von der alternativen Android-Distibution CyanogenMod unterstützt wird. So kann sichergestellt werden, dass ihr Gerät auch noch nach Jahren Softwareupdates erhält. Die Hersteller von Smartphones haben wenig Interesse daran, Ihre Geräte nach dem Kauf mit Updates zu versorgen. Ein Hersteller, der seine Geräte recht lange mit Updates versorgt ist Apple. Allerdings sind iPhones und iPads mit fest verbauten Akkus keinesfalls nachhaltige Produkte.

Thin Clients als Alternative

Untersuchungen über typische PC-Nutzung haben ergeben, dass ein PC zu 80% untätig auf Benutzereingaben wartet. Eine CO2-Einsparmöglichkeit sind daher sogenannte Thin- oder Zeroclients, die lokal am Arbeitsplatz Energie einsparen und nur in den restlichen 20% der Zeit über viele Nutzer geteilte CPU-Leistung über VDI (Virtual Desktop Infrastructure) zur Verfügung stellen. Es fällt aber im zentralen Rechenzentrum mit der notwendigen Klimatisierung auch weiterer CO2-Verbrauch an, der in der Energiebilanz berücksichtigt werden muss. Das derzeit sehr gehypte VDI spart also nicht in jedem Fall CO2 ein. Wenn ein sogenannter Fat-Client, ein gewöhnlicher PC oder ein Notebook, verwendet wird, kann sich der CO2 Verbrauch sogar mehr als verdoppeln. Der Use-Case auf einem MAC per VDI einen Windows-Rechner oder umgekehrt zu nutzen, ist also aus GreenIT-Sicht nicht zielführend.

Was in zentralen Serverräumen für GreenIT getan werden kann

In zentralen Rechnerräumen muss wegen der hohen Packungsdichte der Server in Schränken die Abwärme durch eine geeignete Klimaanlage abgeführt werden. Jede für die Rechner eingesetzte Kilowattstunde verursacht in etwa den gleichen Verbrauch für die Klimatisierung. Überschlagsmäßig kann so etwa mit dem doppelten CO2-Einsatz für zentrale IT gerechnet werden. Mit Effizienzsteigerungen durch die Zusammenfassung von Servern durch Virtualisierung von Servern können, je nach Anwendung, bis zu 80% an Energie eingespart werden. Eine Kühlung mit Wasser anstatt mit Luft kann erheblich zur Energieeinsparung beitragen, wenn das Wasser an der Außenluft auf die Umgebungstemperatur zurück gekühlt wird.

Bei herkömmlicher Luftkühlung kann, durch eine Trennung von Kühlluft an der Front der Rechnerschränke (sogenannter Kaltgang) von der Abwärme hinter den Racks, Energie für die Kühlung eingespart werden. Das ist baulich möglich, kann aber auch durch einfache Maßnahmen, wie z.B. schwere Vorhänge aus PVC zur Definition von Kaltgängen, realisiert werden. Auch die Vermeidung von Luftströmungen durch unbelegte Rechnerhöheneinheiten in Racks durch eingesetzte Leerblenden spart auf einfache Weise Energie ein.

Neuartige ressourcensparende Server-Systeme basierend auf ARM-Prozessoren, wie sie auch in Smartphones verwendet werden (HP-Moonshot-Serverserie) können in Zukunft helfen, Strom im Rechenzentrum zu sparen. Auch die passiv zu Kühlenden, auf Intel Bail-Trail basierende Architekturen (wie in Windows 8 Tablets verwendet), können in Zukunft für Serveranwendungen interessant werden.

Veröffentlicht unter Tipps & Tricks, Trends & Entwicklungen | Verschlagwortet mit , , , | Hinterlasse einen Kommentar