Smartphones in Uni-Netz – die mobile Herausforderung

Im Jahre 2005 war noch kein iPhone in Sicht, trotzdem gab es schon lange vorher
innovative Smartphones. Verbreitet waren vor 10 Jahren Geräte der Hersteller HTC
mit Windows Mobile 2003 oder Nokia mit Symbian als Betriebssystem, die per Stift
oder Tastatur bedient wurden. Die “Windows Mobile” Geräte hatten Bezeichnungen
wie MDA oder XDA. Das Webforum XDA-Developers stammt übrigens aus dieser Zeit. Einer der Benutzer des Forums mit dem Namen Cyanogen veröffentlichte dort 2009 eine Android-Modifikation, die heute Basis für die führende Open-Source Android-Distribution ist. Der Marktführer bei Feature- und Smartphones war Nokia mit Geräten, die schon 2005 sowohl WLAN als auch Voice over IP unterstützten. Smartphones waren damals aber sehr teuer und Managern bzw. Firmenkunden vorbehalten. UMTS-Datenverträge schlugen mit wenig studierendenkompatiblen Preisen von weit über 60 € im Monat zu Buche.

Und heute?

Heute ist gibt es Datenflats für 2,95 € monatlich und das mobile Internet ist in den Ballungsräumen überall verfügbar. Es gibt kaum noch Mobilfunknutzer/-innen, die kein Smartphone verwenden. Für viele junge Menschen ist das Smartphone das zentrale Gerät für den Internetzugang und die Kommunikation. Ortsbezogene Dienste
sind heute allgegenwärtig. Nutzerdaten für ortsbezogene Werbeprofile sind die
Währung, in der heute Dienste und Apps bezahlt werden.

Wo geht es in Zukunft hin?

In der Rückschau sieht man, dass neue Technologien nicht von heute auf morgen
etabliert werden, sondern dass sich die Entwicklung immer lange vorher abzeichnet.
Allerdings ist immer schwer zu erraten, wohin die Reise wirklich geht. Während
2006 angenommen wurde, dass Mobiltelefone immer kleiner werden, ist derzeit das
Gegenteil der Fall. Die Displays werden größer und hochauflösender. Die Nutzer
wollen nicht irgendwelche Mobilseiten sehen, sondern das ganze Internet. Das ist
übrigens das Argument, mit dem das erste iPhone beworben wurde. Andererseits
haben sich andere Vorhersagen bezüglich der Sprachein- und ausgabe für Smartphones bewahrheitet (Andreas Bischoff, Virtual Reality und Streaming-Technologien in der webbasierten multimedialen Lehre
und für Ubiquitous Computing, BoD 2006.).

Die Zukunft von gestern, eine Celluon Lasertastatur an einem Campaq iPaq im Jahre 2005 - heute baut diese Firma Laser-Projektoren

Die Zukunft von gestern, eine Celluon Lasertastatur an einem Campaq iPaq im Jahre
2005 – heute baut diese Firma Laser-Projektoren

Neue mobile Anwendungen auch fürs lernen

VR-Brille realisiert mit DIVE und Smartphone

VR-Brille realisiert mit DIVE und Smartphone

Mobile Augmented Reality Anwendungen werden in Zukunft den Endkundenmarkt
erreichen. Google bereitet mit den Produkten Glaces und Cardboard den Markt
für solche Applikationen. Die Rechen- und Grafikleistung der mobilen Geräte öffnet
diesen Technologien den Einsatz auf Geräten. Für die Hochschule können diese
Entwicklungen im Bereich mobiles Lernen zukünftig sehr interessant werden. Mit ein
wenig Fantasie lassen sich ganz neue mobile ortsbezogene Lernszenarien realisieren. In
wenigen Jahren werden möglicherweise AR-Brillen mit Mobilfunkanbindung den
Campusalltag dominieren. Interessant ist auch die mögliche Integration von neuen
laserbasierten Projektoren in Mobiltelefonen.

Also alles gut?

Ein weiteres Zukunftsthema wird mobile Security werden. Ähnlich wie Windows auf
dem Desktop ab Ende der 90er Jahre Ziel von Angriffen über das Internet wurde,
blüht dieses Schicksal nun Android als dominierender Betriebssystemplattform
für Smartphones. Ist ein Smartphone erst einmal von Malware durchdrungen, ist
es ein Leichtes, diese Geräte und so die Nutzer zu verfolgen, persönliche Kontaktdaten
und Passwörter abzugreifen oder das Telefon gar als Abhörwanze zu betreiben. Die Hersteller haben wenig Interesse daran, für Security-Updates zu sorgen, nachdem die Geräte erst einmal verkauft worden sind. Die großen Gewinner der Smartphone-Welle sind Konzerne wie Apple, Google und Amazon, die Nutzerdaten aggregieren und verkaufen. Die digitale Spaltung der Gesellschafft setzt sich im Mobilbereich fort. Aufgeklärte, kreative Nutzer beherrschen die Technologie, „rooten“ ihre Geräte, sind in der Lage Security-Fixes zu installieren und Werbeangebote zu blockieren, während das Gros der Anwender der Technologieund den Konzernen hilflos ausgeliefert sein wird. Information ist der Rohstoff des 21. Jahrhunderts und die Nutzer/-innen sind, wie auch in den sozialen Netzwerken, die eigentliche Ware. Ein erschreckendes Beispiel dafür ist Google. Der Dienst Google Now speichert beispielsweise die „Ok Google“ Sprachsuchen aller Nutzer für immer als Audio-Datei ab, sofern der Suchverlauf in den Benutzereinstellungen aktiviert ist.

Der große Datendurst
Die attraktiven neuen mobilen Dienste benötigen höhere Übertragungsbandbreiten und der mobile Datendurst steigt rasant an. Die Netze lassen sich aber nicht beliebig leicht ausbauen. Bezüglich der für den Mobilfunk freien Frequenzen setzt die Physik Grenzen durch die notwendigen Antennengrößen bei niedrigeren und der höheren Dämpfung bei höheren Frequenzen. Die Deregulierung der nutzbaren Frequenzbänder kann da nur wenig Abhilfe schaffen. Der prognostizierte exponentielle Anstieg der Datenmenge in den mobilen Netzen kann nur durch eine erhöhte Dichte von Mobilfunkantennen mit kleinerer Reichweite, mit sogenannten Femtozellen realisiert werden. Es ist durchaus denkbar, dass in einigen Jahren das ZIM neben WLAN-Accesspoints auch solche Femtozellen am Campus installieren wird. Die Mobilfunkprovider reagieren auf den Kapazitätsengpass mit einer Kontingentierung des Datenvolumens. Das Argument,
durch das immer verfügbare schnelle LTE-Mobilfunknetz werde die „alte“ WLANTechnologie überflüssig, relativiert sich durch die Limitierung durch Volumentarife. Daraus folgt für die Hochschule, dass der Ausbau von WLAN als Alternative zu LTE mit hoher Priorität vorangetrieben werden muss. In Zukunft muss dabei auf den 5GHz-Frequenzbereich mit seinen höheren Datentransferraten und Kanälen fokussiert werden, um eine hohe Qualität für die Nutzung zu gewährleisten. Es ist zu erwarten, dass bald alle Smartphone-Hersteller den überlegenen 5GHz 802.11ac-Standard unterstützen werden. Innovative Verfahren, wie die auch für das „Freifunk“ eingesetzte WLAN-Mesh-Funktechnik werden zukünftig auch auf dem Campus eine große Rolle spielen. Vielleicht wird das Bandbreitenproblem auch durch sich selbst organisierende Mesh-Netze, bestehend aus den Smartphones der Nutzer, zu lösen sein. Die technischen Voraussetzungen bringt das Linux-basierte Android zumindest theoretisch mit. Man darf gespannt sein!

Diesen Artikel hatte ich ursrünglich für die Broschüre 10 Jahre ZIM erstellt.

 

Veröffentlicht unter Allgemein, Trends & Entwicklungen | Hinterlasse einen Kommentar

33C3 – der 33. Chaos Communication Congress vom 27, bis zum 30.12.2016 in Hamburg

Der Chaos Communication Congress (CCC) ist ein anerkannter internationaler Kongress, der sowohl technische als auch gesellschaftliche und politische Aspekte von IT-Sicherheit adressiert. Motto war dieses Jahr „works for me“, eine Kritik an der häufigen Einstellung, dass nur die eigene Plattform bzw. Umgebung entscheidend ist.

Der 33C3, das letzte Mal im HCC (links) in Hamburg, rechts das Logo projiziert an das Radisson-Hotel.

Der 33C3, das letzte Mal im HCC (links) in Hamburg, rechts das Logo projiziert an das Radisson-Hotel.

Weil das Hamburger Congress Centrum (HCC) in den nächsten Jahren renoviert wird, was u. A. zu einer Verkleinerung der Vortragssäle führen wird, fand der Congress im Jahr 2016 leider zum letzten Mal in dieser großartigen Location statt. Der nächste Kon-ferenzort steht noch nicht fest, allerdings gibt es kein weiteres Konferenzzentrum in Deutschland mit einer Kapazität für ca. 13000 Besucher. Der große Saal 1 fasste 3000 Zuhörer und war, wie auch die weiteren Säle bei fast allen Vorträgen gerammelt voll.

Dieses Jahr hat der 33. Chaos Communication Congress für ein sehr großes Medienecho, nicht nur in den IT-Medien, gesorgt. Der Deutschlandfunk hat beispielsweise durchgängig vom 33C3 berichtet. Auch die Tageschau berichtete vom Congress und hat auch ein fünfminütiges Interview mit Linus Neumann, einem der Pressesprecher des Chaos Computer Clubs (CCC), zu Fake-News ausgestrahlt. IT-Security und Datenschutz sind nun also endlich Themen, die bei fortschreitender Digitalisierung in den Fokus einer breiteren Öffentlichkeit gelangen.  Die aus meiner Sicht (es gab drei parallel Sessions, auch ich habe bisher nur etwa ein Drittel der Vorträge gesehen) interessantesten technischen Vorträge waren:

Everything you always wanted to know about Certificate Transparency von Martin Schmiedecker.

Der Vortrag enthält einen Ansatz, mit dem von Root-CAs falsch ausgestellte Zertifikate enttarnt werden können.  Für die Mathematiker unter uns vielleicht interessant ist der Einsatz von Merkle Hash Trees.

Predicting and Abusing WPA2/802.11 Group Keys von Mathy Vanhoef.

Hier werden auch alte Angriffe auf WPA2-Enterprise wie z.B. eduroam vorgestellt. Es geht aber in erster Linie um WPA2-Group-Keys.

Shut Up and Take My Money von Vincent Haupert.

Warum Mobile Banking mit der N26-App keine gute Idee ist, wird hier beleuchtet. Für alle App-Entwickler interessant, weil man eine Menge über TLS Man in the Middle-Angriffe auf mobilen Geräten lernen kann.

Lockpicking in the IoT von Ray.

Hier erfährt man, dass es keine gute Idee ist, Schlösser zu kaufen, die per App geöffnet werden können.

You can -j REJECT but you can not hide: Global scanning of the IPv6 Internet von Tobias Fiebig.

Was herauskommt, wenn der ganze IPv6-Adressbereich gescannt wird, kann man hier  erfahren.

Gone in 60 Milliseconds von Rich Jones.

Zeigt Angriffe auf Amazon Webservices.

David Kriesel beim Vortrag zu SpiegelMining.

David Kriesel beim Vortrag zu SpiegelMining.

 

 

Ein großartiger Vortrag in deutscher Sprache zu Big Data und Data Mining. Was Spiegel Online alles noch so verrät.

Machine Dreams von Joscha.

Wie es mit der KI weitergehen kann und in welche Richtung geforscht werden sollte, erfährt man beim dritten Vortrag in Folge beim CCC (31C2, 32C3) von Joscha Bach. Aus meiner Sicht ein Highlight des 33C3, lohnt sich sehr! Wer auch noch einen sehr schönen vertiefenden Podcast mit Joscha Bach in Deutsch hören möchte, sei dieses 2 1/2  stündige Interview ans Herz gelegt : http://www.wrint.de/2013/03/09/wr156-ortsgesprach-joscha-bach-wg-kunstlicher-intelligenz/

Aber auch gesellschaftliche und netzpolitische Themen waren im Fokus. Empfehlen möchte ich:

 Nicht öffentlich. Ein Geheimdienst als Zeuge. Szenen aus dem NSA-Untersuchungsausschuss von anna, Kai Biermann, Felix Betzin, Elisabeth Pleß, Johannes Wolf, vieuxrenard

Ein Lehrstück/Trauerspiel auf unsere Demokratie. Zu beachten ist, dass das kürzlich von der großen Koalition verabschiedete BND-Gesetz nun eine Überwachung auch ohne „Weltraumtheorie“ zulässt.

The Clash of Digitalizations von Saud Al-Zaid

In diesem interessanten Vortrag geht es sowohl um die Repräsentation von arabischen Männern in Videospielen und die politischen Auswirkungen solcher Stereotypen. Ganz nebenbei gibt es einen schönen Überblick zu First-Person-Shootern.

Recount 2016: An Uninvited Security Audit of the U.S. Presidential Election von Matt Bernhard, J. Alex Halderman

Wer dem Ausgang der US-Wahl nicht vertraut, kann sich hier Informationen aus erster Hand anschauen.

Edward Snowden war als Überraschungsgast live hinzu geschaltet.

Edward Snowden war als Überraschungsgast live hinzu geschaltet.

3 Years After Snowden: Is Germany fighting State Surveillance? Von anna, Andre Meister

Ein schöner Vortrag von den Mitarbeitern von Netzpolitik.org, in dem auch unangekündigt Edward Snowden höchstpersönlich live zugeschaltet worden ist.

The Untold Story of Edward Snowden’s Escape from Hong Kong von Lena Rohrbach, Sönke Iwersen, Robert Tibbo

Wie es Edward Snowden in Honkong ergangen ist, nachdem er auf dem Hotel geflohen war, wird in diesem Vortrag berichtet.

The Transhumanist Paradox von Xavier Flory

Welche Auswirkungen neue Technologien auf die Gesellschaft haben können, wird in diesem sehr interessanten Vortrag adressiert.

Auch wer sich für Weltraumfahrt und Astrophysik interessiert, kam auf dem 33C3 auf seine Kosten:

Interplanetary Colonization von Liz George and Peter Buschkamp

Warum ein Raumschiff im interstellaren Raum ca. 1 cm pro Jahr von seiner Aluminiumhülle verliert, wir hier geklärt.

Eavesdropping on the Dark Cosmos, Dark Matter and Gravitational Waves von Simon Barke

Allein schon wegen der großartigen Folien sehenswert.

Lasers in the sky (with asteroids) von Peter Buschkamp

Was man mit Lasern im Weltraum noch alles so anstellen kann.

Ohne Rakete und ohne Weltraum gibt es keinen Chaos Communication Congress.

Ohne Rakete und ohne Weltraum gibt es keinen Chaos Communication Congress.

Die Universität Duisburg-Essen war in diesem Jahr übrigens auch sehr prominent im Programm vertreten. Zwar waren die Podcaster Nicolas Wöhrl und Reinhard Remfort (ehemals UDE) von „Methodisch Inkorrekt“ schon auf dem 31C3 und dem 32C3 dabei, aber in diesem Jahr habe Sie es mit ihrem sehenswerten Programm sowohl in den Saal 2 als auch in die Abschlussveranstaltung geschafft.  Außerdem war Antonia Hmaidi mit ihrem exzellenten Talk zu  “The Economic Consequences of Censorship” im Vortragsprogramm vertreten. Erst auf der letzten Folie ist mir wegen der E-Mailadresse aufgefallen, dass Frau Hmaidi an der UDE forscht. Ich hatte sie wegen des ausgezeichneten Englisch für einen native speaker gehalten.

Unabhängig von meiner sehr subjektiven Auswahl können alle Vorträge des 33C3 als Video-Stream angeschaut werden: https://media.ccc.de/c/33c3. Zur Orientierung kann das Tagungsprogramm, der sogenannte  „Fahrplan“, dienen, der hier zu finden ist.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Leseempfehlungen zur Künstlichen Intelligenz, Teil 3

In diesem 3. Teil soll es um künstliche neueronale Netze (WP) gehen, eine Technologie, die zur Zeit sehr angesagt ist, wenn es darum geht, Computersysteme intelligenter zu machen oder sich computertechnisch neuen Herausforderungen zu stellen. Wieder ist es natürlich fraglich, wie weit man hier von der Intelligenz eines Computersystems (also einer Maschine) reden kann. Auf jeden Fall geht es um Fähigkeiten und Tätigkeiten die man mit Intelligenz in Verbindung bringt, solange sie ein Mensch besitzt bzw. ausführt. Vorbild für künstliche neuronale Netze ist das Netz aus Neuronen und Verbindungen in den Gehirnen (WP) von Mensch und Tier. Für die IT-Welt sind künstliche neuronale Netze Maschinenmodelle wie die Vector Support Machine die wir im 2. Teil kennen gelernt haben. Sie werden auch im gleichen Kontext und in der gleichen Art eingesetzt. Alles, was wir also schon über Data-Science und maschinelles Lernen (Trainieren) gelesen haben, bezieht sich auch auf künstliche neuronale Netze. Ob mit künstlichen neuronalen Netzen die Vorgänge in Gehirnen von Lebewesen nachgebildet werden ist für IT-Anwendungen zweitrangig.

Wir wollen einen kleinen Abstecher machen, denn es gibt auch Forscher, die gerade das Gehirn als ihr Fachgebiet haben und die sind natürlich daran interessiert mit künstlichen neuronalen Netzen wirkliche Vorgänge in Gehirnen zu simulieren. In diesem Zusammenhang sollte man zwei neurowissenschaftliche Großprojekte nennen: das Human Brain Project der EU und das Brain Activity Map Project der USA. 2014 bekamen die Neurowissenschaftler John O’Keefe , May-Britt Moser und Edvard Moser für Erkenntnisse über Bereiche in Gehirnen, die auf räumliches Orientieren spezialisiert sind, den Nobelpreis für Medizin. Hier ist ein Abstract des Vortrags “Grid cells and our sense of space” , den Edvars Moser November 2016 auf einer Mathematiktagung in Trondheim (Norwegen) gehalten hat. Das Ehepaar Moser lehrt und forscht an der Universität in Trondheim.

Um jetzt auf die künstlichen neuronalen Netzen einzugehen, lassen wir als erstes Jürgen Schmidhuber (WP) zu Wort kommen, einer der führenden KI-Forscher in Deutschland. In dem Zeit-Artikel “Eine Maschine, klüger als der Mensch” schreibt er über sich und seine Forschung. Einen sehr guten Überblick über künstliche neuronale Netze bekommt man durch einen Online-Kurs von Günter Daniel Rey und Fabian Beck , der z.Z. eine Juniorprofessur an der Universität Duisburg Essen hat. Viel detaillierter behandelt David Kriesel das Thema in einem Skript das man auf seiner Home-Page findet. Kriesel ist durch seine vielbeachteten Vorträge auf dem Chaos Communication Congress (WP) bekannt. Interessierte Laien wird sein Skript zu technisch und zu mathematisch sein, doch das erste Kapitel “Einleitung, Motivation und Geschichte” ist auch für sie zu empfehlen. David Kriesel bietet auf seiner Site auch eine Software-Bibliothek mit dem Namen SNIPE (Scalable and Generalized Neural Information Processing Engine) an, welches ein Java-Framework für neuronale Netze ist. Das Skript nimmt zum Teil Bezug darauf.

Man beachte den Unterschied zwischen den in gewisser Weise einfachen sogenannten Feedforward-Netzen und den rückgekoppelten Netzen. Bei den Feedforward-Netzen sind die Neuronen in Schichten organisiert und die Verbindungen gehen immer nur von einer Schicht zu der darauf folgenden Schicht und nie zurück. Das Netz wird so verwendet, dass man die Eingabeneuronen jeweils mit einem Wert belegt und dann die Werte der Ausgabeneuronen ausliest. Ändert man die Eingabewerte, so muss man das als ein neues vom vorherigen unabhängiges Experiment ansehen. Ein typischer Einsatzbereich solcher Netze ist die Bildanalyse, wenn jedes Bild unabhängig ist und keinen Bezug zum Vorgänger hat.

Bei den rückgekoppelten Netzen geht man von sich taktweise verändernden Eingabedaten aus. Man muss sich das dann so vorstellen, dass die rückgekoppelten Daten auf die neuen Daten des Folgetaktes treffen. Als typisches Anwendungsfeld denke man Spracheverarbeitung. In den rückgekoppelten Netzen hat man also in jedem Takt eine Erinnerung an den vorhergehenden Takt.

1997 kamen Jürgen Schmidhuber und sein Schüler Sepp Hochreiter (WP:en) zu einem Konzept, wie man in einem rückgekoppelten Netz eine Erinnerung (s.o.) länger aufbewahren kann, um sie später verwenden zu können. Dieses Konzept nannten sie Long short-term memory (WP) also langes Kurzzeitgedächnis. Die Abkürzung ist LSTM. Es dauerte aber noch etwa 10 Jahre, bis die LSTM-Netze den Weg aus dem Elfenbeinturm der Wissenschaft in die IT-Praxis gefunden haben. Hören wir Jürgen Schmidhuber in einem Vortrag . Wer eine technische Einführung in LSTM-Netze sucht, kann “Understanding LSTM Networks” von Christopher Olah lesen.

Kommen wir jetzt noch zu den Chancen und Risiken der künstlichen Intelligenz. Einen guten Überblick gibt dieses Diskussionspapier der Stifftung für Effektiven Altruismus . Dort werden auch die Themen Superintelligenz (WP) und Bewusstsein (WP) angesprochen. Zu Superintelligenz lese man dieses Interview in der Zeit mit Nick Bostrom oder man lese Bostroms bei Suhrkamp erschienenes Buch “Superintelligenz. Szenarien einer kommenden Revolution”. Bezüglich Bewusstsein stellt sich die Frage, ob Maschinen so etwas wie Bewusstsein überhaupt haben können, sowie die damit verknüpfte Frage, wie Neurowissenschaftler Bewusstsein erklären. Ich empfehle diese beiden Artikel vom Zeit-Autor Ulrich Schnabel (WP) : “Haben Maschinen Bewußtsein?” von 1997 und “Was ist das Ich?” von 2012.

 

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Leseempfehlungen zur Künstlichen Intelligenz, Teil 2

Die Schachsache, mit der wir den ersten Teil unserer Leselinkliste (LLL) beendet haben, markiert einen Umbruch in KI-Entwicklung. Auf der einen Seite hatte man einen gesetzten Meilenstein nun endlich erreicht (nach etwa 40 Jahren). Doch dieses Ereignis war nicht der Durchbruch, wie man sich das erhofft hatte. Eher war es der Abschluss einer Entwicklung. Nach den Enttäuschungen über den General Problem Solver (WP) hatte man sich auf die Lösung einzelner konkreter Aufgaben konzentriert. Nun endlich hatte man das Gefühl, das man alles,was man verstanden hatte, auch auf eine Maschine abbilden kann. Und darüber hinaus sagte man sogar, etwas zu verstehen bedeutet, es programmieren zu können. Mit anderen Worten, wenn ich nicht weiß, wie ich einem Computer eine gewisse Sache beibringen kann, habe ich diese Sache noch nicht richtig verstanden.

In diesem Bereich gibt es noch viel Luft nach oben. Das sind Sachen, die wir noch nicht so gut hinbekommen, weil wir sie einfach noch nicht so gut verstanden haben. “Digitalisierung” ist ein Schlagwort, das man heute oft hört. Dabei geht es darum, dass heute immer mehr Dinge computertechnisch abgewickelt werden. Das liegt aber meistens nicht daran, dass wir die Comuputer immer intelligenter machen, sondern daran, dass wir immer besser verstehen wie gewisse Dinge in unsere Gesellschaft funktionieren und wie man das elektronisch umsetzen kann. (Vieles haben wir auch schon verstanden aber noch nicht umgesetzt.)

Der Leser, der sich für das Thema Künstliche Intelligenz (WP) interessiert (also mein Leser) sollte ein Grundverständnis darüber haben, wie ein Computer (WP) funktioniert und wie er programmiert (WP) wird. Etwa so, wie er auch weiß, wie eine Fernsehsendung produziert wird, wie sie übertragen wird und schließlich wie die Sendung durch den Fernseher wieder sichtbar gemacht wird. Ok, die Kathodenstrahlröhre (WP) war gestern, aber ich denke der Leser kann sich etwas unter einem “Pixel” vorstellen und weiß, dass “Kabel Eins” kein Kabel ist. Was ist also ein Computer und wie funktioniert er? Ein grobes Schema formuliert die sogenannte von Neumann Architektur (WP) . Und wie bringen wir den Computer dazu, uns Arbeit abzunehmen? Hierzu lese man etwas über die Grundkonzepte höherer Programmiersprachen (WP) . Dazu gehören z.B. Variablen (WP) , Verzweigungen (WP) und Schleifen (WP) .

Heute ist die Objektorientierte Programmierung (OOP) (WP) sehr verbreitet, bei welcher Daten und Funktionalitäten auf kleine Einheiten (die Objekte) verteilt werden. Der Programmierer schafft in einem ersten Schritt eine anwendungsbezogene Abstraktionsebene, in dem er das Schema der Objekte entwirft. In einem zweiten Schritt werden dann Instanzen dieser Objekte (oft sehr viele Instanzen) mit einander vernetzt und die Instanzen treten in Interaktion miteinander. So entwickeln die Instanzen ein gewisses Eigenleben und im Computer entsteht eine simulierte Welt in der Akteure aufeinander treffen. Computerspiele sind der Paradefall für die objektorientierte Programmierung.

An dieser Stelle empfehle ich meinen Artikel “Mit SVG und Javascript richtigen Strom erzeugen – eine grafische Animation des einschrittigen Übertrages nach Howard Aiken und Konrad Zuse.” In dem Artikel, sieht man wie man auf einem “Schaltplan” Instanzen von Objekten wie “Schalter” und “Verbindungen” platziert. Das Konzept, das hinter den Objekten steht ist in diesem Javascript-Programm definiert, welches ich ausführlich kommentiert habe.

Dies sollte zeigen, wie der Computer dann doch noch zu einem “General Problem Solver” geworden ist. Andererseits sind auch die Grenzen dieser Art von künstlicher Intelligenz in den 90-er Jahren deutlich geworden. Die Erfolge der letzten Jahre bei der Weiterentwicklung der Künstlichen Intelligenz (etwa seit 2008) sind weitgehend einer ganz anderen Herangehensweise zu verdanken. Stichworte dazu sind Data-Science , Künstliche Neuronale Netze und Maschinelles Lernen . Mein Anliegen ist es, zu zeigen, dass man mit wenigen Grundkenntnissen (Grundlagen des Programmierens und Grundlagen der höheren Mathematik ) in der Lage ist, auch die in dieser Art der KI eingesetzten Methoden im Grundsatz verstehen zu können.

Data-Science ist ein sehr weitreichender Begriff. In Bezug auf Künstliche Intelligenz geht es darum, in komplexen Daten ein Schema zu erkennen, aus der eine Bedeutung erschlossen werden kann. Zum Beispiel wird ein Bild im Computer durch mehrere Millionen einzelner Zahlenwerte dargestellt, die die Farbwerte der Bildpixel repräsentieren. Wie kann man daraus die Bedeutung des Bildes ableiten? Um sich langsam dem Thema zu näher, kann man als Erstes den Artikel “Niemand hat die Absicht eine …” von Peter Stahl über statistische Datenanalyse lesen. Sein Team-Kollege Steffen Wittkamp zeigt dann im gleichen Blog wie man als Programmierer erste Erfahrungen mit Bilderkennung sammeln kann: “Machine Learning – ein Appetizer!” . Als Methode wird hier eine sogenannte Support Vector Machine (WP) einer frei verfügbaren Programmsammlung als Black-Box verwendet.

Auch der Zeit-Autor Andreas Loos fragte sich, ob man in einer Woche eine künstliche Intelligenz erschaffen kann. Sein Artikel “Mein Bot und ich” ist in der Zeit-Online-Serie Maschinenraum erschienen, die sich seit September 2016 dem Thema KI widmet.

Doch KI ist nicht nur etwas für Jungs. Fast hätte ich zu diesem Schluss kommen müssen. Doch dann habe ich Olivia Klose von Microsoft Germany entdeckt. Sie bezeichnet sich selbst als Technologie-Evangelistin. Sie will also (oder sie hat den Auftrag dazu) die neuen (auch von Microsoft entwickelten) KI-Technologien gewissermaßen unter das Volk bringen und dafür werben. In ihrem Blog erklärt Olivia Grundlagen des maschinellen Lernens zum Teil in deutsch und auch als Videos. Die Leserin, die sich bereits als Fachfrau in unserem Thema sieht, sei noch auf diese Konferenz im Juli 2017 hingewiesen: “Women in Data Science and Mathematics Research Collaboration Workshop”.

Kommen wir jetzt nochmal auf die Support Vektor Maschine zurück, die Steffen eingesetzt hat. Hier wird ein digitales Bild als ein einziger Punkt in einem hoch dimensionalen Raum aufgefasst. Die Idee dieser Methode ist es, dass alle Punkte mit einer speziellen Bedeutung (Bild mit Lastwagen) in einem speziellen Bereich des Raumes liegen und diejenigen Punkte mit der gegensätzlichen Bedeutung (Bild ohne Lastwagen) in einem anderem Bereich. Man sucht dann nach einer mathematischen Formel, die einen Punkt des Raumes in eine einzige Zahl verwandelt. Ist die berechne Zahl für die Datenwerte eines Bildes dann größer als Null, schließt man auf ein gewisse Bedeutung des Bildes. Ist die Zahl kleiner als Null, liegt die gegenteilige Bedeutung vor. Die Punkte des Raumes, wo die berechnete Zahl genau Null ist, bilden dann eine Fläche, die die beiden Bedeutungen von einander trennt.

Das Problem besteht darin, diese magische Formel zu finden, die als Entscheidungsinstanz geeignet ist. Die Herangehensweise ist immer so, dass man eine Kollektion von Beispieldatensätzen haben muss, bei denen das gewünschte Ergebnis bereits vorliegt. Mit diesen Datensätzen “trainiert” man die Support Vector Machine. Bei diesem Vorgang werden Parameter der Maschine, die in die gesuchte Formel als Konstanten eingehen, in einer systematischen Weise immer wieder verändert, bis die Maschine (also die Formel) für die gegebenen Beispiele das gewünschte Ergebnis liefert. Daher spricht man von einer “lernenden Maschine”. Der Erfolg dieses Lernprozesses ist aber nicht garantiert. Daher sollte man eine zweite Kollektion von Beispieldatensätzen haben. Auf diese wendet man die trainierte Maschine an und schaut, wie oft die Maschine mit ihrer Bewertung richtig liegt. Ist das Ergebnis nicht zufriedenstellend, so muss man noch nicht gleich verzagen, denn es gibt die SVM in verschiedenen Varianten und sie haben auch noch zwei Stellschrauben (in der Literatur meist c und N genannt). Man muss also ein bisschen herumprobieren, bis man etwas trainieren konnte, was dann auch funktioniert. Man darf darüber dann aber keine falsche Vorstellung haben. Wenn es funktioniert, funktioniert es, weil man es gesehen hat, dass es funktioniert und nicht weil man Erkenntnisse über Zusammenhänge gewonnen hat.

Hier ist eine Einführung “Basics of support vector machines” in der es eine kleine Inline-Applikation gibt, mit der man etwas herumspielen kann. Die Einstellung “linear” ist die Grundvariante einer SVM, bei der man versucht, die Entscheidungsfunktions als eine lineare Funktion zu realisieren. Die Trennfläche (s.o.) ist dann ein Hyperenbene (WP) . Die anderen Varianten entstehen dadurch, dass man den Grundraum in einen höher dimensionalen Raum hineinbiegt und dort wieder das lineare Grundverfahren anwendet. In diesem Video wird das veranschaulicht, in dem ein 2-dimensionaler Raum in einem 3-dimensionalen hineingebogen wird. Dort lassen sich dann die roten Punkte von den blauen Punkten durch eine Ebene von einander abtrennen. Bringt man diese Trennung zurück in den Originalraum hat man eine elliptische Trennkurve.

In einen 3. Teil dieser Artikelreihe werden wir erläutern, was “künstliche neuronale Netze” sind.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Leseempfehlungen zur Künstlichen Intelligenz, Teil 1

Wie ich es versprochen habe, publiziere ich hier eine kleine Nachleseliste zu meinem Vortrag über Künstliche Intelligenz (WP) bei der Vortragreihe der Initiative Lebenslanges Lernen an der Universität Duisburg – Essen . Ich setze immer den Zusatz WP in Klammern hinter einen Link, wenn es sich um einen Link zu Wikipedia handelt. Dann kann man den Link auch ignorieren, denn Begriffe bei Wikipedia nachzuschlagen ist ja heute Standard. Vielleicht ist es aber trotzdem hilfreich hier einfach nur einen Mausklick (WP) machen zu müssen.

Wer kann uns zum Thema Künstliche Intelligenz etwas sagen? Rufen wir als ersten Ramon Llull (WP) auf, den mallorquinischen Philosophen und Logiker aus dem Mittelalter, der natürlich Mönch war. Er gilt als einer der ersten, der über eine logischen Maschine (WP) nachdachte. Sehr ausführlich hat sich Martin Gardner (WP) in Logic Machines and Diagrams (1958) mit den Ideen von Llull auseinandergesetzt.

Als nächstes ist der Universalwissenschaftler Gottfried Wilhelm Leibniz (WP) zu nennen, der Rechenmaschinen mit einem Walzenmechanismus erfand, aber auch (zumindest theoretisch) das Rechnen mit Null und Eins (WP). Da Leibniz sich auch mit Psychologie befasste, liegt es nahe ihn auch zum Thema Künstliche Intelligenz zu befragen. Ich empfehle den Zeit-Artikel Er wollte die Welt mit Intelligenz in den Griff bekommen von Gero von Randow (WP) zum 300-sten Todestags von Leibniz zu lesen.

Richtig los ging es mit der KI durch die Dartmouth Conference (WP) von 1956, die den Titel “Dartmouth Summer Research Project on Artificial Intelligence” hatte. Die Initiatoren waren John McCarthy (WP) vom Dartmouth College, Marvin Minsky (WP) von der Harvard University, Nathaniel Rochester (WP) von IBM und Claude Shannon (WP) von den Bell Telephone Laboratories. Ich verlinke hier auf den 1955 gestellten Förderantrag .

1957 entwickelten Herbert Alexander Simon (WP) (1978 erhielt er den Wirtschaftsnobelpreis) und Allen Newell (WP) (damals bei der RAND_Corporation (WP) )ein Programm, das sie General Problem Solver (WP) nannten.

ELIZA (WP) ist ein Programm das Joseph Weizenbaum (WP) 1966 entwickelte und in der Lage ist, über Tastatureingaben mit einem Benutzer einen Dialog in natürlicher Sprache zu führen. Dabei nimmt ELIZA die Rolle eines Psychotherapeuten ein. Hier ist Weizenbaums Artikel ELIZA – A Computer Program For the Study of Natural Language Communication Between Man And Machine . Weizenbaum hat sich auch immer wieder kritisch geäußert und hat vor einer übertriebenen Technikgläubigkeit gewarnt. 2007, ein Jahr vor seinem Tod hat der 84-jährige Weizenbaum bei einem “Tag der Informatik” an der Universität Erlangen Nürnberg gesprochen. Nichts für Hastige aber lohnenswert ist es, sich die Aufzeichnung des Gespräches (in deutscher Sprache) anzusehen.

Zurück zu ELIZA. Hier noch ein aktueller Artikel zum 50-sten Geburtstag: Das sagten Sie bereits . Der Autor Ulrich Woelk ist Physiker und Schriftsteller. Wer einmal mit ELIZA sprechen will, kann es auf www.med-ai.com tun (deutsche Version). ELIZA muss man in Zusammenhang mit dem sogenannten Turing-Test (WP) sehen, der 1950 von Alan Turing (WP) formuliert wurde und ein Vorschlag ist, zu bewerten, ob eine Maschine eine Intelligenz besitzt, die mit der Intelligenz des Menschen vergleichbar ist. In dem Artikel Ein Trickser namens Eugene Goostman von Eike Kühl wird über ein entsprechendes Experiment von 2014 geschrieben.

Zu Alan Turing sollte man noch ein paar Worte sagen. Chronologisch hätte man noch vor der Dartmoith Conference auf Turing eingehen müssen, denn er starb 1954 und gilt als Wegbereiter der KI-Forschung. Ihm gelang es 1936 mit Hilfe einer theoretischen Maschine (die man heute Turingmaschine (WP) nennt) den Begriff der Berechenbarkeit (WP) mathematisch zu definieren. Das damit verbundene Entscheidungsproblem (WP) steht in engem Zusammenhang mit den Gödelschen Unvollständigkeitssätzen (WP) , die besagen, dass eine nach strikten Regeln aufgebaute Mathematik immer unvollständig bleiben muss. Als weiteres muss Turings Beitrag zur Kryptographie (WP) erwähnt werden, denn er war in Bletchley Park wesentlich an der Entschlüsselung deutscher Funksprüche beteiligt. 1943 kam dort auch einer der ersten Röhren-Computer zum Einsatz.

Im Online-Archiv der Wochenzeitschrift “Die Zeit” habe ich nach dem ersten Artikel zum Thema Künstliche Intelligenz gesucht. Ich habe Das Märchen vom klugen Roboter aus dem Jahr 1966 von Thomas von Randow (WP) gefunden. von Randow ist den Zeit-Lesern auch als Autor von Logeleien unter dem Pseudonym Zweistein bekannt und manche erinnern sich vielleicht noch an die WDR-Sendung Kopf um Kopf (WP) , bei der er beteiligt war.

Einen Computer zu bauen, der dem Menschen beim Schachspiel überlegen ist, galt als Herausforderung in der KI-Forschung. 1966 kritisiert Thomas von Randow in dem erwähnten Artikel, wie schlecht die Schachprogramme noch seien. Erst 1996 gelinkt es dem System Deep Blue (WP) von IBM den damaligen Schachweltmeister Kaspasrow in einem einzelnen Spiel zu schlagen, doch Kasparow gewann das Match. In einem zweiten Match 1997 gewann aber die Maschine. Zum Nachlesen empfehle ich den Artikel Schachweltmeister Garri Kasparow tritt zum zweiten Mal gegen den IBM-Schachcomputer Deep Blue an der vor dem zweiten Match erschienen ist. Interessant ist der Artikel, weil die Aspekte “extreme Hardwareleistung” und “intelligente Programmierung” gegenübergestellt werden. Der Autor Klaus Manhart ist Lesern von Computer-Magazinen als Erklären aktueller Entwicklungen bekannt.

Wir machen nun eine Cut und verweisen den geneigten Leser auf einen Teil 2 an gleicher Stelle, der etwa in 14 Tagen kommen wird.

Auch möchte ist nochmal auf unseren ZIM-Talk hinweisen. Der nächste Vortrag “Künstliche Intelligenz – mehr als ein Oxymoron ?” wird Dienstag 20.12.2016 sein.

Jetzt noch zwei Bonus-Links für Auge und Ohr. Welche Farbe hat wohl Künstliche Intelligenz? Google weiß es: weitgehend ist es die Farbe Blau . Und wie hört sich Künstliche Intelligenz an? Nein, fragen wir anders. Wie hat die deutsche Schlagerwelt der 60-ziger Jahre unser Thema verarbeitet? Nachbarland Frankreich war behilflich. Die Französin France Gall singt: … und nur darum ist das so … .

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar