Praxiseinstieg Deep Learning

Heute ist der Erscheinungstermin meines ersten Buchs für den O’Reilly Verlag. Damit endet eine Reise die bereits Anfang letzten Jahres angefangen hat als Idee, ein Buch zu schreiben, welches eine praxisnahe Einführung in das Thema Deep Learning bietet. Das erste Konzept dafür sah vor, dass vor allen Dingen ich lerne, was Deep Learning eigentlich ist und warum das Thema, zusammen mit Maschine Learning und Data Science, in den Vereinigsten Staaten so ein Hype ist.

Natürlich hatte ich mich auch in der Vergangenheit, und da vornehmlich im Studium, dem Thema künstliche neuronale Netze gewidmet. Das Thema ist ja, ohne tiefer in die lineare Algebra einzusteigen, leider nicht so leicht verdaulich, wie es uns die Nachrichten über AlphaGo oder selbstfahrende Autos glauben lassen. Das Thema künstliche neuronale Netze, einem Teilbereich der Künstlichen Intelligenz, hat eine lange Historie und das macht es nicht einfach die verschiedenen Tipping Points zu erklären, welche das Thema in den letzten Jahren, teilweise unter Ausschluß einer breiten Öffentlichkeit, vorangetrieben hat. Die wichtigsten Einflußfaktoren habe ich versucht in meinem Buch darzustellen. Diese sind für mich:

  • Vorhandensein großer Datenmengen (Big Data) und deren Verarbeitungsmöglichkeiten (Hadoop, Spark etc.)
  • Fortschritte in den Neurowissenschaften
  • Verfügbarkeit der nötigen Rechenkraft in Form von Grafikkarten für eine hohe Parallelisierung der Berechungs inkl. Low-Level Frameworks wie CUDA, BLAST etc.

Dies alles in ein Buch zu packen und dann auch noch mit praktischen Beispielen zu garnieren war nicht immer einfach. Eine große Herausforderung war dabei vor allen Dingen der schnelle Fortschritt im Bereich Frameworks und die damit verbundene Schnittstelleninkompatibilität. Was gestern so funktioniert hatte, war heute schon nicht mehr lauffähig. So gab es allein bei Googles TensorFlow ganze vier Minorreleases und den Sprung auf Version 1.0. Als ich mit dem Text angefangen habe, gab es Caffe als reines Universitätsprojekt.  Nach Fertigstellung der entsprechende Kapitel verkündete Facebook die Verfügbarkeit von Caffe2. Der Autor des Caffe-Framworkf, Yangqing Jia war zu Facebook gewechselt. Aktuell wird nicht die aktuelle Version von TensorFlow unterstützt, da ich die Beispiele noch nicht getestet habe. Ich werde aber versuchen, nach und nach, die Beispiele zum Buch und auch das Dockerfile an die neusten Versionen anzupassen und bestehende Fehler zu beseitigen.

Das ich sowohl zeitlich als auch thematisch etwas in der Konzeption richtig gemacht habe, verraten mir die Zahlen der Vorbestellungen, die mittlerweile einer höheren, hundertstellige Anzahl  entsprechen, was mich stolz und ängstlich zugleich macht. Dies sollte aber alle Interessierten nicht davon abhalten sich das Buch entweder direkt auf der Seite von O’Reilly Deutschland, bei Amazon, Thalia, Hugendubel oder einem Buchhändler seines Vertrauen zu kaufen und/oder auf die eBook-Version zu warten, welche vorrausichtlich noch dieses Jahr erscheint.

Zum Schluß noch eine Anmerkung zum Thema O’Reilly: Bereits seit 1990, als ich zum ersten Mal einen Unix Rechner nutzen durfte, kenne ich diese Verlag. Die verschiedenfarbigen Referenzen zum X11 Windows System sind mir in sehr guter Erinnerung geblieben. Danach kamen die berühmten Tiere auf die Titel und der Wunsch reifte, dass ich für diesen Verlag auch einmal schreiben wollte. Heute, rund 28 Jahre später, bin ich nun auch endlich Teil dieses Verlags, bzw. seinem deutschen Lizenznehmer, dem dPunkt Verlag aus Heidelberg.

Ich hoffe, dass ich mit meinem kleinen Beitrag zum Thema Deep Learning, den einen oder die andere dazu bewegen kann, sich mit diesem Thema zu beschäftigen. Ich glaube, dass wir in nächster Zeit noch viele Anwendungen sehen werden, die mit Hilfe von Deep Learning Verfahren implementiert wurden. Die Leser meines Buches wissen dann zumindest, was sich hinter diesem Begriff verbirgt und wie er sich technologisch einordnen lässt.

Schreibe einen Kommentar


(required)