Tilmann Piffl - Data Analytics

Tilmann Piffl ist promovierter Astrophysiker, arbeitete an der Universität Oxford und ist Teil unseres Data Science Teams. Im Gespräch schildert er seine Vision, seine Eindrücke vom Team und warum beim Autonomen Fahren noch längst nicht alles im Lot ist.

Von der Astrophysik in die Automobilindustrie – wie geht das denn?

Promoviert habe ich im Bereich Galactic Dynamics  und Survey Mining (Galactic Archaeology). Hier ging es insbesondere darum, die Welt der theoretischen Physik und der Simulationen mit der Welt der astronomischen Beobachtungen zusammen zu bringen – und dann statistische Auswertungen zu machen. Schon damals habe ich Python und insbesondere das Jupyter Notebook (damals noch IPython Notebook) als Data Science Tool für mich entdeckt. Diese spielen auch jetzt noch für mich und die Data Science Welt insgesamt eine zentrale Rolle. Nach der Promotion verbrachte ich dann ein Jahr an der Uni Oxford als Postdoc; als ich dann gemerkt habe, dass mich die Analysemethoden mehr interessiert haben als die Ergebnisse, bin ich in die Wirtschaft umgestiegen.

 

Wohin ging die Reise?

Zunächst habe ich in für unterschiedliche OEMs daran gearbeitet, Data Science- und Big Data Ansätze einzuführen und zu etablieren. Dort gab es zwar haufenweise Daten, aber da war noch viel Grundlagenarbeit zu verrichten, um sie erschließen. Ein Riesenthema waren die Automotive-spezifischen Binärdatenformate wie MDF4 oder ADTF. Ich habe dann sehr viel Zeit damit verbracht, diese mit dem Hadoop Ecosystem wie HDFS oder Spark zu verheiraten. Seither fühle ich im Automotive-Umfeld zuhause.

 

Warum hast du dich nun für Valtech Mobility entschieden?

Das Team hat mich begeistert. Die Data Science Welt ist doch recht klein und man kennt sich. Und das Team, das sich hier zusammengefunden hat, ist wirklich exzellent. Wir sind interdisziplinär aufgestellt vom Embedded-Programmierer, über Computer Science- und Machine Learning-Spezialisten bis eben zu „klassischen“ Data Scientists wie mir, die eher alles durch die Datenbrille sehen. Generell könnte man sagen, unsere Kerngebiete sind Data Science, Machine Learning, Data Engineering und Data Operations aka DevOps – und wir entwickeln Daten Produkte oder End-to-end Daten Pipelines.

 

Wie sieht die gemeinsame Vision aus?

Wir arbeiten zwar gerade an einem Projekt für ein großes deutsches Luft- und Raumfahrtunternehmen, aber unser Fokus liegt auf dem Autonomen Fahren. Wir wollen da nicht mitschwimmen, sondern Meilensteine schaffen. Konkret schrauben wir gerade an unserem eigenen Prototypen – mit Kameras, LiDAR, Jetson TX2 für GPU-Unterstützung. Unser erster Meilenstein wird aber eine koordinierte Hadoop-kompatible Datennahme sein. Hier arbeiten wir daran, ROS (Robot Operating System) und Hadoop zusammen zu bringen (mehr dazu in unseren GitHub-Repos).

 

Du meintest, du seist eher ein „klassischer“ Data Scientist. Was bedeutet das?

Mich persönlich befriedigt es sehr, mir einen Datensatz zu erschließen, d.h. die internen Korrelationen und Zusammenhänge heraus zu arbeiten, aber auch die (immer vorhandenen) Inkonsistenzen zu finden und zu beheben. Oft ist natürlich eine ML-Applikation das Ziel des Projekts, aber Data Cleansing und Feature Engineering ist auch in Zeiten von Deep Learning unersetzlich.

 

Mit welchen Werkzeugen arbeitet man?

Für das Prototyping und im DevOps-Modus ist die Mischung aus Jupyter, Python und Apache Spark für mich das Non-plus-Ultra, weil man damit die Data Preparation, Analyse, Visualisierung und Dokumentation vereint. Und seit Spark die Dataframe-API eingeführt hat, muss man mit Pyspark auch Performance-seitig kaum noch Abstriche machen. Mit Keras hat man auch eine super API für Tensorflow. Aber natürlich orientiert man sich immer auch an der IT-Infrastruktur des Kunden und wie der Produktivbetrieb geplant ist – da muss man flexibel sein, sonst werden die Migrationsaufwände irgendwann zu groß.

 

Die technologischen Voraussetzungen für das Autonome Fahren wären eigentlich vorhanden, meint man. Warum ist das Thema noch nicht in der Praxis bzw. auf der Straße angekommen?

Oft werden hier die legalen bzw. moralischen Themen angeführt. Das klassische Beispiel hierfür ist die Frage, wen das Auto im Zweifelsfall überfahren soll – die alte Dame oder das Schulkind? Dahinter liegt die Vorstellung, dass man das Fahrzeug über ein Regelwerk steuern würde: wenn A dann B. Das ist aber unmöglich. Die moderne Herangehensweise mit neuronalen Netzen funktioniert völlig anders und erlaubt derartige Feinjustierungen überhaupt nicht. Das Thema Haftung wird die Politik klären müssen und können. Da ziehen ja so gut wie alle an einem Strang. Aber auch technologisch ist noch längst nicht alles im Lot. Ich denke, hier greift das klassische Pareto-Prinzip – die letzten 20% des Ergebnisses brauchen 80% des Aufwands. Im fließenden Verkehr mitfahren ist kein Problem, aber all die Ausnahmesituationen zu meistern oder wenigsten frühzeitig zu erkennen (und dann an den Menschen zu übergeben) – das ist das Hauptproblem, denke ich. Aber: Wir arbeiten daran.

Freie Stellen / e-Mobility

Weitere Themen