Ich bin seit 30 Jahren im Bereich Data Science an der Schnittstelle von Theorie und Praxis tätig. Dabei verbinde ich die Erfahrung des Mathematikers und Programmierers mit jener des Projektleiters
und Unternehmers. Für mich sind Business und Technologie kein Widerspruch, sondern bilden eine Einheit.
Ich habe in Chemnitz und St. Petersburg Mathematik studiert und danach an der TU Chemnitz promoviert. Mitgründer und fast zwei Jahrzehnte Co-Vorstand der prudsys AG (heute GK AIR / Fujitsu), die auf
Personalisierung und dynamische Preisoptimierung im Handel spezialisiert ist. Danach Initiator und sechs Jahre Geschäftsführer der auf IoT im
Energiebereich spezialisierten Signal Cruncher GmbH. Seit 2023 freiberuflich tätig.
Zur Popularisierung von KI und deren Anwendungen halte ich Vorträge; ich schreibe Artikel und Bücher und halte US-Patente.
Ich bin sowohl in der Konzeption als auch im Projektmanagement erfahren. Das gilt insbesondere für das internationale Geschäft, wo ich etliche Projekte in den USA und in UK leitete. Die
gemeinschaftliche Entwicklung neuer Geschäftsmodelle und das Schreiben von Business Plänen gehört ebenfalls zu meinen Stärken.
Außerdem entwickle und implementiere ich komplexe KI-Algorithmen. Das Level der Abstraktion und genutzten Tools kann dabei unterschiedlich sein. Als erfahrener Entwickler bin ich mit zahlreiche
Programmiersprachen und -werkzeugen vertraut sowie den meisten wichtigen KI-Tools.
Mein mathematischer Backgrund sind numerische Analysis und Approximationstheorie sowie Regelungssysteme. Trotz dieser Spezialisierung habe ich im Lauf vieler Jahre fast alle Bereiche der KI kennengelernt. Das gilt besonders für Deep Learning, wo ich mich neben Reinforcement Learning besonders mit Large Language Models (LLMs) auskenne.
Meine Branchen sind Handel, Energie und Industrie.
Aktuelle Projekte beinhalten:
Gern stelle ich auf Nachfrage Referenzlisten bereit bzw. stelle den Kontakt zu Referenzkunden her.
Mit Partnern entwickle ich ein neues Approximationsframework basierend auf Hierarchischen Tensornetzwerken (HTN), insbesondere Tensor Trains. Damit lassen sich hochdimensionale Daten extrem
effizient modellieren. Dazu existiert auch ein ausgereiftes mathematisches Framework. HTNs werden derzeit besonders im Quantencomputing benutzt.
Unsere Anwendung von HTNs umfasst zum einen Reinforcement Learning, welches damit stabiler und ressourcenschonender arbeitet. Die zweite Anwendung besteht in der komprimierten Darstellung neuronaler
Netze. Gerade Large Language Models (LLM) sind derzeit oft riesig, obwohl sie mit einem Bruchteil der Parameter äquivalent modelliert werden könnten. DeepSeek zeigt bereits das Potenzial der
Verschlankung von LLMs. Mit HTNs ist eine noch weit stärkere Kompression möglich; allerdings müssen dazu neue Lernverfahren entwickelt werden.