Aktuelle Projekte

Die meisten meiner Leser haben inzwischen wahrscheinlich mitbekommen, dass ich seit Februar 2019 hauptsächlich als Angestellter arbeite. In meinem jetzigen Job geht es zwar auch um IT - aber schwerpunktmäßig um Consulting, Projektmanagement, Risikomanagement, IT-Sec und zugehörige Prozesse. Die meisten der dortigen Kunden sind zudem zu 99% mit Microsoft-Systemen ausgestattet. Tja, das Leben ist manchmal hart und grausam ....

Ich betreibe diesen Blog gerne hobbymäßig weiter, aber für konkrete Linux-Projekte und -Untersuchungen, PHP-Projekte und SW-Entwicklung für Kundensysteme bleibt mir - zu meinem Leidwesen - praktisch keine Zeit mehr. Meine eigenen Linux-Server- und Workstation-Systeme, ob physikalisch oder virtuell implementiert, laufen zudem außerordentlich stabil. Ich mache aber auch deutlich weniger Experimente als früher und verfolge nicht mehr jedes Problemchen im Detail.

Sponsoren, die das eine oder andere Linux-Thema etwas genauer ausgeleuchtet haben wollen, dürfen sich aber gerne bei mir melden .... Ohne Geld geht jedoch im Moment nichts.

Es gibt z.Z. nur ein technisches Thema, das ich auf privater Basis aktiv weiter verfolge:

Neuronale Netze und Supply Chain Netzwerke

Supply Chain Netze (SCNs) weisen nach einer topologischen Transformation in einem abstrakten Konfigurationsraum deutliche Gemeinsamkeiten mit speziellen Typen von künstlichen neuronalen Netzwerken (ANNs, MLPs) auf. Es gibt aber natürlich auch fundamentale Unterschiede. Insgesamt spricht dennoch Einiges dafür, Propagationsverfahren und Optimierungsverfahren aus dem ANN-Bereich zur Lösung von Problemen im SCN-Umfeld einzusetzen.

Ich arbeite an dieser Thematik weiterhin mit einem ehemaligen französischen Kunden zusammen. Wir nennen unsere transformierten SCN-Netze "SCANNs". Z.Z. haben wir die grundlegenden mathematischen Themen im Zshg. mit der Anwendung des Gradient Descent Verfahrens auf SCANNs im Fokus. Es geht im Gegensatz zu ANNs um ganz andere zu optimierende Parameter als "nur" Propagationsgewichte: Die Kostenfunktionen sind schlicht von anderer Qualität als in MLPs oder ANNs; sie erfassen eine Vielzahl von sekundären Parametern an den Netzwerkknoten ganz unterschiedlicher Layer, die aber durch den Informationsfluss durch die Knoten beeinflusst werden. Man muss die Fehlerpropagation und die korrigierenden Beiträge zu gewichten und anderen Parametern daher in besonderer Weise entlang der definierten Verbindungen berechnen. Eine einfache Darstellung des Backpropagationsverfahrens wie im Fall von MLPs ist in SCANNs nicht gegeben.

Hinzu kommen Parameter für eine Optimierung von Eingangsfunktionen (math. Faltungen) direkt an der Input-Schicht. Die "Zeit" als essentieller Faktor ist aus unserer Sicht anders zu behandeln als dies etwa über spezielle Knoten oder RNN-Verfahren sonst üblicherweise geschieht.

Im Zuge der Arbeiten studiere ich gerade auch eine bestimmte Typologie von Netzen, die im Zuge des CNN-Hypes fast völlig ausgeblendet wurde - nämlich "Staggered Grids". Solche Grids (wenn auch nicht "dense" sondern "sparse") sind für eine angemessene Behandlung von SCN-Problemen von fundamentaler Bedeutung. Sie treten im CNN-Geschäft punktuell über "Skip-Connections" und "Residual Units" auf; wir versuchen entsprechende Erkenntnisse auf SCANNs zu übertragen. Die Tatsache, dass in SCANNs layer-übergreifende Verbindungen auftreten, ist auch ein Grund dafür, warum wir die Informationspropagation in SCANNs anders steuern als in ANNs.

Diesen Blog betrifft dies insofern, als ich einige Seitenergebnisse beim Studium von MLPs, ANNs - leider nur mit extremem Zeitversatz - nach Lust und Laune in diesen Blog einblenden werde. Das Ganze hat auch den schönen Seiteneffekt, dass ich mich zunehmend mit Python, Numpy, etc. beschäftigen muss. Auch da fallen sicher ein paar Erkenntnisse für diesen Blog ab.