Systemweites Einsammeln von Timeouts

Bei komplexen Systemen mit vielen Entwicklern wird es schwierig, wenn man effektiv nach Timeouts testen möchte. Ohne das Wissen wie lange manche Dinge gültig sind und später invalidiert werden, kann man nur im Nebel stochern. Auch wenn jeder für sich das irgendwo dokumentieren sollte, dann fehlt doch leider eine Gesamtübersicht.

Also bräuchte man einen globalen Zeitstrahl, der alle Timeouts auf einen Blick darstellt und dann kann man auch mal einen Langzeittest fahren, der

  • effektiv ist, weil er genau ein wenig länger ist als der letzte abgelaufene Timeout
  • komplett ist, weil er nicht einen noch längeren Timeout unwissentlich unterschlägt
  • nachvollziehbar ist, weil die Entscheidungsgrundlage für genau dieses Intervall dokumentiert ist

Labor online

Dank Powerline liegen nun etwa 180mbit im Kellern an. Genug um auch mal online was zu suchen und ein VoIP phone aufzustellen.

Automatisierte Softwareverteilung

Eigentlich ja eine tolle Sache. Firmenweit wird die Software verteilt und auf einem aktuellen Stand gehalten.
Wenn allerdings auch Löschwellen durch das Netz gejagt werden, ist Vorsicht angesagt. Oder man ignoriert einfach die unterschiedlichen Bedürfnisse zwischen Verwaltungs-PCs und Entwickler-PCs und löscht mal eben alle Browser und Java JDKs.
Danke dafür.

Git rebase mit Handbremse

Wenn man sich wundert, warum eine einzige geänderte Datei beim rebase über Minuten den PC lahm legt (Windows natürlich). Wenn parallel Eclipse offen ist und bei jeder kleinen Änderung sofort neu compilieren will, dann bremst das natürlich ein wenig.
Dazu noch eine virtualisierte Umgebung und man kann erst mal Kaffee holen.

Welt-erster Pull request

Das macht Freude: Bei einem meiner Projekte hat sich jemand zu einer Verbesserung hinreissen lassen und ganz offiziell einen Pull Request in mein gitea geschoben. Da sage ich doch mal ganz dick DANKE und habe den Fix auch gleich mal ein meine Installation übernommen.

So sollte eigentlich das Internet sein: Kein hass und keine Gewalt, sondern ein Miteinander um OpenSource und die Gesellschaft an sich nach vorne zu bringen.

LoRaWAN Gateway – up and running

Das ging schnell! Am Feiertags-Donnerstag bestellt und Samstag früh schon zugestellt bekommen. Nun funkt hier noch recht unbelastet ein Lorix One als kleiner Gateway für mich und die Nachbarschaft.

Was beim Aufbau übrigens als einziges Probleme machen kann, das hatte ich natürlich sofort getroffen: Den Power-Injector für das Ethernet kann man mechanisch in zwei verschiedene Richtungen aufbauen wollen. Klappt natürlich nur ein einer Variante. Ansonsten bleibt das gute Stück einfach stromlos und dunkel. TL:DR: Das graue Y-Kabel gehört in den Switch und nicht direkt an den Gateway.

TensorFlow – Das neue Spielzeug

Der erste Eindruck ist ja recht positiv. Diese google Hardware mit künstlichem Hirn huckepack lässt sich recht einfach in Betrieb nehmen und das Beispiel mit der Video Bilderkennung flutscht nur so von der Geschwindigkeit her. Knapp 20 Fahrzeuge erkennen und das bei 80fps ist schon schnell für so eine kleine Hardware.

Nun bräuchte man endlich mal wieder Zeit eigene Lernmodelle darauf basierend aufzusetzen. Ideen hätte ich jedenfalls schon genug.

Testlink update

Mal eben schnell ein Update zu machen, das habe ich mir bei Testlink schon abgewöhnt. Nur wenn es sein muß, dann ist es halt soweit, wenn z.B. php 7.2 einfach nicht stabil mit der alten 1.9.16er Version zusammenspielen will.

Screenshot von Testlink
Startschirm von 1.9.19

Also ein manuelles Upgrade auf 1.9.19, ist ja nicht so weit hin. Leider mal wieder ein SQL Fehler in den einzelnen Zwischenpatches, dieser eine Wert dort existiert schon und alle anderen Zeilen danach werden natürlich ignoriert, also nochmal Handarbeit angesagt.

Nun läuft es endlich mal wieder unter aktuellem Ubuntu 18.04LTS und das kann nun für 2019 erst mal so bleiben.

Bleibt zuletzt die Frage: Warum mache ich das eigentlich am ersten Urlaubstag? Heimweh nach dem Job? Krass!

Frühjahrsputz unter Servern

Jeden Monat das gleiche: Man bekommt die Rechnung vom Hoster und denkt, da kann man doch auch mal was sparen. Also wollen zwei Server zu einem zusammengelegt werden.

Aber der Aufwand dabei ist nicht zu unterschätzen. Da wollen unterschiedliche PHP und NodeJS Versionen und Umgebungen erst noch zueinander finden. Allerdings ist das dank Docker schon ein wenig leichter geworden.

Jedenfalls rückt das Ziel näher. Und einige nicht mehr benötigte Domains und Dienste werden ersatzlos gelöscht. Das Publikum steht ja weiterhin mehr auf Facebook und Instagram, statt auf eigene Inhalte auf autarken Systemen.