Hans Bonfigt
Mittwoch, der 6. Juni 2018

Digital, bekloppt, banal

Wenn das Herz stockt, Folge # 1337 :

Hallo, ich bin John

Ich bin WiFi-Architect in einer Behörde, mit Fokus auf Schulen und kommunale Einrichtungen in Nordrhein-Westfahlen, Deutschland. Zuvor habe ich als Integrator für Software-Lösungen von Spielberg und als Netzwerk-Architekt für Kunden im Mittelstand gearbeitet. Anfangs war ich Active-Directory und Firewall-Administrator in einer der größten, europäischen Bankunternehmen.

[…]

Für mich ist WiFi für unsere Schulen eine Möglichkeit, unsere Zukunft ein wenig besser zu gestalten. Ich möchte Kindern und Lehrern die Möglichkeit geben, diesen wunderbaren Planeten zu entdecken. Es steckt also auch ein bisschen Idealismus in meiner Arbeit. Ich bin dem lieben Gott dankbar, dass ich diesen Job machen darf.

 

 

Ich bin in Düsseldorf auf die Welt gekommen, habe die erste Hälfte meines Lebens in Meerbusch Osterath verbracht und die zweite Hälfte in Krefeld Königshof.

Na gut, er kommt aus Düsseldorf.  Das gibt mildernde Umstände.

Unser John möchte unseren Schülern und Lehrern ein Mittel an die Hand geben, das diese erstmals in die Lage versetzt, die Welt zu entdecken.  Mir bleibt bei einer solcherart unbeabsichtigt zu Schau gestellten Borniertheit glatt die Spucke weg.

(p * V) / (T * m) = R

Das wäre ein Ansatz, die Welt zu entdecken.

Und die Aufgabe einer Schule wäre es, Menschen zu zeigen, was hinter dieser Gleichung steht und was man damit alles anstellen kann.  Man kann die Gleichung auffassen als Definition der spezifischen Wärmekapazität in J/(Kg*K) (Druck * Volumen ergibt ja Energie).  Sie ist aber auch die Verknüpfung entscheidender Teile der Lebenswerke von Boyle-Mariotte, Gay-Lussac und Ludwig Boltzmann.

Alle drei haben die Grundidee des Arztes Robert Mayer zum ersten Hauptsatz der Thermodynamik weiterentwickelt:  „Energie geht nicht verloren“.  Der hört sich trivial an, aber er hat unser Verständnis unserer Welt erst ermöglicht.  Und über den zweiten Hauptsatz und dessen universelle Relevanz streiten sich bis heute die Gelehrten:  „In einem geschlossenen adiabaten System kann die Entropie nicht geringer werden“.

Die Schule ist nicht dazu da, den Menschen die Welt möglichst einfach und mundgerecht vorzukauen und zu „präsentieren“, sondern dazu, ihnen das Rüstzeug an die Hand zu geben, die Welt auf eigene Faust zu entdecken.

Und dazu braucht man ganz bestimmt kein „WLAN“ oder einen „Computer“.  Ganz im Gegenteil, die Initative „Schulen ans Netz“ kann neben dem Islam als größter Bildungsfeind betrachtet werden.

Hierzu:  Gehirnforscher Prof. Manfred Spitzer

Natürlich gab es haufenweise Verrisse hierzu, allen voran der Sueddeutsche Beobachter und, subtiler, eine Replik von Dieter Kempf, dem Mann also, der die DATEV in eine digitale Sackgasse gefahren hat.

Es gibt nichts peinlicheres als den deutschen Bildungsbürger.  Ich kann mich erinnern, als ich etwa 1976 während des stinklangweiligen, nervtötenden Geographieunterrichts ein Assemblerprogramm schrieb; man tat das früher auf Formularen in A4 quer, und obendrauf stand fett „KIENZLE  Assembler 2200“ — es fiel also durchaus auf, daß ich mich nicht mit einer Landkarte beschäftigte.   „Sag‘ ‚mal Bonfigt“, so störte mich unvermittelt der zweitlangweiligste Pauker des Gymnasiums, „wie willst Du eigentlich später Dein Geld verdienen ?  Doch nicht mit dieser brotlosen Kunst ?“.   Naja, ich war nicht nett damals und entgegnete, „Naja, wie man es nimmt.  Mehr als ein Geographielehrer verdiene ich jetzt schon, aber ich wüßte nicht, wie ich mit den paar Kröten einen angenehmen Lebensunterhalt bestreiten sollte“.  Das war dumm und arrogant, aber genau so dumm war es, Menschen, die sich mit so etwas „exotischem“ wie Computer beschäftigten, als unnütze Spinner zu bezeichnen.  Auch die „Klassenkameraden“ hatten keine Ahnung, was man mit so einem Ding alles anstellen könnte — was daran lag, daß es gottseidank noch keine Hobbycomputer gab.  Dieser widerliche Commodore-Brotkasten befiel die Welt erst in den Achtzigern.

Hätte ich damals meinen Mitschülern empfohlen, sich einen Computer anzuschaffen — alle hätten mir einen Vogel gezeigt (taten die getauften Heiden sowieso, ich war der notorische Klassenspinner).  Wenn ich heute sage, „kein Kind braucht einen Computer für seine persönliche Entwicklung“, dann bin ich wieder der Idiot.  Früher war ich ein perverses Schwein, wenn ich sagte, man solle die Schwulen doch in Ruhe lassen, solange sie nicht andere belästigen, heute bin ich ein Rassist/Faschist, wenn ich sage, daß mich öffentlich zur Schau gestellte Homosexualität anekelt.

Zeitgeist ist Kleingeist !

Und je dümmer ein Mensch, desto mehr orientiert er sich an diesem.  Ob das 13jährige Girlie, der widerwärtige Sexualstraftäter oder der peinlichste Schwätzer der Republik  —  alle tragen ein „IPhone“ mit sich herum — wohl wissend, daß sie sich damit freiwillig ihrer informationellen Selbstbestimmung begeben.  Und keinem fällt das auf !

Aber wehe, wehe, jemand vertritt eine Meinung, die dem Mahlstrom der „Allianz der Anständigen“ zuwiderläuft !

Nun ist der oben zitierte „John Lose“ ein ganz netter, hilfsbereiter Kerl.  Und er gehört zu der verlesenen Handvoll von Menschen, die sich wirklich mit Microsoft-Produkten auskennen.

Schlimmer schon steht es mit Digitalproll „Sascha Lobo“, dessen albernen roten Haarschopf eine hochintelligente Informatikerin mit einem einzigen Satz erklärte:  „Stell‘ Dir vor, der hätte ganz normale Haare, dann träte seine Visage anstatt seiner Frisur in den Vordergrund“.  Und genau so albern wie die Frisur des dauerjünglierenden Digitaldebattanten ist dessen schwachsinniges Geseiere vom digitalen Entwicklungsland Deutschland.

Es hat sich viel getan im sogenannten „Breitbandausbau“ und ein „DSL 6000“ mit 6 MBit/s im Down- und 1,2 MBit/s im Upstream sollte für jeden Privatanwender dicke ausreichen.  Hier jetzt herumzuheulen von wegen „gebrochener Versprechungen“ ist Klagen auf allerhöchstem Niveau.  Wenn der Arsch einen Film anschauen will, dann soll er den Fernseher anschalten, dazu ist der nämlich da.  Besondere Ansprüche hat er nicht, es reicht „Eine schrecklich nette Familie“.   Den Dreck muß man nicht qua Unicast über das teure Netz prügeln, dafür gibt es direktabstrahlende Satelliten.

„Es kommt“, so sekundiert mir meine Schwester gern, „nicht darauf an, wie stark oder woher der Wind bläst, sondern wie man die Segel setzt.  Und wenn ich nicht weiß, wo ich hinwill, ist jeder Weg der richtige.  Erst die Standort- und Zieldefinition ermöglichen es mir, einen Kurs zu bestimmen.  Und dann erst beschäftige ich mich mit Wind und Strömung“.  Das weiß nicht nur jeder erfahrene Segler.  Der einzig merkbefreite ist der Möchtegern-Informatiker, der feststellt, daß der von ihm fabrizierte Multimediaschrott immer langsamer läuft und meint, er könnte sein Problem mit immer unmäßigerem Ressourcenverbrauch lösen.

Diese krampfhaften Versuche zeigen die Idiotie der sogenannten „Digitalisierung“.   Und hier habe ich, mehr zufällig, einen interessanten Artikel eines Jugoslaven gefunden und ihn unkommentiert eingestellt.  Das fand Roland unpassend, insbesondere dehalb, weil er argwöhnte, es handele sich um einen recht einfältigen Menschen mit gefährlichem Halbwissen.   Dazu muß man wissen:  Hier schreibt ein Jugoslave.  Die gibt es, soweit mir bekannt, in zwei Ausfertigungen:  Die dummen glauben an Allah, die gerissenen glauben an sich, ihr dickes Auto und ihre dicken Eier.   Der „Kollege“ Jerko ist klar der Gruppe 2 zugehörig und hält sich für einen „hochqualifizierten Spezialisten“, weil er DATEV-Programme auf Windows-PCs installieren kann und auch schon einmal eine „LAN-LAN-Kopplung“ gemacht hat, etwas, das ein Fachmann in der Regel meidet wie der Teufel das Weihwasser.  Er definiert sich nur über Marken, die er trägt oder fährt und läßt keine Gelegenheit aus, mit seinem Reichtum zu prahlen.  Machen Sie sich selbst ein Bild.

Aber diesem Mann fehlen auch die deutschen Scheuklappen und aufgrund seines schlichten Gemütes denkt er erfrischend geradeaus und kommt zu erschreckend richtigen Schlußfolgerungen, etwa zu vergleichen mit denen des kleinen Oskar Matzerath.

So stellt er ganz offen die „Digitalisierung“ als Allheilmittel infrage, indem er feststellt, daß eine „vollanaloge“ MP 5 von Heckler & Koch bis zu 300 Asylanträge pro Minute bearbeiten kann.   Ohne Zweit- und Drittinstanz beim Bundesverfassungs- oder -verwaltungsgericht.  Bevor hier wieder das Theater losgeht:  Man muß soetwas als Fingerzeig verstehen und nicht 1:1 umsetzen.  Aber zum Beispiel die Verbringung aller kriminellen Asylbetrüger auf die Kerguelen-Inseln wäre eine praktische Option.

Nun schreibt mir dieser Mann im bereits zitierten Artikel,

http://www.jerkos-welt.com/schluss-mit-dem-digitalisierungsgeschwaetz-hoert-endlich-auf-uns-zu-verarschen/,

wirklich aus der schwarzen Seele.  Das liegt zum einen daran, daß auch ich ein einfältiger Mensch bin.  Meine Frau und meine „Ex“ kennen sich gut und rätseln noch bis heute, „ist er ein ‚vielschichtiger‘ Mensch oder nicht ?“, aber je mehr ich ihr versichere, ich sei einfach und ehrlich gestrickt, desto mehr zweifeln sie.  Ich bezeichne meinen Intellekt als „schlicht“ und sehe in Schlichtheit seit jeher auch eine gewisse Schönheit.

Unter diesem Aspekt:  Lesen Sie den oben verlinkten Artikel, wenn Sie meinen,

  • daß man mit Geld nicht unsere Bildungsmisere lösen kann
  • daß vermeintliches „Expertenwissen“ oft nichts anderes ist als „Mausklick nach Anleitung“
  • daß nicht die mangelnde „Bandbreite“, sondern die Dummheit der Internetnutzer das Problem darstellen

Und lasen Sie es sich von einem wirklichen „Digital Native“ sagen:  Der Mann hat recht.

-hb

Hans Bonfigt
Samstag, der 26. Mai 2018

Moderne Zeiten

Bekenntnisse eines ewiggestrigen Rassisten

Ich weiß ja nicht, wie es Ihnen geht. Aber mir gehen schale Witzchen über den BER auf die Nerven.
Ein schwuler Bürgermeister, eine peinliche Truppe SED-Aktivisten und ein heruntergekommener Restbestand „Sozialdemokraten“ haben sich an einem Flughafenrojekt versucht.  Das MUSSTE schiefgehen.

Nun könnte man sagen, „Berlin ist halt nun einmal Berlin, hier haben kriminelle Veruntreuung von Steuergeldern und schwachsinnige Verordnugen, die stets das Gegenteil dessen bewirken, was beabsichtigt ist, eine jahrzehntealte Tradition“.

Doch aus der Sicht eines Experten für Datenverarbeitung muß ich leider immer wieder feststellen:

BER ist überall. Sogar im schönen Bayern.

Denn junge, unerfahrene Menschen basteln sich Umgebungen zusammen, die immer komplexer werden und selbst von guten Administratoren nicht mehr beherrscht werden können. Gleichzeitig wird der verspielte Klapperatismus immer schwerfälliger und undeterministischer in seiner Antwortszeit — gleichzeitig erhöht sich die Anfälligkeit gegen Angriffe erheblich.
Was ist da eigentlich passiert ?

1. Was der Bauer nicht kennt…

Von Larry Ellison stammt das schöne Bonmot, „Ich würde meinen Kindern eher Drogen geben als DOS“.
Wohl wahr. Aber auch an unseren höheren Schulen werden unsere Kinder ausschließlich mit der kranken, kaputten PC-Architektur konfrontiert – privat sowieso.
Die Folge: Später, im Beruf, setzen unsere „alternativlosen“ Jungspunde das einzige System ein, was sie kennen. Und das ist ein Kretin aus kaputter Hardware und vermurkster Software.
– Das führt zwangsweise zu einer „Monokultur“ mit allen damit verbundenen Nachteilen,
– insbesondere einer fatalen Störanfälligkeit.
– Sinnvolle Alternativen verschwinden vom Markt,
– fatale Abhängigleiten entstehen.
Spätestens seit „Spectre“ und „Meltdown“ muß eigentlich jedermann klar sein: INTEL-basierte Systeme sind außer für Daddelspiele zu nichts zu gebrauchen. Ihr Einsatz ist grob fahrlässig.
„Windows“ und „Office“ telephonieren etwa 20 Mal „nach Hause“, wenn man nur ein einziges „Word“-Dokument öffnet. Über die fatalen Lücken in „Microsoft Outlook“ zu berichten, wäre müßig.
Solche Systeme professionell zur Verarbeitung personenbezogener Daten zu nutzen, ist schlichtweg illegal – das weiß auch die Bundesregierung.  Doch wo kein Kläger, da kein Richter.
Im Transportwesen haben wir die unterschiedlichsten Systeme zur Wahl, aus gutem Grund: Denn ob Kreuzfahrtschiff, Motorrad, A380, Traktor, Schnellzug oder Tieflader: Sie haben alle ihre spezielle Eignung. Bloß in der „IT“ – da arbeitet alles mit den über die Jahre immer wieder marginal aufgerüsteten DOS-Kisten. Ja, selbst die modernsten „Server“, in Wirklichkeit aufgebohrte PCs, booten noch mit „DOS“ – Bordmitteln.
Das war füher anders: Man hatte die „Mainframes“ für hochverfügbare, hochsichere und hochzuverlässige Massendatenverarbeitung, typischerweise im Verbund mit einer Datenbank. Programmiert wurden diese in Sprachen, die einen Programmierer nicht überfordern und es vor allen Dingen ermöglichen, daß mehrere Programmierer konfliktfrei an einem Programm oder Projekt arbeiten können.
Die Bedienung und Dateneingabe erfolgt ergonomisch OHNE Maus, man benötigt unterdessen eine gewisse Einarbeitungszeit. Allerdings ist man nach dieser um Größenordnungen schneller als ein Mausschubser.

Es gab integrierte „Mini-Computer“ für kleinere bis mittelgroße Unternehmen.

Es gab leistungsfähige technische Rechner für Prozeßsimulation, Konstruktion, Bild- und Tonbearbeitung. Diese Systeme verfügten, weitaus früher als beispielsweise Apple oder Microsoft, über eine professionelle Graphik, die bis heute unerreicht ist: Denn das X-Window – System unter UNIX verteilt Programmhaltung, Programmausführung und graphische Benutzerschnittstellen auf unterschiedliche Systeme. So können hunderte Anwender einen Hochleistungsrechner gemeinsam und gleichzeitig nutzen!
Nur zum Vergleich: Unter „Windows“ gibt es so etwas nicht und deshalb will die Münchner Stadtverwaltung wieder einen Intensiv-Oatienten „nach gängigen Standards“ unter jeden Sachbearbeiterschreibtisch stellen.

Es gab spezielle Rechner zum Steuern von Maschinen und Anlagen, die neben erweiterten physikalischen Bedingungen nuch dem Umstand Rechnung trugen, daß spezielle Hardwarefunktionen benötigt wurden, beispielsweise hochauflösende Timer, Pulsweitenmodulatoren, D/A – Wandler etc..

Tja, und es gibt den „PC“ zur Bespaßung „moderner“ Konsumenten: Papi guckt sich Pornos an, der Sohnemann erfreut sich mit dem neuesten „EGO-Shooter“ und knallt Feinde ab, die Tochter postet kompromittierende Bilder ihrer aktuellen Todfeindin auf „Facebook“ und Mami kann jetzt endlich im „Wiki“ nachgucken, was ein „Narrativ“ ist, man will ja schließlich mitreden können.
Der PC bietet also für jeden etwas — und ist damit genau so effektiv und hilfreich wie ein „Schweizer Taschenmesser“: Kann alles, aber nix ansatzweise richtig.
Der PC aber hat uns dominiert. Das blanke Mittelmaß hat uns dominiert.

2. Nicht der Bösewicht ist der Schurke, sondern das Mittelmaß

Der Manager Hans-Jürgen Esser, für mich über Jahrzehnte ein väterlicher Ratgeber, fuhr einmal vor etwa 25 Jahren mit mir als Beifahrer zufällig hinter seinem Chef her.  Hier trafen zwei Fahrstile aufeinander, wie sie unterschiedlicher nicht sein konnten, und so entspann sich folgender Monolog:
„Ah, sehen Sie: Das ist unser Hansi. Also, un-glaublich! Sehen Sie bloß, wie er um die Kurve schlabbert … und hier: Er ordnet sich gar nicht ein, fährt einfach in der Mitte, und so entscheidungsschwach wie auf der Straße ist er auch in seinem Job: Bloß niemendem wehtun, immer schön die goldene Mitte … Hansi ist kein Unternehmer, er ist ein UNTERLASSER !
Der könnte nie mein Freund sein. Und das sage ich Ihnen, mit schlechten Menschen kann ich gut umgehen, verdammtnochmal, ich bin ja selber schlecht, mit guten Menschen ja sowieso, ABER JENEN, DIE GANZ LEISE SCHLEICHEN, DEN MUSST DU AUS DEM WEGE WEICHEN.
Warten Sie, [fährt auf gefühlt 25 cm auf], GLEICH SCHIEBE ICH IHN AN !“
Ich muß dazu sagen, der Chef war immer frendlich zu mir, fand nie ein böses oder ein gutes Wort für mich oder irgendeinen anderen, war stets indifferent. Man muß ihm allerdings zugutehalten, daß er seinem schärfsten Kritiker die operative Leitung seines Unternehmens überließ. Und das gelang jenem mit Glanzbravour. Denn H.J. Esser war das Gegenteil der Mittelmäßigkeit.

Damit der Roland nicht der einzige hier bleibt, der Rupert Lay zitiert:

 Nicht der Bösewacht ist der Schurke, sondern das Mittelmaß, wenn 
 man die politischen, ökonomischen, sozialen und kulturellen Dramen
 unserer Zeit betrachtet oder gar aufzuzeichnen versucht. Schon 
 Platons Vermutung, daß die Demokratie die Herrschaft des Mittelmaßes
 bedeute, hätte uns nach der Einführung demokratischer Systeme 
 in Europa nach 1948 etwas vorsichtiger mit dieser Herrschaftsform 
 umgehen lassen müssen. Nun, das haben wir verabsäumt - und so 
 beherrschen uns in Politik und Wirtschaft, im Sozialen (etwa den
 Gewerkschaften) und im Kulturellen (etwa den Kirchen) das Mittelmaß.
 Wie aber mag es dazu kommen, daß in demokratisch organisierten Sy-
 stemen die Herrschaft des Mittelmaßes tendenziell wenigstens unaus-
 weichlich ist ? Es handelt sich hier wieder einmal um die normative
 Kraft des Faktischen. Und das Faktische demokratischer Systeme ist
 der Kompromiß. Kompromißbildungen sind aber nun einmal die Konflikt-
 lösungsstrategien des Mittelmaßes. 

Quelle: Rupert Lay, Weisheit für Unweise (Hervorhebung von mir)

Lay indes ist ganz und gar kein Antidemokrat, aber Lay verachtet Demokratismus.

Warum ?

Demokratie – Demokratismus – Demokratur – Diktatur.

Die Diktatur des Mittelmaßes nennt sich übrigens heute „Shitstorm“.

Im Rahmen eines Fernsehinterviews wurde der geniale österreichische Verbrecher Udo Proksch einmal gefragt, „Herr Proksch, wenn Sie einen Herzenswunsch frei hätten – was würden Sie bei einer Fee bestellen ?“ — und jener antwortete, ohne auch nur eine halbe Sekunde nachzudenken:
Allen mittelmäßigen Österreichern die Krätze an den Hals !

Heiko Mittelmaaß diene als Warnung, wie fatal sich Mittelmäßigkeit in der Politik auswirken kann – bei der Konzeption technischer Systeme unterdessen sind faule Kompromisse, und nichts anderes ist das Ergebnis des Mittelmaßes, fatal und führen schnurstracks zu BER.

3. „Best Practice“

Früher hat man sich Gedanken gemacht, „optimiere ich hinsichlich Leistung, Stabilität, Ressourcenverbrauch, Modularität, Salierbarkeit“, um wichtige Entwicklugsziele zu benennen.  Und in der Tat ergaben sich höchst unterschiedliche Entwürfe. Die Kunst war, mögliche Zielkonflikte zu vermeiden oder — na, wie heißt das heute im Idiotensprech? „mitigieren“.

Heute interessiert das niemanden mehr. Es wird das gemacht, was alle anderen Idioten auch machen.  Statt „Best Effort“ ist heute die „Best Practice“ das Gebot der Stunde.

4. Wirrtualisierung

Die Entwicklung eines Kindes im Mutterleib dauert bekanntlich neun Monate. Wenn man diese Zeit verkürzen will, ist es evident sinnlos, gleich 9 Frauen zu schwängern. Man erhält zwar „statistisch“ pro Monat ein Kind, aber jedes Kind benötigt minimal neun Monate.

Um einen schwachbrüstigen „PC“ im Servergewand also zu beschleunigen, ist das „Clustering“ vieler Einzelserver womöglich nicht dazu geeignet, einen Prozeß zu verbessern. Klar, wird man entgegnen können, „viele Teilprozesse können heutzutage parallelisiert werden“, aber dummerweise gibt es immer wieder Punkte, an denen Teilprozesse aufeinander warten müssen – allerspätstens dann, wenn auf eine gemeinsam genutzte Ressource schreibend zugegriffen wird.

Die Wirklichkeit unterdessen ist grausamer und schlimmer:

„Clustering“ geht aus administrativen Gründen fast immer einher mit „Virtualisierung“.

Heutzutage entfällt der Hauptteil der Ein- und Ausgabelast eines Servers so gut wie immer auf die Netzwerkschnittstellen. Eine „virtuelle“ Netzwerkschnittstelle kann man jedoch nicht in einen „echten“ Switch stecken. Es muß also mindestens ein „virtueller Switch“her. Der „virtuelle Switch“ simuliert einen „echten“ Switch unter Zuhilfenahme einer Wald- und Wiesen – Universal-CPU. Und so kommt es, daß die „virtuellen Switches“ in Superclustern eines Servicerechenzentrums deutlich langsamer sind als absolut billige Amateurgeräte aus dem Aldi !  Denn schon die billigsten Konsumentengeräte verfügen über Hardwareunterstützung und können alle Ports simultan bedienen !

Apropos Hardwareunterstützung: „Virtuelle“ Netzwerkkarten entlasten den TCP/IP – Stack nicht von zeitaufwendigen Operationen.
Jedes Datenpaket muß, wieder von einer Wald- und Wiesen-CPU, aufwendig mehrfach ineinander verschachtelt, verpackt werden. Nun werden Sie sagen, „dann opfere ich halt zwei CPUs dafür“. Die CPUs aber arbeiten im Hauptspeicher und invalidieren („trashen“) den Cache, wodurch ALLE anderen Prozesse ausgebremst werden. Hinzu kommen, für den Profi, pro Paket in jede Richtung DREI Kernel/Userspace – Übergänge. Und jeder kostet nicht nur CPU-Zeit, sodern verlangsamt ein System durch (bei Taskwechsel notwendige) Locking-Mechanismen.
Aus technischen Gründen mußte ich am letzten Wochenende einen „virtuellen“ Server mit viel Netzlast durch einen „realen“ Server ersetzen. Es war ein Notfall; wir mußten das nehmen, was wir kriegen konnten — und das war ein schedderiger, alter „Windows 95“- PC mit Originalhardware. Eine zweite Netzwerkkarte mit stolzen 100 MBit/s war auch schnell gefunden und der Transfer auf eine gammelige IDE-Platte klappte ebenfalls prima.
Ich hatte die größte Befürchtung, eine erbärmliche Performance abzuliefern, aber am Montagmorgen kam eine Dame zu mir: „Was haben Sie gemacht ? SO SCHNELL lief unser Frontoffice-System noch nie !
Der zuvor eingesetzte Server war ein HP DL380 Gen.6, mithin also ein veritables Schwergewicht in der PC-Welt, mit allem, was die „Entwicklung“ zu bieten hatte.  Die Virtualisierung aber degradierte das System zu einer peinlich-lahmen Ente, die von einem „Pentium 5“ mit 512 MB Hauptspeicher gnadenlos deklassiert wurde.   Wohlgemerkt: Mit der gleichen Software, dem gleichen Betriebssystem und den gleichen Einsatzbedingungen.
Eigentlich wußte ich immer schon, daß Wirrtualisierung im allgemeinen und „VMWare“, die Küchenschabe unter den Virtualisierungs-lösungen im speziellen, ausgemachte Performancebremsen sind — daß es aber so schlimm steht, das hätte ich nicht geahnt.
Aber auch ich habe mich in Sachen Performance zusehr an Mittelmäßigkeit gewöhnt.

5. Besen, Besen, sei’s gewesen …

Miese Leistung ist ja heutzutage „Standard“. Aber mit der „Virtualisierung“ kauft man sich einen Verwaltungsaufwand ein, der einem buchstäblich den Atem raubt:

Jeder normal denkende Mensch würde ja erwarten, daß man ein System von außen direkt administrieren kann — aber weit gefehlt bei Platzhirschen wie „VMWare“ und IBM.

Ich gehe einmal auf die abstruseste, hirnverbrannteste Variante ein, die IBM sich nicht schämt, seinen Benutzern zuzumuten:

– Zur Steuerung eines aktuellen IBM POWER – Servers ist jetzt eine alberne „Hardware Management Console“ notwendig, ein unzuverlässiger Havarist auf der Basis von „Nürnberger Windows“ („SuSE“). Diese besticht vor allem dadurch, daß sie gerne einmal ungefragt und unerwartet die NUMA-Konfiguration des verwalteten Rechners durcheinanderwürfelt, was allerdings nicht weiter schlimm ist, denn die Idioten, die eine „HMC“ benutzen, sind generell merkbefreit.

– Aber: Neuerdings braucht man ZWEI DAVON, und, dreimal dürfen Sie raten, die installiert man dann: RICHTIG, auf einer „VMWare“ – Wirrtualisierungsumgebung.

– Nur: Auf diese Verwaltungsumgebung kann man nicht zugreifen, es braucht noch ein „Windows 10“ mit „Flash“ und allen Multimedia – Uappetitlichkeiten an Bord, um via „Vschmier“ – Konsole auf den Server zuzugreifen, der wiederum das Verwaltungsprogramm beherbergt, das den eigentlichen Serer verwalten soll, der die einzelnen Serverinstanzen verwaltet.

Wir reden also von einer Verwaltung der Verwaltungsinstanz der Verwaltung einer Verwaltung. Ein größerer Schwachsinn ist für mich bislang nicht denkbar gewesen.
Es sind mindestens fünf(!) unterschiedliche Betriebssysteme beteiligt, mindestens zwei unterschiedliche Rechnerarchitekturen und unzählige Netzwerkschnittstellen.

Wer so etwas bei einem Kunden produktiv installiert, ist für mich ein krimineller Idiot.

6. Des Kaisers neue Kleider …

Der typische „IT-Admin“ ist in seiner Mittelmäßigkeit gefangen wie ein Insekt im Bernstein. Er läßt sich jeden, aber auch wirklich JEDEN Schwachsinn als „innovatives Feature“ andrehen. Und traut sich nicht, STOP! zu sagen, um nicht vor seinen Kollegen als unwissend dazustehen. So kommt es, daß alle mit ihrer primären Arbeitsumgebung hoffnungslos überfordert sind und die Kernaufgabe der Abteilung darin besteht, sich Begründungen für das jeweils aktuelle Versagen im eigenen Projekt auszudenken – zugegebenermaßen keine leichte Aufgabe, das.

Man soll ja eine Betrachtung immer mit einem positiven Aspekt abschließen — kein Problem für mich, bitteseher:  Die modernen IT-Lakaien, durch faule Kompromisse kompromittiert,  durch „soziale Medien“ in Watte gepackt, ohne Ziel, ohne Verantwortung, ohne Achtung vor den Leistungen anderer und schon gar nicht vor der eigenen —

erst im Formulieren ihres eigenen Unvermögens sind sie dann ganz große Klasse !

-hb

Roland Dürre
Mittwoch, der 5. April 2017

IT Oberland BarCamp am 12. Mai 2017 in Holzkirchen!

Das BarCamp zur digitalen Transformation und ihren gesellschaftlichen Auswirkungen

Damals dachte der Autor noch in Hardware 🙂

Momentan schlägt das „buzzword“ DIGITALISIERUNG hohe Wellen. Es gibt ein Zentrum-Digitalisierung.Bayern (ZD.B) und in den bayrischen Ländern entstehen geförderte Digitalisierungs-Zentren.

Nur Digitalisierung war doch gestern. Das war damals, als die Uhren, Tachometer und Thermometer plötzlich eine digitale Anzeige bekamen. Das war vielleicht 1985, als Apple 2 und MacIntosh fröhlich Urstand feierten und die deutschen Informatiker in ihrer Industrie-Nostalgie mit BS2000 und ähnlichem noch viel Geld verdienten.

Internet und Google sind mittlerweile ein alter Hut. Von selbst lernenden Systemen haben wir schon vor ein paar Jahrzehnten geträumt – in unserer Euphorie zu KI (künstliche Intelligenz). Die modernen unter uns haben schon 1980 die KI dann AI (artificial intelligence) genannt, weil wir wussten, dass es damit in Deutschland nichts wird. Damals haben wir von Lisp und Prolog geträumt. Jetzt kommen die denkenden Systeme und lernen schnell von selbst – in Bereichen wie Übersetzung oder Verkehr – weil die Hardware halt so leistungsfähig ist, dass es zu funktionieren beginnt. Auch ohne Lisp und Prolog.

Immer noch passiert viel Neues. Dies in einem oft nicht mehr nachvollziehbarem Tempo. Und es scheint erst jetzt so richtig los zu gehen. Eine unvorstellbare Welle von Produkten rollt auf uns zu, die die Welt nochmals radikal verändern werden. Viele Gesetze und Regeln werden in Zukunft nicht mehr funktionieren. Da stellen sich viele Fragen:

  • Heute wird viel über „das selbst fahrende Auto“ diskutiert. Aber ist das nicht nur die Spitze des Eisbergs einer Veränderung des Lebens? Und wird schon viel früher viel mehr sich merklich und unmerklich verändern?
  • Leben wir nicht im Zeitalter der Sensorik, die eine völlig neue Verbindung und Interaktion von „Informatik“ zur Welt schafft? Und es bald nicht mehr um die Mensch-Maschine-Schnittstelle gehen wird sondern um die „Welt-Maschine-Schnittstelle“.
  • Ist Datenschutz wirklich sinnvoll machbar? Oder nur so eine Chimäre der ewig gestrigen? Was bedeutet das für unsere Gesellschaft?
  • Welche technischen Elemente brauchen „Smart Solutions“ in einer modernen IoT-Architektur? Was heißt „smart“ überhaupt – und was verstehen wir tatsächlich unter IoT?
  • Wie ist denn das mit den Regeln für Roboter (selbst fahrende Autos)? Was sagt die „Ethik-Kommission“ der Bundesregierung dazu?
  • Wie gehen wir mit Kampfrobotern und Drohnen um? Was bedeutet das für Krieg und Frieden?
  • Müssen wir nicht viele Elemente unserer gesellschaftlichen Ordnung als Folge der technischen Entwicklung umdenken oder gar neu definieren?
  • Was bedeutet das für unseren gesellschaftlichen Rahmen? Wird Politik Gestalterin des Selbigen bleiben oder haben das schon Maschinen übernommen?

Solche und weitere Fragen werden auf dem Oberland BarCamp in Holzkirchen offen, redlich und achtsam diskutiert werden – wie das auf Barcamps meistens so üblich ist.

Deshalb habe ich mich zum BarCamp zur digitalen Transformation und ihren gesellschaftlichen AuswirkungenOberland BarCamp genannt – angemeldet. Es wird am 12. Mai in der RSC Factory – Trainings- und Coachingzentrum für Digital Business & Innovation in Holzkirchen stattfinden.

Und ich freue mich schon darauf, dort viele Freunde wieder zu sehen!

RMD

P.S.
Das Oberland barcamp wird über Meetup organisiert. Wenn Ihr Euch da anmeldet und mit diskutiert, macht das dem Veranstalter das Leben ein wenig einfacher!

 

Roland Dürre
Dienstag, der 7. Februar 2017

Hacked By XwoLfTn …

Logo des Chaos Computer Clubs, der einflussreichsten Vereinigung von Hackern im deutschen Raum, bei dem Sicherheitsfragen sein wesentliches Beschäftigungsfeld sind.

Jetzt ist es passiert:
IF-Blog ist gehackt worden. Schon das zweite mal. Jedes Mal ist Folgendes passiert:
Die Überschrift wird überschrieben – und der Text auch. Beim letzten Mal war es mein Artikel America First, der attackiert wurde.

Da wurde die  Überschrift ersetzt durch
Hacked By XwoLfTn
und der gesamte Inhalt überschrieben mit
Hacked By XwoLfTn – Tunisian Hacker

Beim vorletzten Mal hat es meine EURO-Geschichte getroffen. Mit demselben Effekt. Dieselbe Überschrift und derselbe Inhalt.

Die beiden Artikel konnte ich rekonstruieren. So bin ich froh, dass nicht mehr passiert ist. Aber man sieht, es gibt sie wirklich, die Bösewichte im Internet. Der von mir sehr geschätzte Chaos Computer Club (CCC) hat mal wieder recht. Und auch mein Freund Hans Bonfigt.

Leider weiß ich noch nicht, ob es ein Einzeltäter ist, der mich ärgern will oder ein Bot, der da sein Unwesen treibt. Ich vermute eher das Zweite, besonders wenn ich in Google sehe, wie viel Blogs von genau diesem Effekt betroffen sind.

Jetzt werde ich auf jeden Fall zeitnah die neueste Version von wordpress installieren. Und hoffe dass das hilft. Und wenn Ihr Euch mit wordpress auskennt – oder noch besser – wisst, was da passiert ist und was ich dagegen machen kann, dann freue ich mich auf Hinweise!

Lieben Dank im Voraus!

RMD

Die Winderhitzer der Völklinger Hütte.

„Die Winderhitzer der Völklinger Hütte. Auch Vintage.“

Obwohl ich E-Mail für Technik von vorgestern halte, habe ich natürlich noch ein paar E-Mail-Adressen. Da kommt viel Belangloses und Mist an.

Meine Aufgabe besteht dann vor allem darin, diese E-Mails zu löschen und meine „Kommunikations-Partner“ zu bitten, doch modernere Kommunikationsformen zu nutzen.

Heute musste ich aber mal wieder so richtig Schmunzeln. Da kam eine E-Mail von einem lieben und langjährigen Freund, den ich auch fachlich für sehr kompetent halte.

Der hat – an ganz viele Menschen (all@XYZ.de) – geschrieben:


Hi,

könnt ihr uns alle bitte mit dieser für mich vollkommen sinnfreien Diskussion in Ruhe lassen!!!!!

Ich habe meine Meinung zu Mail-Verteilern und interner Mail auch in der Umfrage zu den neuen Kommunikationsformen von mir gegeben.

Das ist ein typisches Beispiel dafür, warum E-Mail unternehmens-intern Blödsinn ist und die E-Mail-Verteiler insbesondere sofort abgeschafft werden sollten.

Mit Absicht an all!


🙂 Bei der „sinnfreien Diskussion“ ging es übrigens um das Problem mit „Akkus von I-Phones“ und deren Umtausch.

Ich habe dann geantwortet:


Deine E-Mail lässt mich schmunzeln. 😊

Bin ich doch genau Deiner Meinung – nur noch radikaler. E-Mail ist kein generelles Kommunikationsmittel mehr sondern ein völlig veraltetes, das man selbstverständlich in modernen Unternehmen nicht mehr nutzen sollte.

E-Mails an Dritte sollte man nur noch senden, wenn es einen Anlass gibt, für den man in vergangenen Zeiten tatsächlich einen Brief geschrieben, ein Telegramm aufgegeben (!) oder eine Telefonzelle aufgesucht hätte.

Alles andere sollte man mit Werkzeugen erledigen, die dem Zweck adäquat sind.

Liebe Grüße und ein schönes Wochenende!


Ja – ich mag E-Mails auch nicht. Oft sind sie mit einem Riesen-Footer ausgestattet, der dann noch künstlich mit viel Quatsch und völlig uninteressanten Hinweisen werblicher Art oder blödsinnigen juristischen Belehrungen verlängert ist.

Ich hasse die E-Mail-Dialoge, die mit jedem Dialogschritt eine immer länger werdende neue Inkarnation der Mail verursachen. Denn mit jeder Antwort entsteht eine E-Mail, wo dasselbe alles noch mal drinsteht ergänzt um die letzte Antwort. In der Ur-Zeit des Internets gab es Versuche, die E-Mail-Kommunikation ein wenig erfreulicher zu gestalten. Da gab es z.B. eine gute Regel, die man tofu nannte. Leider wurde „tofu“ aber nur von wenigen angewendet und ist so gescheitert.

Da Kommunikation erfolgt in der Regel als „Thread“ (Faden).  Spätestens seit dies im Chat perfekt möglich ist, ist E-Mail in vielen Fällen verzichtbar. Im „peer2peer“-Thread sehe ich immer sofort was in der letzten Zeit so alles ausgetauscht wurde. Das gilt auch für Menschen, mit denen ich ganz selten kommuniziere und ist da besonders wertvoll. Threads sind auch gut geeignet, wenn mehr als zwei Menschen gemeinsam kommunizieren wollen. Bei E-Mail führt es dann sofort zur katastrophalen Fluten bedingt durch „cc“ und „bcc“.

Dazu kommt, dass ich alltäglich gerne mit Bildern, Sprachnotizen (Audios) oder kleinen Filmen (Videos) kommuniziere. Wie umständlich ist das bei E-Mail für Sender und Absender? Man schaue sich einfach an, wie bbm, wechat, whatsapp, der „messenger“ von FB oder Skype, die „dm“ (direct message) von Twitter usw.  funktionieren. Von Snapchat, dem System mit der modernsten und einfachsten „Benutzer-Oberfläche“ möchte ich hier gar nicht reden.

Noch besser als chat-Systeme eignen sich „communities“ für die geordnete Kommunikation auch in größeren Teams/Gruppen. Im Internet gibt es viele „communities“ z.B. in Google+, die zeigen, wie es geht. Und wie man mit ganz einfachen Maßnahmen innerhalb einer „Organisation“ vortrefflich und trotzdem sehr strukturiert und hocheffizient kommunizieren kann. Und so auf den E-Mail-Blödsinn verzichtet und nicht dauernd die Nicht-Interessierten oder -Beteiligten voll mit Spam voll schüttet!

Im übrigen:

Auch Telefonieren ist OUT. Ich nutze das Telefon nur noch nach terminlicher Absprache, wenn es etwas Wichtiges zu erledigen gibt und ich mit einem Mitmenschen mit voller Aufmerksamkeit darüber sprechen will. So setze ich das Telefon im Auto oder in öffentlichen Räumen wie Zügen nicht mehr ein. Und auch für Wichtiges nutze ich Telefonie nur dann, wenn Bildtelephonie (Hangout, Facetime, Skype, Cisco, Citrix …) nicht möglich ist, weil mein Gesprächspartner das gute alte Telefon bevorzugt.

🙁 Nur zur Erinnerung. Die Funktion „Telefonieren“ ist auf dem Smartphone auch nur eine App für synchrone Sprach-Kommunikation, die es möglich macht, Verbindung mit Adressen aufzunehmen, die aus „Telefon-Nummern“ (Ziffern) bestehen und mit „voice-over-IP“ ein Telefonat emuliert.

Also:
Wenn mich jemand anruft und ich mich melde mit
„Wer stört denn jetzt schon wieder?“,
dann bitte ich, dies mir nicht übel zunehmen.

Ich bin weiter für jeden erreichbar, der mich braucht: Hier meine physikalische Telefonadresse 0049 171 4850115 (leider sind die symbolischen schon lange aus der Mode gekommen). Aber bitte wirklich nur anrufen, wenn es wirklich wichtig und ganz dringend ist!

Sonst bitte ich zu überlegen, ob es nicht genügt, mir eine asynchrone „(Sprach-)Botschaft“ über einen der Chatter die ich benutze zu senden oder falls es auf ein bestimmtes Thema bezogen ist, diese Nachricht in der entsprechenden Community zu hinterlegen.

RMD

P1070216Wir leben ja im Zeitalter des unverantworteten Geschwätzes. Das erlebe ich besonders intensiv, wenn ich höre, was selbst ernannte Propheten zum Thema Digitalisierung so alles herum spekulieren. Wie viel Unsinn da dabei ist. Dann muss ich auch noch feststellen, wie viele auf den Zug aufspringen und das Gehörte oder Gelesene unkritisch nach plärren. Und so Ängste an falschen Stellen schüren, die von den wahren Bedrohungen nur ablenken. Und erstaunlich wer da alles immer so dabei ist.

Ich persönlich betrachte den „digitalen Wandel“ nur als schlichte Fortsetzung der durch Technik bedingten Veränderung im Zeitalter der kompletten Elektrifizierung des Planeten (oder so). Da ich ihn erlebt und selber mit gemacht habe, versuche ich dem oft von einzelnen geäußerten und von vielen nachgeplapperten Blödsinn entgegen zu treten.

Zum Beispiel ist für mich ein „fahrerloses“ Fahrzeug, sei es ein LKW, Bus oder Auto z.B. nichts anderes als technologischer Fortschritt, bei dem Eisen durch IT ersetzt wird. Die neuen Fahrzeuge brauchen halt keine Schienen mehr, sondern nutzen IT um auch ohne Fahrer an ihr jetzt variables Ziel zu finden. Das ist kein Hexenwerk sondern nur schlichte Ingenieursarbeit.

Ein harmloses Beispiel für Panikmache ist in meiner Bewertung auch die so viel zitierte „Filterblase“. Immer mehr Leute behaupten in Sonntagsreden, dass hier eine große Gefahr droht und wir „von Algorithmen“ manipuliert werden. Ich mache es mir einfach und kopiere einen Text aus dem dazugehörigen <a href=“http://if-blog.de/wp-content/uploads/2015/06/P1070216.jpg“><img class=“alignleft size-medium wp-image-52015″ src=“http://if-blog.de/wp-content/uploads/2015/06/P1070216-300×208.jpg“ alt=“P1070216″ width=“300″ height=“208″ /></a> in Wikipedia (Stand heute – 27. Oktober 2016).


Die Filterblase (englisch filter bubble) oder Informationsblase (englisch informational bubble) ist ein Begriff, der vom Internetaktivisten Eli Pariser in seinem gleichnamigen Buch[1] verwendet wird. Laut Pariser entstehe die Filterblase, weil Webseiten versuchen, algorithmisch vorauszusagen, welche Informationen der Benutzer auffinden möchte – dies basierend auf den verfügbaren Informationen über den Benutzer (beispielsweise Standort des Benutzers, Suchhistorie und Klickverhalten). Daraus resultiere eine Isolation gegenüber Informationen, die nicht dem Standpunkt des Benutzers entsprechen.


Nur – das ist doch nichts Neues!

So habe ich von Kindes an in meiner „Filterblase“ gelebt. Kaum konnte ich lesen, habe ich (zuerst in der katholischen Pfarr- und später in der öffentlichen) Bücherei mir genau die Bücher ausgewählt, die nach kurzer Leseprobe meinem WEIB (Eselsbrücke für Werte, Erwartungen, Interessen und Bedürfnisse) entsprochen haben.

Als Zeitungsleser habe ich schnell die SZ dem Münchner Merkur bevorzugt. Später habe ich gelernt, dass die Zeitungen versuchen genau das zu schreiben, was ihre Leser lesen wollen …

Als Jugendlicher ging ich zu den Treffen der „republikanischen Clubs“ und nicht zur jungen Union und zu den Burschenschaften.

Aufgrund meiner Beschränktheit habe ich mich so selber in meine „Blase“ rein gebracht. Damals hat mich das Radio aus dieser raus geholt. Da kam zum Beispiel an Silvester die Lach&Schieß und hat mich auf völlig neue Gedanken und Meinungen gebracht.

Aus dem Radio als „öffentlichem Rundfunk“ ist das Internet geworden. Ich kommuniziere mit anderen Menschen, lese deren Blogs und höre ab und zu sogar deren PodCasts. Ich bin da ein wenig altmodisch und lese noch, weil  ich nicht immer nur mit Kopfhörern herumlaufen mag. Aber auch mein Verhalten wird die Zukunft nicht beeinflussen. So wird „Audio“ im Wissenstransfer und Meinungsaustauch sicher gegen die „Verschriftung von Information“ gewinnen.

So erlebe ich viel Neues und Neuartiges im Netz. Denn das Internet besteht eben nicht nur aus Google und Facebook sondern vor allem aus den Menschen, die ihre Bewertungen und ihr Leben bloggen und podcasten und mich mit vielen Gedanken versorgen, die in der Tat häufig meine Vorurteile widerlegen und mich zu Toleranz ermahnen. Und so lerne ich, Respekt und Wertschätzung für Meinungen und Menschen zu gewinnen, die ich früher einfach so abgelehnt hätte.

Meine Freunde machen es genauso. In dieser „Bubble“ fühle ich ich sehr wohl. Auf die Algorithmen scheiße ich. Und sehe da auch nicht die große Gefahr. Oft habe ich den Eindruck, dass das Internet als neuer „Buhmann“ von der massiven Manipulation durch Werbung und Lobbyismus ablenken soll. Weil es tatsächlich freier und autonomer macht und so den herrschenden Strukturen und Systemen gefährlich wird. Deshalb wird auch von diesen die Freiheit des Internets nicht so gerne gesehen und so die Einschränkung von Freiheit im Netz mit allen Argumenten begründet – und mögen sie auch noch so dümmlich sein.

RMD

Hans Bonfigt
Freitag, der 7. Oktober 2016

DAMIT ICH MICH BESSER FRESSEN KANN

Ein Computergigant kannibalisiert sich selbst und wirft dabei so ganz nebenher die führende Rechnerarchitektur auf den Komposthaufen der „Community“.

Das ist das, was sich als Zusammenfassung vom „Linux on Power Anwendertag 2016“ aus dem IBM – Labor in Böblingen mitgenommen habe.

Ach ja, und Menschen „50+“ sind in der „IT“ deplaziert.
Wurde mir mehrfach klar gesagt.
Vielleicht, weil sie wissen, was sie tun?   Und vor allem: Was sie besser seinlassen?

Dies ist jetzt wieder einmal ein unsachlicher, fachlich sehr spezieller Bericht, er wird bestimmt lang und von geringem allgemeinen Interesse sein. Wer nicht weiß, für was AIX, AS/400 oder MVS stehen: Jetzt wäre es Zeit, hier mit dem Lesen aufzuhören.

Seit 1996 stagniert die INTEL – Welt, nicht, weil die Prozessoren schlecht wären, sondern weil die Architektur buchstäblich an ihrer eigenen Kleingeistigkeit erstickt.

Denn – wie hat das eigentlich angefangen?

Begeben wir uns einmal in die Zeit, als es in der Informationstechnik nur IBM gab und den „BUNCH“, Borroughs, Univac, NCR, Control Data und Honeywell. Der glücklose IBM – CEO sah verschnupft den Erfolg der „Äppel-Computer“, die sich den Anschein gaben, als könnten auch ganz normale Menschen damit umgehen. „Wo ist mein Äppel????“. Sehr eilig baute man im eigenen Hause etwas zusammen, den „Datamaster“.

Dazu vielleicht ein autobiographischer Einschub: Eine Laune des Schicksals hat dazu geführt, daß ich einige Zeit mit der Konstruktion von Scherenhebebühnen befaßt war. Im Zuge dieser Arbeiten wurde ich zu einem Konstruktionsseminar verdonnert. Es wurden dort Teams gebildet, die sich nach Sympathie ergeben hatten. Meines bestand aus Hubtisch- und Kranbauern. Ärgerlicherweise lautete die Aufgabe an uns nicht, „Baut ein Schwerlasthebezeug für einen Güterwaggon“, ein Job, den wir mit Bravour gelöst hätten, sondern, Gipfel der Infamie:
„Baut einen Kinderwagen“.

Was soll ich sagen, wir haben den teuersten, schwersten und unbrauchbarsten Entwurf abgeliefert. Und den scheußlichsten, denn er sah aus wie eine Hebebühne.

So wie diesen mißratenen Kinderwagen muß man sich den IBM „Datamaster“ vorstellen. Wenn Mainframe-Bauer PCs bauen sollen, dann kommt ein kleiner Mainframe dabei heraus, aber kein PC.

So kam es, daß der „Datamaster“ desaströs floppte und Akers tobte.

IBM – Mitarbeiter Don Estridge erklärte Akers:
Wenn Sie einen Computer für die Ahnungslosen bauen wollen, dann müssen Sie ihn von Leuten bauen lassen, die garantiert keine Ahnung von Computern haben„.

Das war sein Verhängnis: Mit 11 weiteren Flaschen, die in der Entwicklung entbehrlich waren, wurde er buchstäblich in die Wüste geschickt, wo er den „Personal Computer“ bauen sollte.

Der IBM – PC. Er war so erbärmlich, wie er aussah.

Dieses jenseits jeder Schamgrenze zusammengefrickelte Stück Sondermüll fackelte schon bei der internen Präsentation ab – nicht umsonst nannte man dessen Macher IBM – intern „Das dreckige Dutzend“. Aber warum auch immer:

IBM brachte das Mistding auf den Markt und weil alles, was IBM vorgab, zu jener Zeit sofort zum „Industriestandard“ avancierte, war eine Seuche geboren, die schlimmer war als AIDS, Ebola und Islamismus zusammen.

Aber auch Akers hatte sich selbst keinen Gefallen damit getan, denn die unbeabsichtigte Etablierung eines „Standards“ etablierte vor allem eines: Konkurrenz. Infolge einer fatalen Verkettung unglücklichster Umstände (ein IBM – Berater wollte am Wochenende in Ruhe angeln gehen, anstatt in Armonk eine wüste Folienschlacht über sich ergehen zu lassen) wurden Paul Allen und William H. Gates mit der Aufgabe betraut, ein Betriebssystem für diese Krätze zu bauen.

Das hatten sie nicht — aber warum auch, wenn man eines klauen konnte?

So wurde aus CP/M im Magenumdrehen „MS-DOS“, welches in seiner unausgegorenen Primitivität und desaströser Konzeptlosigkeit perfekt zur elenden Hardware paßte.

Die Folgen sind bekannt:

Bei Landfahrzeugen besteht aus gutem Grund eine starke Diversifizierung: Wir sehen täglich Bagger, Tieflader, Sattelschlepper, Motorräder, Cabriolets, Reisebusse, Fahrräder, Lokomotiven und Rennwagen. Kein Mensch käme auf die Idee, mit dem Möbelwagen in die Stadt zum Eisessen zu fahren oder mit dem Motorrad einen Umzug zu unternehmen.

Wirklich kein Mensch?

Der gemeine PC-Trendlemming war so dämlich. Und ist es heute noch. Selbst aktuelle Intel-„Server“ booten noch mit „DOS“. Und wer das nicht glaubt, der werfe eine Suchmaschine seiner Wahl an und finde heraus, wie PXE funktioniert, was ein „C/H/S-Interface“ ist und ein „A20-Gate“.

Jedermann kann nachvollziehen: Aus einem „Trabant“ macht man keinen Sportwagen und keinen LKW.

In der Informationstechnologie jedoch ist dies „Best Practice“.

Es gibt heute nur noch den vielfältig aufgebohrten „IBM PC“ in unterschiedlichen Metastasierungen.

DEC, SUN, HP und IBM hoben sich lange Zeit ab von dem billigen Tand und bauten tolle Prozessoren, SUN die „SPARC“, HP sein PA-RISC, DEC seinen legendären „Alpha“ und IBM unter anderem POWER.

Und diese Firmen hatten für ihre Kunden auch ernstzunehmende Betriebssysteme entwickelt, MVS, Solaris, VMS, AIX, OS/400…

Betriebssysteme, Prozessoren, Hauptspeicher und externer Speicher wurden individuell und nach Anforderung im Rahmen einer qualifizierten Ingenieursarbeit zu einem System zusammengestellt.

PCs und leider auch sogenannte „Intel-Server“ dagegen wurden und werden völlig sinnfrei von gegelten Trieftollen-Salesguys zusammengestellt. Einzige, dafür aber zwingende Anforderung an das Flachpersonal: Garantierte Ungetrübtheit von jeder Art Bildung oder gar technischem Sachverstand.

Mir war diese Entwicklung zunächst gar nicht so unrecht:

Ich fand es gut, daß sich „meine“ Server von den Billigbüchsen unterschieden, die Stabilität und die durchdachten Details der Betriebssysteme gefielen mir, mein Beruf war angesehen.

Bezahlt wurde auch recht gut.
Der Name IBM stand für Zuverlässigkeit, Qualität und Leistungsfähigkeit.

Irgendwann wollte oder mußte IBM Kosten senken.
Und da hatte man tolle Ideen:

  • Die für etwa 20 Milliarden entwickelte „Next Generation Platform“ wickelte man über eine Beerdigungsfirma ab, denn „eigene Hardware ist zu teuer“.
  • Die eigene Chipfertigung wurde verkauft.
  • Das für die eigenen, professionellen Systeme optimierte AIX, seit gut 25 Jahren stabil, robust, sicher, skalierbar und leistungsfähig, soll durch „Linux“ ersetzt werden, einen billigen Unix-Abklatsch: Technologie von gestern mit den Konzepten von vorgestern. Aber alle finden es ja soooooo toll.
  • Und auch die kommerziellen Systeme sollen durch Linux ersetzt werden: „One Size Fits All“.

Mir ist es ja egal, was IBM verzapft (wenn’s ‚mal so wäre…), es wird, solange ich lebe, immer Kunden geben, die meine Arbeit zu schätzen wissen – den Massenmarkt habe ich nie bedient.

Aber dennoch packt mich das blanke Entsetzen, wenn ich dann doch einmal an einer IBM – Konferenz teilnehme — und damit sind wir gnadenlos in der Gegenwart.

„Sie wollen eine gute Jazztrompete? Hier, nehmen Sie doch unsere neue Kirmeströte“

SAP läuft seit Jahren stabil und hochverfügbar auf „großen Eisen“.
Nun bietet IBM an:

„SAP hat jetzt seine eigene Datenbank, ‚HANA‘. Die laßt Ihr, in einer Wirrtualisierungsinstanz, auf unseren Servern laufen. Und zwar nicht unter AIX, das könnte ja unter Umständen die Performanceeinbuße durch die Wirrtualisierung kompensieren, sondern nehmt ein LINUX, und zwar nicht irgendeines, sondern das scheußlichste, war wir auftreiben konnten: ‚SuSE‘, von Experten gern und mit guten Gründen als ‚Nürnberger Windows‘ bezeichnet“.

Blöd bloß: Die Wirrtualisierungsinstanz heißt „Power VM“ und ist nichts anderes als ein „erweitertes“ AIX 6.1, und die Applikationsserver selbst laufen ebenfalls unter AIX.

Da müßte ich ja schön blöd sein, einem Kunden ein solches Kuckucksei ins Nest zu setzen. Zumal bekannt ist: IBM ist nicht gerade sattelfest im Thema „Linux“:

„Crisis? What Crisis?“

In einem leider viel zu kurz geratenen Vortrag erläutert ein Universitätsprofessor, welcher am „Hasso Flachmann – Institut“ lehrt, daß IBMs Linux – Implementation noch lange nicht „fertig“ ist:

  • die „Hardware Management Console“ ist nicht nur ein elender Stromfresser und Produktivitätskiller, sondern „optimiert“ auch ungewollt den Prozessor/Storage – Pool kaputt.
  • Gut, das weiß man als IBMer und kennt auch Methoden, dieses Schandmal zu meiden.
  • Gerade bei vielen Nodes ist die NUMA sehr schlecht implementiert.
  • Ab und zu bleibt auch schon mal das Gesamtsystem unmotiviert stehen.
  • Der „gcc“-Compiler mit dem ppc-backend erzeugt alles andere als optimalen Code. Hier hätte IBM die Chance gehabt, einmal richtig zu helfen. Stattdessen pinselten sie in San Francisco überall „Love, Peace & Linux“ auf die Bürgersteige. Die Stadt war ’not amused‘ und IBM mußte die häßlichen Pinguine wieder entfernen.   Wer’s nicht glaubt:

Der Professor unterdessen wollte gnädig sein und hat auf Benchmarks, die beispielsweise einen prolligen „Dell“ und einen teuren „IBM POWER Server“ unter Linux miteinander vergleichen, verzichtet.

Freimütig konstatierte er jedoch, daß unter AIX sowohl NUMA als auch Compiler und überhaupt das Gesamtsystem aus Scheduler, Device Drivern und Libs perfekt aufeinander abgestimmt seien.

Das entspricht auch meiner „Hands-on Experience“ (es wurde durchweg ‚denglisch‘ gesprochen, einer degenerativen Variante des ‚modern Esperanto‘):
Bei gleichem Workload und vergleichbarer Maschinenleistung erzielt man mit „Linux auf Intel“ 100 %, mit „Linux auf Power“ 75 % und mit „AIX auf Power“ 200 %.

Aber: Der Prof führt sinngemäß aus, „Ja, in den Neunzigern konnte AIX seine Überlegenheit voll ausspielen, aber heute kennt es nur die Generation „50+“. Und außerdem hat es nicht diese vielen tollen „Tools“ aus der „Community“.

An der Pforte hatte ich in der Frühe meinen Morgenstern, das Wurfmesserset sowie die Tüte mit faulen Eiern abgeben müssen, wirklich wirksame Argumente standen mir daher nicht zur Verfügung.

Aber einen Zwischenruf mußte ich dann doch loswerden, „mit den Linux-Tools löst man dann die Probleme, die man unter AIX gar nicht hätte – weil es einfach läuft“.

Denn: Ein Betriebssystem ist für mich eine Infrastruktur – und kein Spielzeug. Mein Job ist es, Ideen auf dieser Plattform umzusetzen – und nicht, daran herumzubasteln.

Aber der Prof und die IBMer befinden:
„Die Welt spricht nun einmal Linux“.

Im Gleichschritt marsch …

Die Krönung setzt ein junger Mann von der „Sedativ GmbH“ auf, der, anstatt für einen Neppshop ein AIX mit einer ordentlichen Datenbank einzusetzen, PostgrSQL unter Linux verwendet. Er erzählt, „wir mußten POWER8 nehmen, denn die kann man auf ‚little endian‘ umstellen.

Auf meine Frage, „Warum nicht ‚big endian‘ , so daß die Lösung auch auf den (massiv im Einsatz befindlichen und immer noch verkauften) POWER7 – Modellen zum Einsatz kommen könnte“, meinte er, „wir wollten das Debian (die Linux-Distribution) nicht neu kompilieren“. Auf meinen Einwand, „die gibt es seit Jahren fix und fertig in der aktuellen Version zum Download“, ließ er dann doch die Katze aus dem Sack:

„Das, was Sie vorschlagen, ist halt ‚the road less taken'“.

Da weiß ich dann nicht, ob ich lachen, laut aufschreien oder heulen soll. Esst Scheiße — zehn Millionen Fliegen können sich nicht irren, oder, in Anlehnung an Robert Long:

Die Server krachen überall
und bald kommt es zum großen Knall,
man müßte schleunigst etwas unternehmen,
sonst werden wir erdrückt von den Problemen.
Doch statt daß die Vernunft regiert
wird fleißig weiter missioniert,
man watschelt gern mit Tux und Gott
zum Abgrund hin im Gänsetrott.
Linus führt, Linus führt,
dahin, wo man selig wird,
Linus führt, Linus führt,
den, dem es gebührt …
Es ist nun einmal, wie es ist,
der Mensch glaubt gerne jeden Mist,
Wer vorher blöd genug für Win,
der macht jetzt „profihaft“ in Lin.

Da nimmt es dann nicht wunder, daß die „Sedativ GmbH“ sich auch beim „Design“ der verkorksten Linux-Lösung für die Stadt München vom Prinzip der ‚road more taken‘ offensichtlich hat leiten lassen — mit dem bekannten Ergebnis.

Das Nachbauen von Microsoft – Strukturen zieht halt Microsoft – Probleme nach sich — damit konnte wirklich niemand rechnen!

Und — zum Thema „Welcher Weg ist meiner?“ hatte Robert Frost eine andere Vorstellung, und zwar schon in den 50er Jahren:

„The Road Not Taken

Two roads diverged in a yellow wood, and I,
I took the one less traveled by,
and that made all the difference.“

Zwischendurch zur Klarstellung:

Niemand will die bahnbrechende Leistung der IBM bei der Entwicklung der POWER – Architektur schmälern, ganz im Gegenteil!
Bloß, um beim Beispiel mit der guten Jazztrompete zu bleiben:
Wenn nur der ‚dumme August‘ hineinbläst, dann kann man auch bei der Kirmeströte aus Plastik bleiben.

Braucht jemand also eine Linux-Serverfarm, dann bestelle er sich ein Rack voller Dell-Pizzaschachteln. Die passen dann auch vom billigen Aussehen her perfekt zu Linux.

In der Welt der Verschwörer

Nun referiert ein Mitarbeiter der Firma Klo Lab.
Was mir gefällt: Die nehmen nicht den bestehenden Systemen die Workloads weg, sondern portieren Anwendungen weg von Windows, und das ist grundsätzlich begrüßenswert.

Aber: Das Produkt ist in Zusammenarbeit mit dem „BSI“ entwickelt worden. Das, was ich von dort mitbekommen mußte, taugte nie etwas.
Dann der Hinweis auf den eingebauten Mailserver der Firma „cyrix“: Den habe ich nicht in stabilster Erinnerung.
Dennoch: Es ist dringend notwendig, die grottenschlechten „Exchange“-„Server“ nachhaltig zu vernichten. Einschließlich des „Office“ – Sondermülls. Da gewinnt ein solches Produkt auf der POWER – Plattform gehörig an Relevanz.

Der Referent ist gut, aber so einige Behauptungen sind lustig:
Bei Intel-Prozessoren gebe es Extra-Instruktionen für „Google“ und die Asozialen-Schlammsuhle „facebook“. Das wäre ja einmal etwas: Wenn, wegen des fehlenden Spezial-Opcodes von INTEL, ich mit einem Power – Rechner nie wieder ein Bild der Visage des Herrn Zuckerberg zu Gesicht bekäme, dann wäre das ein ungeheurer Vorteil.
Auch, wenn der Referent sich alle Mühe gibt, tiefergehende Sachkenntnis zu verbergen: Einen Assembler – Programmierer erkenne ich, wenn ich ihn sehe. Da wäre ganz klar mehr gegangen.
Aber IBM hat für das komplexe Thema gerade einmal 20 (!) Minuten Zeit eingeplant. Ich wollte bei dem gedrängten Programm nicht schon wieder durch Zwischenrufe und Fragen auffällig werden, aber es juckte mir schon in den Fingern, einmal zu fragen, wieso für den Referenten die POWER – Architektur erst jetzt an Relevanz gewinnt. Daß der „x86“ so ziemlich die hinterletzte Küchenschabe ist, wurde von keinem sachkundigen Menschen jemals auch nur diskutiert. Man vergleiche 8080 mit 6502, 80286 mit 68000 und so weiter, und so fort. Im Vergleich zur POWER – Architektur geriert sich Intel wie die elektronische Multimedia-Orgel eines schmierigen Alleinunterhalters neben einem ausgewachsenen Bösendorfer – Flügel. Das muß doch einem denkenden, neugierigen Menschen, der eine schweizerische Hochschule besucht hat, ins Bewußtsein springen?

Im Rahmen des Ultrakurzvortrags habe ich ungefähr 127 Mal die Phrase von der „Freien Software“ gehört, das geht mir seit Jahren auf den Senkel, weil es etwas hat von „Wir sind die Guten“.
„Proprietäre Software“ heißt doch zunächst einmal nichts anderes, daß sich jemand darum kümmert! „Ökosysteme“ sind mir nicht erst seit Claudia Roth verhaßt. Es muß nicht jeder überall dran ‚rumfummeln, ich sage nur „Ralf Seggelmann“, „Telekom“ und „Heartbleed“. Oder darf ich noch auf das desolate Xorg hinweisen?  Früher hatte man gewitzelt, „Ah, it compiles! Let’s ship it!“.
Ein Xorg zerlegt sich schon beim imake.

Trotz aller Meckerei: Mit einer Alternative zur gängigen Kollabierungsware von Microsoft wird man sich auseinandersetzen müssen.

Danach stellen zwei Referenten eine weitere „Lösung“ vor, „Skalix“.

Hier zeigte sich:  Man kann auch noch einen 20-Minuten – Vortrag noch verkürzen, indem man 10 davon mit substanzlosen Unternehmensdarstellungen verplempert.  Da wäre mir ein „gespielter Witz“ lieber gewesen.
Außerdem benutzt das Produkt „JAVA“ und „MySQL“.  Wenn dann noch „PHP“ oder ähnlicher Müll dazukommt, dann muß man aufpassen, daß nicht eine „kritische Masse“ erreicht wird, die dann irgendwann als schmutzige Bombe explodiert.

Der Kracher fehlt …

… und sitzt doch im Plenum. Denn, und da sieht die „Komjunity“ vor lauter „Ökosystem“ die Bäume nicht, ein Computer ist kein Daddelspielzeug, sondern ein Werkzeug, mit dem Menschen ihre Fähigkeiten multiplizieren können.

Anstatt krampfhaft zu versuchen, „Schwerlastverkehr“ mit einem Klapproller zu realisieren, könnte man ja zur Abwechslung ja etwas Produktives tun:
Einen Computer als Anwendungsserver verwenden.
Und dazu bietet „Linux on Power“ ganz hervorragende Möglichkeiten:

Auf einem oder mehreren Servern weden Anwendungen installiert, die dann von hunderten oder tausenden von Anwendern über schlanke, energiesparende „Thin Clients“ genutzt werden können — in atemberaubender Geschwindigkeit.

Gleichzeitig gibt es keinen Streß durch zentrales Updatemanagement und man erreicht hohe Sicherheit — denn der typische Viren-Schadcode ist für die INTEL-Amateurcomputer konzipiert und läuft schlicht nicht auf einer POWER-Architektur.

Tja, und nach dieser Methode hätte man in München die Informationstechnologie auf Vordermann bringen können — anstatt jedem Mitarbeiter so einen lächerlichen PC hinzustellen — der heute buchstäblich zum alten Eisen zählt.

Das alles bekommt man mit „X2go“ hin, aber das Thema schien wohl nicht so interessant zu sein. Am Ende nimmt man dem lieben Wettbewerber HP noch ein paar Großkunden ab. Da richten wir doch lieber unser Kerngeschäft zugrunde und vergraulen unsere Stammkunden mit unausgegorenen Produkten.

Potentiale muß man erkennen …

… insbesondere wenn es um die eigenen geht.

Nachdem die Technologie ja angeblich zur Verfügung steht:

Ersetzt das IBM-Management durch „WATSON“ !

-hb

Hans Bonfigt
Samstag, der 27. August 2016

Am Beispiel eines Pioniers

Heinz Sebiger ist diese Woche verstorben.

1966 gründete er mit vier Kollegen ein genossenschaftlich organisiertes Unternehmen.

Als er nach ziemlich genau 30 Jahren die Leitung der DATEV abgab, war diese das größte gewerbliche Rechenzentrum Europas. Kraft der Gnade der frühen Geburt kann ich aus eigener Erfahrung hinzufügen: Der Erfolg der DATEV gründete sich fast ausschließlich auf der Qualität und Zuverlässigkeit ihrer Leistung.

Die „Frankfurter Allgemeine“ verstieg sich zu der Behauptung, Sebiger habe das „Cloud Computing“ erfunden und markiert damit einen vorläufigen Tiefststand journalistischen Niveaus. Warum plappern junge Leute immer so einen irrelevanten Blödsinn? Und plötzlich wird mir klar:

Sie kennen die Computergeschichte nicht. Ist doch auch nach vollziehbar: Computer wurden seinerzeit als „Arbeitstiere“ genutzt, quasi wie Bagger. Sündhaft teuer, wartungsintensiv, mit wenig Attraktivität für die moderne Bespaßtwerdengesellschaft. Im Gegensatz zum „Porsche“: Vom Konzept her billig, vom Lärm her prollig – und ein absolutes Objekt der Begierde. Die heutigen, peinlichen Daddelkisten sind so sinnvoll wie ein Porsche, die damaligen Computer waren so sinnvoll wie ein Bagger.

Wie jeder Pionier war Heinz Sebiger kein „Innovator“, sondern hat vorhandener Technologie den Weg geebnet.  Denn Fortschritt und Innovation sind heutzutage meist Gegensätze.

Rechenzentren gab es nämlich Mitte der sechziger Jahre viele, hier ein Link zu einem Beitrag über das ZBL-Rechenzentrum in Schwerte:  http://www.lokalkompass.de/schwerte/leute/revolutionaer-der-lochkarte-horst-haake-feiert-heute-seinen-90-geburtstag-d496803.html

Sowohl den Herrn Haake von ZBL als auch Herrn Sebiger kenne ich persönlich — und für beide Unternehmen habe ich Datenerfassungsprogramme und Schnittstellen entwickelt. Vor diesem Hintergrund möge der Leser mir abnehmen: Die Produkte waren ähnlich, die Verfahren waren ähnlich. Horst Haake mußte sein Unternehmen Mitte der achtziger Jahre schließen, während die DATEV den Zenit ihres Erfolges genießen konnte.

Was hatte Sebiger anders gemacht ?

Sebiger war Steuerberater. Als Berufsträger wußte er, worauf es bei Finanzbuchhaltung, Anlagenbuchhaltung und Lohn- und Gehaltsabrechnungen ankommt.  Und er wußte, was die Endkunden, seine Mandanten, von ihm haben wollten.

Er schränkte sein Angebot also sinnvoll auf das für Steuerberater notwendige Portfolio ein und organisierte die DATEV als Genossenschaft. Jeder, der ihre Angebote nutzen wollte, mußte seinen Genossenschaftsanteil leisten – und Berufsträger sein. Ein geniales Konzept, qualifizierte Kunden sorgen für qualifiziertes Feedback. Qualifizierte Kunden aber konnten vor allem die Leistung des Rechenzentrums „an den Mann“, also den Endkunden, bringen. Damit konnte die DATEV die Qualität der Gesamtleistung sicherstellen.

Die heutige „EDV“ ist ja auch deshalb so schlecht beleumundet, weil jeder Einfaltspinsel auch die komplexesten, schlechtesten und wartungsintensivsten Produkte „vertreiben“, installieren und pflegen darf. Über neunzig Prozent derjenigen, die Datenbanken installieren oder warten, wissen nicht, was das ist. Man mache sich einmal den Spaß und frage einen heutigen „Spezialisten“ nach ACID. Sebiger hat, mit seinen vier Gründungsmitgliedern, dafür gesorgt, daß, anstelle von aufgeblasenem „Qualitätsmanagement“, eine Qualitätskette entstand.

Das EVA – Prinzip

Mir liegt das FAZ-Geschwafel vom „Erfinder des Cloud-Computing“ noch gewaltig im Magen, vielleicht sollte ich das Paradigma von Datenverarbeitung beleuchten, wie es in den 60ern verstanden und umgesetzt wurde:  „Erfassung — Verarbeitung — Ausgabe“.  Nehmen wir einmal eine Lohnabrechnung:

Die Sachbearbeiterin sammelte und sortierte die Aufzeichnungen zur Arbeitszeit, typischerweise Stempelkarten, Krankmeldungen usw. usf..  Nun ging sie zu einem Erfassungsgerät, typischerweise einem erweiterten Fernschreiber mit Lochstreifenstanzer, gab einen „Vorlauf“ ein, in dem codiert stand, „Für den Juni 1968 bei der Krummes & Schwarz OHG sind nachfolgende Arbeitszeiten angefallen“, und dann, Zeile für Zeile, Personalnummer, Lohnart und Stundenzahl. Das war die Erfassung.

Die Rolle mit den Daten wurde im DATEV-Rechenzentrum zunächst eingelesen und auf einer Platte geparkt. Denn: Auf den großen IBM/360 lief nur genau ein Programm zur gleichen Zeit (für Fachkundige: Solche Dinge wie TSO lasse ich jetzt einmal weg). Das war wesentlich effizienter, als es in die hohlen Birnen heutiger Informatiker geht. Zwei Programme A und B laufen hintereinander deutlich schneller ab als gleichzeitig. Man baute also Stapel (einen „Batch“) mit Steuerkarten, „Starte das Lohnprogramm, lese den passenden Lochstreifenspool und arbeite jeden Vorlauf ab“. Anhand der Informationen aus dem Vorlauf wurden die korrespondieren Daten von lokalen Platten geholt, die Berechnung und die Druckaufbereitung konnte beginnen. Bereits zu einem sehr frühen Zeitpunkt erfolgte ab hier auch schon eine automatische Übermittlung der Daten an die Kranken Kassen – Kraken in elektronischer Form.

Das Resultat der Verarbeitung war die Ausgabe unter anderem in Form fertiger Lohnabrechnungen, Überweisungsträger für die Banken, Lohnjournale etc.. Die wurden zugeschickt.

Das war „EVA“.  EVA war ein langsames Geschäft, aber:  Sebiger machte wirklich „den Weg frei“: Er trat der Bundespost richtig in den Arsch.

Denn für den Transport der Lochstreifenrollen und den Versand der Auswertungen brauchte die heruntergekommene Schneckenpost gerne auch einmal eine Woche. Und die DATEV organisierte ihren eigenen Kurierdienst und so sparte man effektiv sechs nutzlose Tage pro Lauf ein.

Natürlich: Die Bundesrepublik Deutschland wäre nicht die Bundesrepublik Deutschland, wenn nicht sofort ein Gerichtsverfahren gegen die DATEV losgetreten worden wäre, eines, welches sich über mindestens 5 Jahre hinzog.

Heinz Sebiger aber blieb nicht stehen.

Und während Bundespostminister Kurt Dummle alles tat, um Unternehmenskunden immer weiter finanziell auszubluten und die Nation technisch immer weiter zu isolieren, stellte Sebiger kurzerhand auf Datenfernverarbeitung um.

Einem Verfahren, daß es kraft der Bemühungen der Bundespost eigentlich gar nicht geben konnte. Denn so, wie Hartmut Mehdorn die Bahninfrastruktur systematisch verwahrlost hat, so ließ seinerzeit die Bundespost das Telephonnetz herunterkommen. Sebiger hatte die Lösung und baute bundesweit ein Netz von „DFV-Konzentratoren“ auf.   Der typische Steuerberater verfügte mittlerweile über ein elektronisches Erfassungsterminal, welches die Nutzdaten auf einer Magnetbandkassette speicherte. Die konnte einfach verschickt werden, war vergleichsweise robust und man konnte sie auch einigermaßen schnell einlesen. Die Übertragung ins Nürnberger Rechenzentrum erfolgte über den nächstgelegenen „DFV-Konzentrator“. Dadurch fielen nur Nahbereichstarife an, vor allem aber „packte“ die regionale Verbindung wenigstens noch echte 1.200 Baud, in etwa also 145 Zeichen pro Sekunde.  Statt heute gängigem „DSL 50.000“ gab es damals also „Analog 1,2“.  Aber das Datenformat war intelligent organisiert, verschwuchtelte „XML“-Pappnasen gab es glücklicherweise nicht – und so dauerte ein umfangreicher Datenaustausch etwa eine halbe Stunde. In der Nacht erfolgte die Rückübertragung der Druckdaten – und der Steuerberater, welcher morgens seine Daten eingeschickt hatte, konnte am nächsten Tag seine Auswertungen im eigenen Hause drucken.

Sebiger hatte seine eigene Infrastruktur geschaffen.

Ganz wichtig dabei: Hätte Sebigers DATEV der Politik nicht gezeigt, was alles möglich ist, dann wären wir womöglich technologisch noch mehr Entwicklungsland als jetzt.  Es war nach meinem Empfinden die DATEV, welche den Begriff „Computer“ erst populär machte.

Paradigmenwechsel …

Bereits in den späten Siebzigerjahren erkannte die DATEV, „Die Batchverarbeitung und EVA sind am Ende ihrer Leistungsfähigkeit angelangt“.  Und wieder war es die DATEV, die, zaghaft zwar, über die neuen Möglichkeiten der Datenfernverarbeitung echte Dialoganwendungen anbot.  Als wirkliche Sensation wäre da die „Steuerrechtsdatenbank“ zu nennen, welche eine Volltextsuche in sämtlichen steuerrechtlichen Urteilen, inclusive derer des „Reichsfinanzhofs“, ermöglichte – und damit dem Steuerberater eine wirksame Waffe gegen die umfassenden Bibliotheken des feindlichen Finanzamts in die Hände gab. Wenn ich das persönlich bemerken darf: 1976 saß ich vor einem Terminal dieser Bauart und empfand es, gerade einmal 16jährig, als unvorstellbaren Triumph der Technik, als einer von vielen quasi gleichzeitig mit einem Großrechner zu „sprechen“, welcher im 500 Km entfernten Nürnberg stand.

Der Niedergang

Aus den USENET-Archiven habe ich gerade einen Artikel hervorgekramt, welchen ich vor ziemlich genau 16 Jahren verfaßt habe.  Warum eigentlich kein Vollzitat ?

Die Metastasen des DATEV-Elends
[...] 
So musste ich fruehzeitig Daten erfassen, und zwar zuerst an einer
Olivetti 1731 "Telebanda", einem, vom Antriebsmotor einmal abgesehen,
rein mechanischen Datenerfassungsgeraet. Die Ausgabe erfolgte auf ei-
nem modernen 8-Kanal - Lochstreifen, was gegenueber der Fernschreib-
norm einen gehoerigen Fortschritt darstellte.  Selbst Kleinschreibung
war damals schon moeglich.

Das Datenformat konnte natuerlich vom Rechenzentrum nicht so ohne wei-
teres geaendert werden, weil eine 'Programmaenderung' zwar nicht ge-
rade unmoeglich, aber doch recht aufwendig war.  Deswegen blieben so-
wohl Datenformat als auch die Logik der Erfassungsprogramme bis weit
in die 80er Jahre erhalten, denn so lange akzeptierte die DATEV Loch-
streifen.
Ab 1975 jedoch kamen die elektronischen Geraete in Mode, mein erstes
war eine Olivetti A5, mit Magnetkartenleser, acht freiprogrammier-
baren Lampen zur komfortablen, kontextsensitiven Bedienerfuehrung,
Kugelkopfdrucker und, Revolution, Magnetbandkassette nach ECMA 34 -
Standard.  Zwei KB Hauptspeicher, der Wahnsinn !
Die Aufzeichnungsnorm aenderte sich nie, die Erfassungslogik auch
nicht.  Denn diese Geraete wurden auch mit Lochstreifenstanzer an-
geboten.
1977 bekamen wir unsere KIENZLE 9027-40, mit Magnetbandkassette,
Datenfernuebertragungseinrichtung (BSC), Plasmabildschirm (12 Zeilen
zu je 40 Zeichen), Nadeldrucker sowie zwei 8-Zoll-Diskettenlauf-
werken. Mit seinem 8080 Prozessor und seinen 56 KB RAM war das Ge-
raet enorm leistungsfaehig.  Bis heute hat ein Kunde (Bauunterneh-
men in Oberhausen) dieses Geraet im Einsatz, weil ihm keine andere
Software so viel Komfort beim Verarbeiten seiner 'bergbauspezifi-
schen' Aufmasse biete, angeblich.  Ich sage aber jetzt nicht, wer
die SW geschrieben hat.  Und wieviele Kisten 'Koepi' hierfuer er-
forderlich waren.  Obwohl bereits diese Geraete weitaus leistungs-
faehiger waren als es ein PC jemals faktisch sein wuerde, blieb die
DATEV bei den sehr restriktiven Vorschriften fuer die Erfassungspro-
gramme.  Hintergrund war der, dass nicht einzelne Genossenschafts-
mitglieder wegen ihrer Hardware bevor- oder benachteiligt wuerden.
Immerhin kostete ein solches Geraet damals gut DM 50.000,--, was
heute leicht dem dreifachen entsprechen wuerde. Man wollte halt
nicht seine Mitglieder faktisch zwingen, jedes Jahr einen neuen Ap-
parat kaufen zu muessen.

Ein sehr vernuenftiger, sozialer Gedanke uebrigens, der auch einst
im Internet gepflegt wurde, bis die widerlichen PCPisser mit ihren
Shockflaschdreck dort einfielen wie die Schmeissfliegen.

Irgendwann einmal wurde es unserem lieben Gott zu bunt, und er woll-
te die Menschheit ausrotten.  Nachdem Sintflut und Pest eine Pleite
waren und auch das Aufkommen von Banken und Leasinggesellschaften
nicht das gewuenschte Ergebnis gezeitigt hatte, inspirierte der lie-
be Gott den PC, die uebelste aller Seuchen, die Perversion jeglichen
Ingenieursgeistes, die Brutstaette fuer Hirnfaeule.  Das perfideste
an diesen Apparaten war, dass sie die Hirne junger, unvernuenftiger,
modebewusster, karrieregeiler Jungspunde uebernahmen.

Und so kam es, dass der PC in die Steuerkanzleien einzog, zu ueber-
teuerten Preisen von einigen wenigen Herstellern angeboten, mit ei-
ner Software, die von DATEV angeboten wurde.
Weil die Vollidioten, die diese "Software" zusammenschmierten, keine
Erfahrung hatten und ausserdem nichts als pure Lust am Herumspielen,
sparte man sich ein sinnvolles Konzept und emulierte im Prinzip die
alten, proprietaeteren Erfassungsterminals und damit letzlich die
alten OLIVETTI - Lochstreifenstanzer.

Waehrend man aber mit einer alten Olivetti zuegig arbeiten konnte,
war die Arbeit am komfortablen PC umstaendlich, unergonomisch und
langsam.  Ja, das kann ich beurteilen, denn ich habe an allen bis-
her beschriebenen Systemen produktiv gearbeitet.

Wenn neuere PCs herauskamen, beispielsweise der hirnverbrannte 286er,
so gab es im Magenumdrehen eine neue Software, die den Performance-
gewinn ueberkompensierte.

Dabei wurde nach der "An- und Zubaumethode" gearbeitet:  Ein Pfeif-
chen hier, ein Klingelchen dort.  Vor allen Dingen wurde nie ein al-
ter Zopf abgeschnitten.

Viele Steuerberater wollten irgendwann einmal mehrere Arbeitsplaet-
ze haben, weil die Software so langsam geworden und so umstaendlich
zu bedienen war, dass mindestens drei notwendig wurden:  Zwei, um
das Buchungsvolumen zu bewaeltigen, und einer, an dem 'Spezialisten'
irgendetwas einstellten oder aufspielten.
Und so bot DATEV mit grossem Trara eine "Netzwerkversion" seiner
Weichhirnware an und waehlte, hierzu passend, das schlechteste al-
ler Netzwerkbetruebssysteme aus, das am Markt erhaeltlich war:
NOVELL.  Das sorgte dafuer, dass zwei Dinge regelrecht explodierten:
Zum einen die Anzahl der DATEV - PCs und zum anderen der Software-
umfang, den keiner mehr unter Kontrolle hatte.  Binnen kuerzester
Zeit war ein "486er" conditio sine qua non.

Dann kamen, Metastasen gleich, "Windows" und "Windows for playgroups".
Natuerlich gab es auch hierzu die passende DATEV - Software, denn wo
ein dicker Scheisshaufen liegt, da kackt auch alsbald ein anderer hin.
Weil aber die "Software" mittlerweile derart verbaut war, konnte ei-
ne Umstellung nur fehlschlagen.  So wurde den Genossenschaftsmitglie-
dern bis 1997 fuer teures Geld eine "Windows-Version" angeboten, die
in Wirklichkeit in der MSDOS-Kompatibilitaetsbox lief.  Und, selbst-
verstaendlich, wiederum alle bestehenden PCs zu Sondermuell machte.

Denn jetzt musste es ein schneller "Penzium" sein mit mindestens
64 MB Hauptspeicher.  Und wieder setzte die DATEV auf das mieseste
Trio infernal, was die Menschheit je hervorgebracht hat und auf das
nachfolgende Generationen spucken werden:  SINNLOS 95 als Arbeits-
platz, SINNLOS NT als Netzwerkserver und die PC - Architektur als
gemeinsame Basis.

Ja, so war das.  Und wie es heute ist, das hat Sven E. Lenz ja be-
reits aus seiner taeglichen Praxis beschrieben, ich zitiere noch
einmal:

> Was aber noch viel schlimmer als der Speicherplatz ist, ist die
> Laufzeit. Das ist wirklich unverschämt, was die Datev für den Preis
> abzieht.

Ueber die Zuverlaessigkeit und Administrierbarkeit hat sich Sven
innerhalb dieses Threads ebenfalls geaeussert.

Und meine Prognose ist:  Es wird immer schliemmer werden.  Bis sich
irgendwann einmal jemand durchsetzen kann, den ganzen Dreck in die
Tonne tritt und die PC-Abteilung ausraeuchert.

In Indien sollten ja jetzt Ausbildungsplaetze vakant werden.

Nun gut, es war ein sicherlich nicht immer sachlicher Artikel. Doch in der Rückschau sehe ich zweierlei: Zum einen entspricht die Darstellung in etwa der Wahrheit. Zum anderen habe ich mich geirrt in Bezug darauf, wie schlimm es einmal werden könnte.

Denn seit 1996 war der Lotse Sebiger im mehr als verdienten Ruhestand. Und wer auch immer den Fehler begangen hat: Es wurde ein ehemaliger Mitarbeiter des „Beratungshauses“ Ernst & Young zum Geschäftsführer „berufen“.

Zurück in die Steinzeit – ganz modern

Weil nämlich die DATEV – PC – Ware so grottenschlecht war (erfahrene DATEV-Anwender sehnen sich auch heute noch die alte, „schnelle“ Erfassungssoftware zurück), überlegte man sich „innovativ“:

„Nun haben wir ein erstklassiges Rechenzentrum und eine lausige PC-Abteilung.  Laßt uns mehr Leistung auf die lokalen Arbeitsplätze verlagern, dann brauchen wir das Rechenzentrum nicht mehr.

Dann nämlich hätten wir ein unternehmenseinheitliches Mittelmaß !

Onlinetransaktionen  – wer braucht das schon, wenn der PC alles selber kann ?“

Und man lagerte nicht nur die gesamte Datenverarbeitung, sondern auch deren Speicherung und Archivierung auf die sichere PC-Plattform aus.

Tja – das waren die „neuen Visionäre“, die die Renaissance der „lokalen Intelligenz“ am Arbeitsplatz begrüßten. Vernetzung? Wer braucht das schon. Und ja, es waren die gleichen Junggreise und Trendlemminge, die uns heute glauben machen wollen, man könne nicht mehr ohne LTE-„Handy“ aus dem Haus gehen.

Wie bekloppt dies wirklich ist, fällt eigentlich erst heutzutage auf. Warum muß ich aufwendigst eine komplette Großrechnersoftware auf jeden einzelnen verdammten PC installieren, obwohl eine moderne Rechenanlage leicht 100.000 Lohnabrechnungen pro Sekunde anfertigen kann?

Die DATEV war so blöd. Und selbstverständlich gab es Nachahmer, die noch inkompetenter waren: Das Bundesfinanzministerium mit seinem unsäglich peinlichen ‚ELSTER‘ – Programm zum Beispiel. Es soll auch Firmen geben, die spezielle „APPs“ programmieren, mit der ein armer Student der TU München nachgucken kann, was es in dieser Woche in der Mensa zu essen gibt. Vorausgesetzt natürlich, er besitzt so ein geschmackloses „Eifon“ oder einen häßlichen „Eifon-Klon“ der Machart „Android“.  Alle anderen werden sterben.

Intelligente, vorausschauende Menschen wie Heinz Sebiger haben die menschliche Lebenszeit als hohes Gut geachtet. Denn unsere Lebenszeit ist die einzige Ressource, die uns nicht unendlich zur Verfügung steht. Deswegen hat Sebiger eine Möglichkeit geschaffen, standardisierte Verfahren einmal sauber zu implementieren und Zehntausenden zur Verfügung zu stellen. Das ist ein sozialer Gedanke, der die Arbeitszeit des Menschen und damit den Menschen selbst achtet.

Werden Menschen gezwungen, für nichts und wieder nichts immer neue Programme zu installieren und zu pflegen, wird ihnen diese Lebenszeit abgezogen (ich denke gerade an die ‚grauen Herren‘ von Michael Ende).

Besonders fatal wirkte sich die „Heirat“ der DATEV mit dem schlechtesten, ungeeignetsten und unsicherstem Betriebssystem aus, welches man sich denken kann: „Microsoft Windows“. Es gibt keinen größeren Lebenszeitvernichter als „Microsoft Windows“. Dieser zusammengeschusterte Sondermüll hat weltweit schon bis jetzt mehr Lebenszeit sinnlos vernichtet als alle deutschen Vernichtungslager zusammen. Administration und quälende Langsamkeit infolge von eigentlich unnötigen „Schutzmaßnahmen“ sind die eine Sache. Aber dann kommen die Hypertechnokraten der „DATEV“ und setzen auf den mehrfach ‚aufgebohrten‘ Havaristen noch ihr eigenes „Datev Framework“ obenauf. In den letzten Monaten war ich mehrfach Zeuge von DATEV-Installationen, jeweils durchgeführt von ausgewiesenen Fachleuten. Da ist wirklich nichts, was man nicht mit einem Bulldozer sanieren könnte.

Die Anwender unterdessen klagen über mangelnde Ergonomie, Unterbrechung des Arbeitsflusses durch langsame Software, hohe Komplexität und häfige Abstürze.

Was von den Vätern Du ererbt – erwirb es, um es zu besitzen

Der Tod von Heinz Sebiger macht mich traurig, ich kann mich noch gut an ein zufälliges gemeinsames Mittagessen beim Nürnberger „Behringer“ erinnern:  „Nie die eigene Aufgabe aus den Augen verlieren“.

Und für die DATEV wünsche ich mir eine neue Führung, die das Potential des ursprünglichen DATEV – Modells von Heinz Sebiger begreift und mit aktueller Technologie erneut umsetzt.

Das wäre einmal eine „Digitale Transformation“ nach meinem Geschmack !

-hb

Hans Bonfigt
Dienstag, der 3. November 2015

Drei glorreiche Halunken (II)

ISDN, DSL und Robert T. Online:

Die Degeneration entläßt ihre Kinder

Ein Zweiäugiger sucht seinen Blinden

Mein Schwager ist ein „wert-konservativer“ Mensch.

Brahms, Violinkonzert? Ja, gerne! Aber „Deutsche Grammophon“ muß es sein, mit Herbert von Karajan, den Berliner Philharmonikern und Anne Sophie Mutter. Denn etwas „Besseres“ wird es niemals geben! Niemals nicht!

Und auch beim Telephonieren machte er keine Experimente: TELEKOM, das war das Beste und Einzige. Was der 280 SE in der Garage, war der Telekom-Anschluß im Wohnzimmer. Robust, unprätentiös, alternativlos.

Die Liebe zur Telekom wurde durch einige „Innovationen“ erschüttert: Vor allem zu nennen wäre der „Netz-Anrufbeantworter“, der, in seiner Standardeinstellung, ungefragt Anrufe entgegen nimmt und automatisch morgens um 03:30 durch hartnäckiges Klingeln signalisiert. Und morgens um 03:32 hat man genau die Ruhe und Gelassenheit, den nur 72 Stellen langen Deaktivierungscode einzugeben.

Als dann aber „Robert T. Online“, womöglich noch präsenter als „Dieter Bohlen“, im Rahmen des „Börsengangs“ der neuen „Telekom“ von allen freien Werbeflächen prangte, hatte mein Schwager die Nase gestrichen voll und kündigte. Ich kann das sehr gut verstehen. Muß man sich eigentlich jede Entgleisung gefallen lassen? Ich finde: NEIN. Denn sonst wird es schlimmer.

Und es war auch ohne „Robert“ schlimm genug: In Teil I habe ich mit dem grandiosen Scheitern von „EWS“ aufgehört. Die Telephoniesituation in Deutschland war katastrophal, die Fernverbindungen waren so schlecht, daß die DATEV, das seinerzeit mit Abstand größte gewerbliche Rechenzentrum Europas, in vielen größeren Städten „DFV-Konzentratoren“ errichtete, weil die Analogmodems trotz einer Geschwindigkeit von nur 1.200 Baud nicht mehr von Flensburg oder Dortmund nach Nürnberg durchkamen.

Und auch wenn die Leitung sauber war, dann gab es oft das berüchtigte „Gassenbesetzt“ nach der zweiten, dritten Vorwahlnummer. Es war deswegen oft üblich, eine Modemverbindung manuell, also mit Handapparat und Wählscheibe, aufzubauen. Alle beschriebenen Probleme betrafen naturgemäß nicht nur den Daten-, sondern auch den Sprachverkehr.

Ende der Achtziger Jahre setzten sich Nachrichtentechniker durch: Entgegen der damals durchaus gängigen Meinung, daß man eigentlich nur mit Koaxialkabel höhere Frequenzen sicher würde übertragen können, stellte man nämlich fest, daß auch mit der klassischen, verdrillten Kupferader, mit denen so gut wie alle Fernsprechteilnehmer am „HVT“ angeschlossen waren, ein wesentlich höheres Frequenzband übertragen werden konnte als die ursprünglich vorgesehenen 3,5 KHz.

Wenn man die Verspulung der Teilnehmeranschlußleitungen entfernte, konnte man leicht 128 KHz erreichen. Nun mögen Fledermäuse bei diesen Frequenzen kommunizieren, aber Menschen tun es nicht. Man kam daher auf die gleiche pfiffige Idee wie beim Rundfunksender, wo eine sehr hohe Trägerfrequenz im Rhythmus des niederfrequenten Sprachsignals moduliert wird.

Aber diesmal hatten die Erfinder weiter gedacht: Auch ein Radiosignal verliert mit Entfernung, Dämpfung und Störungen irreversibel an Qualität. Also tastete man die niederfrequenten Sprachdaten ab, wandelte die in einen Strom von Nullen und Einsen um und modulierte sie auf einen hochfrequenten Träger, um sie nun über eine Zweidrahtleitung verschicken zu können – mit dem Vorteil, daß an beliebigen Stellen im Netz durch De- und Remodulation eine hundertprozentig verlustfreie Auffrischung des Signals erreicht werden konnte. Die digitale Telephonie war geboren. Doch was nützt eine digitale Übertragung zum Hauptverteiler, wenn die Fernstrecken weiterhin analog betrieben werden? Deshalb wurde im Bereich des sog. „Backbones“ massiv digital aufgerüstet.

Vielleicht kommt dem einen oder anderen Leser die Frage in den Sinn, „Warum eine so hohe Bandbreite auf der Teilnehmerleitung belegen?“. Nun, die Architekten von ISDN hatten von vornherein im Auge, daß die Anzahl der Telephonanschlüsse explosiv steigen würde, die Kapazität der in der Erde vergrabenen Hauptkabel aber „hart“ durch die Anzahl der vorhandenen Doppeladern begrenzt war. So kam man auf die Idee, einen sogenannten „Zeitmultiplex“ einzusetzen, um eine einzelne Doppelader zweifach und ein Doppeladerpärchen sogar 32-fach zu nutzen. Das vielen bekannte Konzept mit den beiden B-Kanälen und dem D-Kanal war geboren.

Eine Kupfer-Doppelader wurde also dadurch zweifach genutzt, daß die Gesamtkapazität der Übertragungsstrecke in kleine Zeitscheiben aufgeteilt wurde, die alternierend den Nutzkanälen zugeteilt wurden. Trotz dieser Aufteilung erreichte man eine für Telephonate völlig ausreichende Datenrate von 64 KBit/s pro Kanal.  Bei Telephonieanwendungen wird das Sprachsignal 8.000 mal pro Sekunde abgetastet, und zwar mit einer Quantisierungsrate von 8 Bit, sprich, es existieren 256 mögliche Werte für die Momentanlautstärke des Signals zum Zeitpunkt einer jeden Abtastung. Dies gewährleistet, zusammen mit einer gewissen Pre- und Deemphasis, auch unter heutigen Gesichtspunkten eine gute bis sehr gute Gesprächsqualität.

Gegenüber dem aktuellen „Voice over IP“ bietet ISDN einen unschlagbaren Vorteil: Die Plesiochronizität, vereinfacht: „Fast-Synchronizität“ innerhalb des gesamten Landesnetzes. Sprich:  Eine zu übertragende Zeitscheibe landet mit Lichtgeschwindigkeit beim Empfänger. Echos, wie man sie bei anderen Techniken kennt, sind zwar vorhanden, werden aber wegen der faktisch nicht vorhandenen Zeitverzögerung als solche nicht wahrgenommen!

Zuguterletzt konnte man ISDN erstklassig dazu verwenden, Daten zu übertragen, weil zum einen keine zusätzlichen, aufwendigen Modems mehr benötigt wurden – man konnte die Daten mit 64 oder sogar 128 KBit/s (bei Bündelung zweier B-Kanäle) direkt auf die Strecke schicken. Ohne Verluste, ohne zeitaufwendigen Verbindungsaufbau, mit automatischer Vermittlung.

ISDN war ein großer Entwurf und bis ins Detail von Nachrichtentechnikern durchdacht. Das mag damit zusammenhängen, daß SIEMENS zum erstenmal ernsthafte Konkurrenz hatte, nämlich NIXDORF. Brancheninsider witzelten gerne, „ISDN“ heiße nicht „Integrated Services Digital Network“, sondern in Wahrheit, „In Sachen Digitalisierung: Nixdorf“. Denn in der Tat setzte beispielweise die „Digitale Vermittlungsstelle NIXDORF 8818“ national und international Maßstäbe. Vielerorts ist dieses System noch im Produktiveinsatz.

„ISDN“ – das VW 411 – Protokoll

11 Jahre zu spät und 4.000 Mark zu teuer: Der VW 411

So witzelten Kenner über ISDN. Dennoch sollte festgehalten werden: Auch wenn ISDN eine Dekade zu spät kam, so war sie bereits Technik aus dem aktuellen Jahrhundert, während die bisherige Telephontechnologie auf Erfindungen basierte, die in den 1880er Jahren bereits Serienreife erreicht hatten.

Dann kamen der Börsengang und die „Privatisierung“

Und Robert T. Online schickte sich an, aus einer soliden technischen Basis wieder ein Mickymausprodukt zu machen – passend zur „Stilikone“.

Es fing damit an, daß die neu privatisierte „Telekom“ bei ISDN-Datenübertragungen auf Kompression verzichtete, welche bei „normalen“ Analogmodems gang und gäbe war. So konnte es leicht passieren, daß man mit einem guten Analogmodem die dreifache Datenrate erreichte wie mit ISDN. Es wäre nun ein Leichtes für die Telekom gewesen, die Kompression zu aktivieren – aber der Endkunde wurde mit schwammigen Ausreden an der Nase herumgeführt. Aber es kommt noch knüppeldicke: Was die Telekom, genauer die T-ochter T-online in Weiterstadt, so gar nicht mochte, war Wettbewerb.

Privatisierung ja, speziell beim Herausekeln der Mitarbeiter, das ist ja wohl klar – aber wir wollen doch nicht im Wettbewerb stehen! Also verramschte die Telekom ihre ISDN-Anschlüsse, welche aus Volkseigentum heraus erstellt worden waren, zu einem Spottpreis, den kaum ein Konkurrent halten konnte.  Reihenweise gingen die Anbieter in Konkurs.

Als es dann faktisch nur noch eine Handvoll Internetprovider gab, fiel der Telekom urplötzlich auf, „Hilfe, die Notrufe könnten ja behindert werden!!!“. Na sowas, auf einmal, urplötzlich und nicht vorhersehbar. Selbstredend mußten die ISDN-Gebühren erhöht und der Kunde zu DSL genötigt werden.

DSL setzt nochmals „einen drauf“, indem die Teilnehmeranschlußleitung unterteilt wird: Der Bereich von 0 bis 140 KHz wird für ISDN reserviert und der Bereich ab 140 KHz für DSL, den seinerzeit aktuellen Stand der Datenübertragung über Kupfer-Doppeladern.

Die Erfinder von ISDN wußten damals genau, was sie taten, als sie die obere Grenzfrequenz von ISDN bei der Marke von 140 KHz setzten. Dieser Bereich ist einigermaßen dämpfungsfrei und kann als „Filetstückchen“ der Leitung bezeichnet werden, alles, was darüber hinausgeht, ist eher Schlachtabfall.

Die Inhaber von Analoganschlüssen hatten es da besser: Für ihre Telephonate brauchten sie ja nur den Bereich bis 3,5 KHz, so daß zusätzlich noch ein hochwertiges Frequenzband von mehr als 130 KHz zur Verfügung stand. In einfachen Worten: DSL, kombiniert mit ISDN, weist entweder eine wesentlich geringere Datentransferrate oder aber eine wesentlich geringere Reichweite auf. Das wurmte die Telekom ungemein, und so wurde, zum erheblichen Nachteil aller Analogkunden, das freie Frequenzband ganz bewußt ausgespart, denn „Unsere ISDN-Kunden sollen es nicht schlechter haben als die Analogkunden„. Weil aber die Telekom federführend war bei der „letzten Meile“ und den Hauptverteilern, mußte sich der – gerade noch verbliebene – Wettbewerb auf den unsäglichen nationalen Alleingang „Annex B“ einstellen.

Besonders ärgerlich dabei ist das Geheule diverser Verantwortlicher, man würde ja so gerne entlegene Gebiete anbinden, wenn man denn nur könnte…

Wie schamlos und dreist gelogen und betrogen wurde, kann man daran sehen, wie ein neues „Produkt“ realisiert wurde:  Mit einem ebenfalls unnötigem nationalen Alleingang „Annex J“ wird nun die gesamte Bandbreite der Teilnehmerleitung für Datenübertragung genutzt. Und siehe da: Urplötzlich sind viele entlegene Haushalte per DSL erreichbar, mit akzeptablen Datenraten! Wer hätte das gedacht?

Ja, wer? Eigentlich wußten es alle. Denn die ersten DSL-Splitter, die die Telekom ausgeliefert hatte, verfügten noch über einen Schalter „Analog/ISDN“. Die eine Sache ist, eine riesige Kundengruppe dreist abzukochen. Die andere Sache ist, dies mit Heerscharen von Mitwissern zu tun. Aber es hat sich nie jemand aufgeregt.

In Abwandlung von Karl Krauss:
Der T-Online – Benutzer säuft willig den Kakao aus, durch den man ihn vorher gezogen hat.

Schalten Sie auch demnächst wieder ein, wenn wir hier einen vorsichtigen Blick werfen auf die aktuellen, atemberaubenden Spitzenleistungen des dreistesten Leistungsverweigerers seit der Deutschen Bahn.

hb

Bauer-GoosEin wenig fühle ich mich als Informatik-Pionier der dritten Generation. Und denke gerne an meine ersten großen Projekte in den Siebziger Jahren des letzten Jahrhunderts zurück, die START, ITS, Dispol oder SNATCH hießen.

Für die zweite Generation der IT-Pioniere steht in meiner privaten Ordnung mein verehrter Professor F.-L. Bauer, bei dem ich 1969 im Herbstsemester an der TUM (damals noch TH für technische Hochschule) als Student der Mathematik meine erste Vorlesung in meinem Nebenfach Informatik hören durfte. Das abgebildete Buch ist übrigens mein erkennbar viel gelesenes persönliches Exemplar aus dieser Zeit.

Damals war das Thema Informatik etwas ganz Neues für mich. Und wahrscheinlich habe ich das Fach gewählt, weil ich nicht wusste, was es ist. Einfach, weil es irgendwie in die Zukunft gewiesen hat.

In der schönen Vorlesung von Professor Bauer habe ich so fast folgerichtig nicht alles von dem verstanden, was er uns mitgeben wollte. Sehr zu meinem Leidwesen.

BauerIn den letzten Jahren durfte ich Professor Bauer dann bei mehreren Führungen im Deutschen Museum in der Abteilung Informatik begleiten, die er für uns (InterFace AG) und unsere Kunden, Freunde und Partner gehalten hat. Da ist mir vieles klar geworden, was ich als junger Student noch nicht verstehen konnte.

Zur ersten Generation der Informatik zähle ich übrigens Menschen wie Konrad Zuse, den ich am Ende der InterFace-Konrad-Zuse-Radtour 1986 kennen gelernt habe. Er hat uns dort toll empfangen, eine wunderbare Rede gehalten und uns das abgebildete Bild beim großen Empfang in Hünfeld geschenkt, das heute bei der InterFace AG in Unterhaching hängt.

K_ZuseHeute ist die Informatik um „Lichtjahre“ weiter. Ich war und bin mit Herzblut Informatiker. Die Sinnkopplung zwischen meiner Arbeit, meinem Leben und der Gesellschaft war mir immer wichtig. Deshalb ist für mich die Entwicklung der Informatik wie ihre Zukunft wichtig. Beiträge von Dritten zu diesem Thema von herausragenden Vertretern der Informatik interessieren mich natürlich ganz besonders.

So habe ich in der 14. Ausgabe des TUM Magazins „Faszination Forschung“, einem hochwertigen Hochglanz-Magazin der TU München, in der Ausgabe vom Juni 2014 zum Thema „informatics“ den Artikel „Connecting the World“ gefunden.

Der Trailer zum Artikel liest sich so:

In future, everyday objects will be linked via the Internet, enabling them to interact autonomously. To realize this vision, computer scientists are developing virtual models they can use to test practical implementation and monitor the security, safety and reliability of connected systems

Der Artikel beschreibt die Zukunft der Informatik auf der technischen Ebene. Es geht hier vor allem um das Zusammenwirken von Systemen in einer zukünftigen „cyber-physikalischen Welt“. Da ich den Artikel lesenswert und als eine gute Diskussionsbasis empfinde, biete ich ihn hier zum „Download“ an: Cyber-Physical (546).

Mein Freund und Partner im Aufsichtsrat der InterFace AG, Professor Dr. Manfred Broy, wird dort zitiert und abgebildet. Es ist davon auszugehen, dass die Aussagen im Artikel zum Teil Ergebnisse der von ihm geleiteten Forschungsarbeit sind.

Ich bin mit dem Inhalt des Artikels nicht ganz einverstanden. Sicher wird es noch erstaunliche Entwicklungen in unserer Technologie geben, vielleicht noch verblüffender als die im Artikel beschriebenen. Nur an die Vorhersage der Anwendungsfelder glaube ich nicht, da ich annehme, dass die Gesellschaft der Zukunft ganz andere Herausforderungen haben wird, als wir sie uns heute vorstellen. Und wir dann sicher sehr aufregende Lösungen finden werden, die sich aber nicht in diese „schönen neuen Welt“ bewegen werden.

Spannend (und für mich bedenklich) wird es aber, wenn man die Entgegnung von Dr. Werner Meixner liest. Dr. Meixner ist wissenschaftlicher Mitarbeiter an der TUM und hat wohl in in einem Vortrag niedergelegt, wie dieser Artikel „auf jemanden (ihn) wirkt, der den Sinn seines Berufslebens wesentlich aus einer Faszination für Naturwissenschaften als einem humanistischen Wert versteht“.

Dieser Vortrag ist auch der Inhalt eines offenen Briefes an Professor Dr. Manfred Broy und hat zum Thema:
Wohin geht die Informatik?
Auch hier der Link zum Download des offenen Briefes von Dr. Meixner:
Wohin geht die Informatik? (606)

Um den IF-Blog-Leser auch hier zum Lesen anzuregen zitiere ich einen kurzen aber vielleicht zentralen Auszug aus diesem Artikel:

Jede menschliche Entscheidung, und das wissen Konzerne ganz genau, beinhaltet einen Wertschöpfungsakt und ist also wertvoll an sich. Das Wichtigste dabei ist, dass der Eigentümer dieses produzierten Wertes derjenige ist, der die Entscheidung getroffen hat und verantwortet. Dies genau ist die Bedeutung des Privaten, aus der auch die unbedingte Schutzwürdigkeit des Privaten folgt. Jegliche wirtschaftliche Tätigkeit ergibt sich daraus.

Ich verstehe die zitierte Aussage nicht so ganz. Wenn ich versuche, sie dialektisch zu analysieren, so meine ich einen willkürlichen Wahrheitsanspruch zu entdecken, der mir leicht widerlegbar scheint.

🙂 Ich schreibe aber an niemanden offene Briefe, da ich ein Blogger bin. Und BLogger schreiben keine öffentlichen Briefe sondern bloggen. So veröffentliche ich meine Meinung in meinen Blog.

Also:
Den Artikel im TUM-Magazin finde ich zu eindimensional technologisch, der „offene Brief“ hat mich bestürzt.

In beiden Artikeln nehme ich ein Welt- und Menschenbild wahr, das der von mir als real wahr genommenen Wirklichkeit nicht gerecht wird. Der erste erinnert mich ein wenig an die (damals ja von wirtschaftlichen Interessen gesteuerte) Euphorie zur Kernkraft vor mehr als 50 Jahren, der andere überhöht die Bedeutung des Privaten und lamentiert über dessen Schutzwürdigkeit, die nach meiner Lebenserfahrung und meinem Wissen aus Anthropologie, Gehirnforschung, Psychologie, Philosophie aber auch Soziologie überhaupt nicht zu rechtfertigen ist. Sogar mit theologischen Begründungen dürfte dies misslingen.

Die Herausforderungen für uns alle werden zeitnah andere sein als die beschriebenen. Nicht das Traumbild einer total vernetzten Welt wird uns helfen, diesen Herausforderungen zu begegnen noch der krampfhafte Schutz unserer privaten Daten, die letztendlich eh nicht geschützt werden können.

Die aktuellen Nachrichten, sei es von den Fronten der IS, von den sonstigen Kriegen mit ihren Folgen, von den Flüchtlingen die in die EU drängen, von dem Attentat aus Frankreich oder zu #Pegida und #Anti-Pegida in Deutschland sind deutliche Anzeichen einer sich beschleunigt verändernden Realität, die wir akzeptieren müssen. Und mit der wir vernünftig umgehen müssen.

Die Vorherrschaft der globalen Wirtschaft, die total freie Märkte für Waren schafft aber die Arbeit unfrei lässt (eine Näherin aus Bangladesch kann ihren Arbeitsplatz nicht nach Europa verlagern, obwohl die von ihr genähten Kleider nur dort verkauft werden), wird zu Ende gehen. Die Reichen in dieser Welt (wir) beuten die Armen mehr in enormen Masse aus und die Anzahl der Sklaven ist höher als je zuvor in der Geschichte der Menschheit.

Die durch diese Gegensätze generierten Spannungen dürften sich wie Erdbeben entladen. Das beginnt schon jetzt. Die Verschlechterung der Rahmenbedingungen in vielen Regionen (Klima, Wasser, Ernährung und Böden) entwickelt sich geometrisch wachsend und wird uns früher oder später in kritische Bereiche bringen. Die Spannungen werden immer spürbarer.

So könnte es ganz schnell gehen, dass wir sehr unsanft aus unseren aktuellen Träumen geweckt werden. Meine Hoffnung ist, dass uns auch hier die Informatik helfen wird. Natürlich weiß ich aber noch nicht wie und kann mir dies nur so ungefähr vorstellen.

Ich glaube, dass die IKT einen positiven Beitrag für die menschliche Zukunft nur dann leisten kann, wenn es ihr gelingt, vor allem einen hochkomplexen, weltweiten, redlichen Diskurs zu unterstützen, der eindringliche Ergebnisse bringt. Nur so kann eine Konsensbildung gelingen, die nicht auf Feindseligkeit und Ausbeutung beruht sondern die Menschen (uns) auf und für die notwendige Veränderung von Denken und Leben vorbereitet.

Nur so kann die globale Gesellschaft mit möglichst wenig Gewalt verändert werden. Nur so kann die heutige Art des Wirtschaftens in eine „Gemeinwohl-Ökonomie“ transformiert werden. Und nur so können wir Lösungen für ein besseres Copyright- und Patentwesen finden. Durch die Weisheit der Vielen und gegen die Einfalt des Einzelnen.

[Hinweis: Unsere Kollegen von Youmigo.de haben das vielleicht verstanden und eine wunderbare APP zur „Weltverständigung“ geschrieben.]

Dem Artikel im TUM Magazin würde ich entgegen halten, dass wir keine Luxuswelt von vernetzter Technologie brauchen, die uns letztendlich noch mehr versklavt. Zu Werner Meixners Aussagen meine ich, dass er das Thema „pretty good privacy“ in Form eines Glaubensbekenntnis überhöht, dieses aber nicht glaubhaft begründet sondern im dogmatischen verbleibt.

Und ich meine, dass in Zukunft uns Menschen unsere Privatsphäre ziemlich egal sein wird. Weil wir ganz andere Probleme haben werden. Und wir Menschen uns immer im Spannungsfeld Individualität und Kollektivität bewegen werden. So oder so. Mit Datenschutz und ohne. Und das schaffen wir nur auf eine dem Menschen würdige Art, wenn wir auf Werte basiert denken und handeln. Dogmen und deren gebetsmühlenartige Verkündung hilft uns nicht.

Noch ein Satz zu den persönlichen Daten. Informationen über Menschen zu sammeln ist doch ein ganz normaler Teil der menschlichen Zivilisation, die sich ja aus guten Gründen Administrationen geschaffen hat und so z.B. die Geburt eines Kindes protokolliert. Natürlich hat der technologische Fortschritt seit der Erfindung von Karteikästen und -karten unglaubliches ermöglicht.

Sicher lässt sich mit „neuen“ Technologien viel mehr Daten sammeln als früher. Das ist aber nur die Fortsetzung einer Entwicklung, die begonnen hat mit der Erfindung von der Schrift und Papier als Möglichkeit, Informationen aufzuzeichnen und weiterzugeben. Mag sein, dass die Erfindung von Dateikasten und -Karten (sicher eine Erfindung von IT), einen Schub gebracht hat. Und die IKT dann nochmal.

Aber: Hat die IKT hier wirklich so viel verändert? Und wie groß ist der Schaden? Und ist es nicht wunderschön, dass Informationen generell durch Whistle-Blower veröffentlicht werden können und die IT dies noch viel leichter gemacht hat?

Ich sehe eine Bedrohung nur dann, wenn sich „unmoralische Systeme“ (wie z.B. ein Unrechtssystem) der Daten bemächtigen. Aber dann hilft uns auch kein Datenschutz. Vielmehr müssen wir vermeiden, dass wir unter die Kontrolle „unmoralischer Systeme“ geraten. Und das ist eine permanente gesellschaftliche Herausforderung für jeden Bürger. Der „Kommerziellen Nutzung“ von Daten zu widerstehen geht sowieso nur durch persönliche Autonomie, aber das war und ist mit der andauernden Manipulationsbedrohung durch Marketing genauso. Und wenn man unsinnig konsuminert, kostet das doch nur Geld und selten das Leben.

Persönlich empfinde ich den vermeidbaren Schaden, den uns die „alten“ Technologien der letzten 100 Jahre zugefügt haben und heute permanent zufügen, deutlich höher als den Schaden, den die neue Technologie IKT in den letzten 25 Jahren generiert hat.

Die Technologien des letzten Jahrhunderts haben uns zum Beispiel die Ruhe geraubt. Wer kennt noch einen Ort in München, der frei von „technischem Rauschen“ ist? Die Lärmverschmutzung ist jedoch ein wirklich harmloses Beispiel im Verhältnis zu anderen Folgen wie den 1,2 Millionen Verkehrstoten pro Jahr – weltweit verursacht durch den motorisierten Individual-Verkehr. Und die wir auch sonst nur zu gut kennen aber gerne ignorieren wie den Kohlendioxid-Gehalt in der Atmosphäre.

So wie wir uns an die grenzenlose Lärm-Emissionen gewöhnt haben, so haben wir uns doch schon lange unsere (ja trotz allem immer nur sehr eingeschränkte) Transparenz akzeptiert. Eingeschränkt, weil auch die vernetzen Systeme der Industrie und Welt 4.0 kaum unsere Gedanken lesen werden können. Und weil wir uns eh zu autonomen Menschen in einem selbstbestimmten kollektiven Rahmen entwickeln müssen, wenn wir überleben wollen.

Sind so gesehen die permanenten Forderungen nach Geheimhaltung von Daten nicht nur ein Protestschrei, weil man ja gegen irgendwas sein will und muss, sich aber nicht traut, gegen die wahren Bedrohungen aufzustehen?

Aber vergessen wir nicht:

Nur die neuen Technologien bieten uns die Chance, uns zu vernetzen und unsere Gedanken zu veröffentlichen. Und so gegen Ignoranz, Intoleranz, Dogmen, Unvernunft und Dummheit und manches mehr dieser Art zu wehren.

RMD