Hans Bonfigt
Samstag, der 27. August 2016

Am Beispiel eines Pioniers

Heinz Sebiger ist diese Woche verstorben.

1966 gründete er mit vier Kollegen ein genossenschaftlich organisiertes Unternehmen.

Als er nach ziemlich genau 30 Jahren die Leitung der DATEV abgab, war diese das größte gewerbliche Rechenzentrum Europas. Kraft der Gnade der frühen Geburt kann ich aus eigener Erfahrung hinzufügen: Der Erfolg der DATEV gründete sich fast ausschließlich auf der Qualität und Zuverlässigkeit ihrer Leistung.

Die „Frankfurter Allgemeine“ verstieg sich zu der Behauptung, Sebiger habe das „Cloud Computing“ erfunden und markiert damit einen vorläufigen Tiefststand journalistischen Niveaus. Warum plappern junge Leute immer so einen irrelevanten Blödsinn? Und plötzlich wird mir klar:

Sie kennen die Computergeschichte nicht. Ist doch auch nach vollziehbar: Computer wurden seinerzeit als „Arbeitstiere“ genutzt, quasi wie Bagger. Sündhaft teuer, wartungsintensiv, mit wenig Attraktivität für die moderne Bespaßtwerdengesellschaft. Im Gegensatz zum „Porsche“: Vom Konzept her billig, vom Lärm her prollig – und ein absolutes Objekt der Begierde. Die heutigen, peinlichen Daddelkisten sind so sinnvoll wie ein Porsche, die damaligen Computer waren so sinnvoll wie ein Bagger.

Wie jeder Pionier war Heinz Sebiger kein „Innovator“, sondern hat vorhandener Technologie den Weg geebnet.  Denn Fortschritt und Innovation sind heutzutage meist Gegensätze.

Rechenzentren gab es nämlich Mitte der sechziger Jahre viele, hier ein Link zu einem Beitrag über das ZBL-Rechenzentrum in Schwerte:  http://www.lokalkompass.de/schwerte/leute/revolutionaer-der-lochkarte-horst-haake-feiert-heute-seinen-90-geburtstag-d496803.html

Sowohl den Herrn Haake von ZBL als auch Herrn Sebiger kenne ich persönlich — und für beide Unternehmen habe ich Datenerfassungsprogramme und Schnittstellen entwickelt. Vor diesem Hintergrund möge der Leser mir abnehmen: Die Produkte waren ähnlich, die Verfahren waren ähnlich. Horst Haake mußte sein Unternehmen Mitte der achtziger Jahre schließen, während die DATEV den Zenit ihres Erfolges genießen konnte.

Was hatte Sebiger anders gemacht ?

Sebiger war Steuerberater. Als Berufsträger wußte er, worauf es bei Finanzbuchhaltung, Anlagenbuchhaltung und Lohn- und Gehaltsabrechnungen ankommt.  Und er wußte, was die Endkunden, seine Mandanten, von ihm haben wollten.

Er schränkte sein Angebot also sinnvoll auf das für Steuerberater notwendige Portfolio ein und organisierte die DATEV als Genossenschaft. Jeder, der ihre Angebote nutzen wollte, mußte seinen Genossenschaftsanteil leisten – und Berufsträger sein. Ein geniales Konzept, qualifizierte Kunden sorgen für qualifiziertes Feedback. Qualifizierte Kunden aber konnten vor allem die Leistung des Rechenzentrums „an den Mann“, also den Endkunden, bringen. Damit konnte die DATEV die Qualität der Gesamtleistung sicherstellen.

Die heutige „EDV“ ist ja auch deshalb so schlecht beleumundet, weil jeder Einfaltspinsel auch die komplexesten, schlechtesten und wartungsintensivsten Produkte „vertreiben“, installieren und pflegen darf. Über neunzig Prozent derjenigen, die Datenbanken installieren oder warten, wissen nicht, was das ist. Man mache sich einmal den Spaß und frage einen heutigen „Spezialisten“ nach ACID. Sebiger hat, mit seinen vier Gründungsmitgliedern, dafür gesorgt, daß, anstelle von aufgeblasenem „Qualitätsmanagement“, eine Qualitätskette entstand.

Das EVA – Prinzip

Mir liegt das FAZ-Geschwafel vom „Erfinder des Cloud-Computing“ noch gewaltig im Magen, vielleicht sollte ich das Paradigma von Datenverarbeitung beleuchten, wie es in den 60ern verstanden und umgesetzt wurde:  „Erfassung — Verarbeitung — Ausgabe“.  Nehmen wir einmal eine Lohnabrechnung:

Die Sachbearbeiterin sammelte und sortierte die Aufzeichnungen zur Arbeitszeit, typischerweise Stempelkarten, Krankmeldungen usw. usf..  Nun ging sie zu einem Erfassungsgerät, typischerweise einem erweiterten Fernschreiber mit Lochstreifenstanzer, gab einen „Vorlauf“ ein, in dem codiert stand, „Für den Juni 1968 bei der Krummes & Schwarz OHG sind nachfolgende Arbeitszeiten angefallen“, und dann, Zeile für Zeile, Personalnummer, Lohnart und Stundenzahl. Das war die Erfassung.

Die Rolle mit den Daten wurde im DATEV-Rechenzentrum zunächst eingelesen und auf einer Platte geparkt. Denn: Auf den großen IBM/360 lief nur genau ein Programm zur gleichen Zeit (für Fachkundige: Solche Dinge wie TSO lasse ich jetzt einmal weg). Das war wesentlich effizienter, als es in die hohlen Birnen heutiger Informatiker geht. Zwei Programme A und B laufen hintereinander deutlich schneller ab als gleichzeitig. Man baute also Stapel (einen „Batch“) mit Steuerkarten, „Starte das Lohnprogramm, lese den passenden Lochstreifenspool und arbeite jeden Vorlauf ab“. Anhand der Informationen aus dem Vorlauf wurden die korrespondieren Daten von lokalen Platten geholt, die Berechnung und die Druckaufbereitung konnte beginnen. Bereits zu einem sehr frühen Zeitpunkt erfolgte ab hier auch schon eine automatische Übermittlung der Daten an die Kranken Kassen – Kraken in elektronischer Form.

Das Resultat der Verarbeitung war die Ausgabe unter anderem in Form fertiger Lohnabrechnungen, Überweisungsträger für die Banken, Lohnjournale etc.. Die wurden zugeschickt.

Das war „EVA“.  EVA war ein langsames Geschäft, aber:  Sebiger machte wirklich „den Weg frei“: Er trat der Bundespost richtig in den Arsch.

Denn für den Transport der Lochstreifenrollen und den Versand der Auswertungen brauchte die heruntergekommene Schneckenpost gerne auch einmal eine Woche. Und die DATEV organisierte ihren eigenen Kurierdienst und so sparte man effektiv sechs nutzlose Tage pro Lauf ein.

Natürlich: Die Bundesrepublik Deutschland wäre nicht die Bundesrepublik Deutschland, wenn nicht sofort ein Gerichtsverfahren gegen die DATEV losgetreten worden wäre, eines, welches sich über mindestens 5 Jahre hinzog.

Heinz Sebiger aber blieb nicht stehen.

Und während Bundespostminister Kurt Dummle alles tat, um Unternehmenskunden immer weiter finanziell auszubluten und die Nation technisch immer weiter zu isolieren, stellte Sebiger kurzerhand auf Datenfernverarbeitung um.

Einem Verfahren, daß es kraft der Bemühungen der Bundespost eigentlich gar nicht geben konnte. Denn so, wie Hartmut Mehdorn die Bahninfrastruktur systematisch verwahrlost hat, so ließ seinerzeit die Bundespost das Telephonnetz herunterkommen. Sebiger hatte die Lösung und baute bundesweit ein Netz von „DFV-Konzentratoren“ auf.   Der typische Steuerberater verfügte mittlerweile über ein elektronisches Erfassungsterminal, welches die Nutzdaten auf einer Magnetbandkassette speicherte. Die konnte einfach verschickt werden, war vergleichsweise robust und man konnte sie auch einigermaßen schnell einlesen. Die Übertragung ins Nürnberger Rechenzentrum erfolgte über den nächstgelegenen „DFV-Konzentrator“. Dadurch fielen nur Nahbereichstarife an, vor allem aber „packte“ die regionale Verbindung wenigstens noch echte 1.200 Baud, in etwa also 145 Zeichen pro Sekunde.  Statt heute gängigem „DSL 50.000“ gab es damals also „Analog 1,2“.  Aber das Datenformat war intelligent organisiert, verschwuchtelte „XML“-Pappnasen gab es glücklicherweise nicht – und so dauerte ein umfangreicher Datenaustausch etwa eine halbe Stunde. In der Nacht erfolgte die Rückübertragung der Druckdaten – und der Steuerberater, welcher morgens seine Daten eingeschickt hatte, konnte am nächsten Tag seine Auswertungen im eigenen Hause drucken.

Sebiger hatte seine eigene Infrastruktur geschaffen.

Ganz wichtig dabei: Hätte Sebigers DATEV der Politik nicht gezeigt, was alles möglich ist, dann wären wir womöglich technologisch noch mehr Entwicklungsland als jetzt.  Es war nach meinem Empfinden die DATEV, welche den Begriff „Computer“ erst populär machte.

Paradigmenwechsel …

Bereits in den späten Siebzigerjahren erkannte die DATEV, „Die Batchverarbeitung und EVA sind am Ende ihrer Leistungsfähigkeit angelangt“.  Und wieder war es die DATEV, die, zaghaft zwar, über die neuen Möglichkeiten der Datenfernverarbeitung echte Dialoganwendungen anbot.  Als wirkliche Sensation wäre da die „Steuerrechtsdatenbank“ zu nennen, welche eine Volltextsuche in sämtlichen steuerrechtlichen Urteilen, inclusive derer des „Reichsfinanzhofs“, ermöglichte – und damit dem Steuerberater eine wirksame Waffe gegen die umfassenden Bibliotheken des feindlichen Finanzamts in die Hände gab. Wenn ich das persönlich bemerken darf: 1976 saß ich vor einem Terminal dieser Bauart und empfand es, gerade einmal 16jährig, als unvorstellbaren Triumph der Technik, als einer von vielen quasi gleichzeitig mit einem Großrechner zu „sprechen“, welcher im 500 Km entfernten Nürnberg stand.

Der Niedergang

Aus den USENET-Archiven habe ich gerade einen Artikel hervorgekramt, welchen ich vor ziemlich genau 16 Jahren verfaßt habe.  Warum eigentlich kein Vollzitat ?

Die Metastasen des DATEV-Elends
[...] 
So musste ich fruehzeitig Daten erfassen, und zwar zuerst an einer
Olivetti 1731 "Telebanda", einem, vom Antriebsmotor einmal abgesehen,
rein mechanischen Datenerfassungsgeraet. Die Ausgabe erfolgte auf ei-
nem modernen 8-Kanal - Lochstreifen, was gegenueber der Fernschreib-
norm einen gehoerigen Fortschritt darstellte.  Selbst Kleinschreibung
war damals schon moeglich.

Das Datenformat konnte natuerlich vom Rechenzentrum nicht so ohne wei-
teres geaendert werden, weil eine 'Programmaenderung' zwar nicht ge-
rade unmoeglich, aber doch recht aufwendig war.  Deswegen blieben so-
wohl Datenformat als auch die Logik der Erfassungsprogramme bis weit
in die 80er Jahre erhalten, denn so lange akzeptierte die DATEV Loch-
streifen.
Ab 1975 jedoch kamen die elektronischen Geraete in Mode, mein erstes
war eine Olivetti A5, mit Magnetkartenleser, acht freiprogrammier-
baren Lampen zur komfortablen, kontextsensitiven Bedienerfuehrung,
Kugelkopfdrucker und, Revolution, Magnetbandkassette nach ECMA 34 -
Standard.  Zwei KB Hauptspeicher, der Wahnsinn !
Die Aufzeichnungsnorm aenderte sich nie, die Erfassungslogik auch
nicht.  Denn diese Geraete wurden auch mit Lochstreifenstanzer an-
geboten.
1977 bekamen wir unsere KIENZLE 9027-40, mit Magnetbandkassette,
Datenfernuebertragungseinrichtung (BSC), Plasmabildschirm (12 Zeilen
zu je 40 Zeichen), Nadeldrucker sowie zwei 8-Zoll-Diskettenlauf-
werken. Mit seinem 8080 Prozessor und seinen 56 KB RAM war das Ge-
raet enorm leistungsfaehig.  Bis heute hat ein Kunde (Bauunterneh-
men in Oberhausen) dieses Geraet im Einsatz, weil ihm keine andere
Software so viel Komfort beim Verarbeiten seiner 'bergbauspezifi-
schen' Aufmasse biete, angeblich.  Ich sage aber jetzt nicht, wer
die SW geschrieben hat.  Und wieviele Kisten 'Koepi' hierfuer er-
forderlich waren.  Obwohl bereits diese Geraete weitaus leistungs-
faehiger waren als es ein PC jemals faktisch sein wuerde, blieb die
DATEV bei den sehr restriktiven Vorschriften fuer die Erfassungspro-
gramme.  Hintergrund war der, dass nicht einzelne Genossenschafts-
mitglieder wegen ihrer Hardware bevor- oder benachteiligt wuerden.
Immerhin kostete ein solches Geraet damals gut DM 50.000,--, was
heute leicht dem dreifachen entsprechen wuerde. Man wollte halt
nicht seine Mitglieder faktisch zwingen, jedes Jahr einen neuen Ap-
parat kaufen zu muessen.

Ein sehr vernuenftiger, sozialer Gedanke uebrigens, der auch einst
im Internet gepflegt wurde, bis die widerlichen PCPisser mit ihren
Shockflaschdreck dort einfielen wie die Schmeissfliegen.

Irgendwann einmal wurde es unserem lieben Gott zu bunt, und er woll-
te die Menschheit ausrotten.  Nachdem Sintflut und Pest eine Pleite
waren und auch das Aufkommen von Banken und Leasinggesellschaften
nicht das gewuenschte Ergebnis gezeitigt hatte, inspirierte der lie-
be Gott den PC, die uebelste aller Seuchen, die Perversion jeglichen
Ingenieursgeistes, die Brutstaette fuer Hirnfaeule.  Das perfideste
an diesen Apparaten war, dass sie die Hirne junger, unvernuenftiger,
modebewusster, karrieregeiler Jungspunde uebernahmen.

Und so kam es, dass der PC in die Steuerkanzleien einzog, zu ueber-
teuerten Preisen von einigen wenigen Herstellern angeboten, mit ei-
ner Software, die von DATEV angeboten wurde.
Weil die Vollidioten, die diese "Software" zusammenschmierten, keine
Erfahrung hatten und ausserdem nichts als pure Lust am Herumspielen,
sparte man sich ein sinnvolles Konzept und emulierte im Prinzip die
alten, proprietaeteren Erfassungsterminals und damit letzlich die
alten OLIVETTI - Lochstreifenstanzer.

Waehrend man aber mit einer alten Olivetti zuegig arbeiten konnte,
war die Arbeit am komfortablen PC umstaendlich, unergonomisch und
langsam.  Ja, das kann ich beurteilen, denn ich habe an allen bis-
her beschriebenen Systemen produktiv gearbeitet.

Wenn neuere PCs herauskamen, beispielsweise der hirnverbrannte 286er,
so gab es im Magenumdrehen eine neue Software, die den Performance-
gewinn ueberkompensierte.

Dabei wurde nach der "An- und Zubaumethode" gearbeitet:  Ein Pfeif-
chen hier, ein Klingelchen dort.  Vor allen Dingen wurde nie ein al-
ter Zopf abgeschnitten.

Viele Steuerberater wollten irgendwann einmal mehrere Arbeitsplaet-
ze haben, weil die Software so langsam geworden und so umstaendlich
zu bedienen war, dass mindestens drei notwendig wurden:  Zwei, um
das Buchungsvolumen zu bewaeltigen, und einer, an dem 'Spezialisten'
irgendetwas einstellten oder aufspielten.
Und so bot DATEV mit grossem Trara eine "Netzwerkversion" seiner
Weichhirnware an und waehlte, hierzu passend, das schlechteste al-
ler Netzwerkbetruebssysteme aus, das am Markt erhaeltlich war:
NOVELL.  Das sorgte dafuer, dass zwei Dinge regelrecht explodierten:
Zum einen die Anzahl der DATEV - PCs und zum anderen der Software-
umfang, den keiner mehr unter Kontrolle hatte.  Binnen kuerzester
Zeit war ein "486er" conditio sine qua non.

Dann kamen, Metastasen gleich, "Windows" und "Windows for playgroups".
Natuerlich gab es auch hierzu die passende DATEV - Software, denn wo
ein dicker Scheisshaufen liegt, da kackt auch alsbald ein anderer hin.
Weil aber die "Software" mittlerweile derart verbaut war, konnte ei-
ne Umstellung nur fehlschlagen.  So wurde den Genossenschaftsmitglie-
dern bis 1997 fuer teures Geld eine "Windows-Version" angeboten, die
in Wirklichkeit in der MSDOS-Kompatibilitaetsbox lief.  Und, selbst-
verstaendlich, wiederum alle bestehenden PCs zu Sondermuell machte.

Denn jetzt musste es ein schneller "Penzium" sein mit mindestens
64 MB Hauptspeicher.  Und wieder setzte die DATEV auf das mieseste
Trio infernal, was die Menschheit je hervorgebracht hat und auf das
nachfolgende Generationen spucken werden:  SINNLOS 95 als Arbeits-
platz, SINNLOS NT als Netzwerkserver und die PC - Architektur als
gemeinsame Basis.

Ja, so war das.  Und wie es heute ist, das hat Sven E. Lenz ja be-
reits aus seiner taeglichen Praxis beschrieben, ich zitiere noch
einmal:

> Was aber noch viel schlimmer als der Speicherplatz ist, ist die
> Laufzeit. Das ist wirklich unverschämt, was die Datev für den Preis
> abzieht.

Ueber die Zuverlaessigkeit und Administrierbarkeit hat sich Sven
innerhalb dieses Threads ebenfalls geaeussert.

Und meine Prognose ist:  Es wird immer schliemmer werden.  Bis sich
irgendwann einmal jemand durchsetzen kann, den ganzen Dreck in die
Tonne tritt und die PC-Abteilung ausraeuchert.

In Indien sollten ja jetzt Ausbildungsplaetze vakant werden.

Nun gut, es war ein sicherlich nicht immer sachlicher Artikel. Doch in der Rückschau sehe ich zweierlei: Zum einen entspricht die Darstellung in etwa der Wahrheit. Zum anderen habe ich mich geirrt in Bezug darauf, wie schlimm es einmal werden könnte.

Denn seit 1996 war der Lotse Sebiger im mehr als verdienten Ruhestand. Und wer auch immer den Fehler begangen hat: Es wurde ein ehemaliger Mitarbeiter des „Beratungshauses“ Ernst & Young zum Geschäftsführer „berufen“.

Zurück in die Steinzeit – ganz modern

Weil nämlich die DATEV – PC – Ware so grottenschlecht war (erfahrene DATEV-Anwender sehnen sich auch heute noch die alte, „schnelle“ Erfassungssoftware zurück), überlegte man sich „innovativ“:

„Nun haben wir ein erstklassiges Rechenzentrum und eine lausige PC-Abteilung.  Laßt uns mehr Leistung auf die lokalen Arbeitsplätze verlagern, dann brauchen wir das Rechenzentrum nicht mehr.

Dann nämlich hätten wir ein unternehmenseinheitliches Mittelmaß !

Onlinetransaktionen  – wer braucht das schon, wenn der PC alles selber kann ?“

Und man lagerte nicht nur die gesamte Datenverarbeitung, sondern auch deren Speicherung und Archivierung auf die sichere PC-Plattform aus.

Tja – das waren die „neuen Visionäre“, die die Renaissance der „lokalen Intelligenz“ am Arbeitsplatz begrüßten. Vernetzung? Wer braucht das schon. Und ja, es waren die gleichen Junggreise und Trendlemminge, die uns heute glauben machen wollen, man könne nicht mehr ohne LTE-„Handy“ aus dem Haus gehen.

Wie bekloppt dies wirklich ist, fällt eigentlich erst heutzutage auf. Warum muß ich aufwendigst eine komplette Großrechnersoftware auf jeden einzelnen verdammten PC installieren, obwohl eine moderne Rechenanlage leicht 100.000 Lohnabrechnungen pro Sekunde anfertigen kann?

Die DATEV war so blöd. Und selbstverständlich gab es Nachahmer, die noch inkompetenter waren: Das Bundesfinanzministerium mit seinem unsäglich peinlichen ‚ELSTER‘ – Programm zum Beispiel. Es soll auch Firmen geben, die spezielle „APPs“ programmieren, mit der ein armer Student der TU München nachgucken kann, was es in dieser Woche in der Mensa zu essen gibt. Vorausgesetzt natürlich, er besitzt so ein geschmackloses „Eifon“ oder einen häßlichen „Eifon-Klon“ der Machart „Android“.  Alle anderen werden sterben.

Intelligente, vorausschauende Menschen wie Heinz Sebiger haben die menschliche Lebenszeit als hohes Gut geachtet. Denn unsere Lebenszeit ist die einzige Ressource, die uns nicht unendlich zur Verfügung steht. Deswegen hat Sebiger eine Möglichkeit geschaffen, standardisierte Verfahren einmal sauber zu implementieren und Zehntausenden zur Verfügung zu stellen. Das ist ein sozialer Gedanke, der die Arbeitszeit des Menschen und damit den Menschen selbst achtet.

Werden Menschen gezwungen, für nichts und wieder nichts immer neue Programme zu installieren und zu pflegen, wird ihnen diese Lebenszeit abgezogen (ich denke gerade an die ‚grauen Herren‘ von Michael Ende).

Besonders fatal wirkte sich die „Heirat“ der DATEV mit dem schlechtesten, ungeeignetsten und unsicherstem Betriebssystem aus, welches man sich denken kann: „Microsoft Windows“. Es gibt keinen größeren Lebenszeitvernichter als „Microsoft Windows“. Dieser zusammengeschusterte Sondermüll hat weltweit schon bis jetzt mehr Lebenszeit sinnlos vernichtet als alle deutschen Vernichtungslager zusammen. Administration und quälende Langsamkeit infolge von eigentlich unnötigen „Schutzmaßnahmen“ sind die eine Sache. Aber dann kommen die Hypertechnokraten der „DATEV“ und setzen auf den mehrfach ‚aufgebohrten‘ Havaristen noch ihr eigenes „Datev Framework“ obenauf. In den letzten Monaten war ich mehrfach Zeuge von DATEV-Installationen, jeweils durchgeführt von ausgewiesenen Fachleuten. Da ist wirklich nichts, was man nicht mit einem Bulldozer sanieren könnte.

Die Anwender unterdessen klagen über mangelnde Ergonomie, Unterbrechung des Arbeitsflusses durch langsame Software, hohe Komplexität und häfige Abstürze.

Was von den Vätern Du ererbt – erwirb es, um es zu besitzen

Der Tod von Heinz Sebiger macht mich traurig, ich kann mich noch gut an ein zufälliges gemeinsames Mittagessen beim Nürnberger „Behringer“ erinnern:  „Nie die eigene Aufgabe aus den Augen verlieren“.

Und für die DATEV wünsche ich mir eine neue Führung, die das Potential des ursprünglichen DATEV – Modells von Heinz Sebiger begreift und mit aktueller Technologie erneut umsetzt.

Das wäre einmal eine „Digitale Transformation“ nach meinem Geschmack !

-hb

Hans Bonfigt
Dienstag, der 3. November 2015

Drei glorreiche Halunken (II)

ISDN, DSL und Robert T. Online:

Die Degeneration entläßt ihre Kinder

Ein Zweiäugiger sucht seinen Blinden

Mein Schwager ist ein „wert-konservativer“ Mensch.

Brahms, Violinkonzert? Ja, gerne! Aber „Deutsche Grammophon“ muß es sein, mit Herbert von Karajan, den Berliner Philharmonikern und Anne Sophie Mutter. Denn etwas „Besseres“ wird es niemals geben! Niemals nicht!

Und auch beim Telephonieren machte er keine Experimente: TELEKOM, das war das Beste und Einzige. Was der 280 SE in der Garage, war der Telekom-Anschluß im Wohnzimmer. Robust, unprätentiös, alternativlos.

Die Liebe zur Telekom wurde durch einige „Innovationen“ erschüttert: Vor allem zu nennen wäre der „Netz-Anrufbeantworter“, der, in seiner Standardeinstellung, ungefragt Anrufe entgegen nimmt und automatisch morgens um 03:30 durch hartnäckiges Klingeln signalisiert. Und morgens um 03:32 hat man genau die Ruhe und Gelassenheit, den nur 72 Stellen langen Deaktivierungscode einzugeben.

Als dann aber „Robert T. Online“, womöglich noch präsenter als „Dieter Bohlen“, im Rahmen des „Börsengangs“ der neuen „Telekom“ von allen freien Werbeflächen prangte, hatte mein Schwager die Nase gestrichen voll und kündigte. Ich kann das sehr gut verstehen. Muß man sich eigentlich jede Entgleisung gefallen lassen? Ich finde: NEIN. Denn sonst wird es schlimmer.

Und es war auch ohne „Robert“ schlimm genug: In Teil I habe ich mit dem grandiosen Scheitern von „EWS“ aufgehört. Die Telephoniesituation in Deutschland war katastrophal, die Fernverbindungen waren so schlecht, daß die DATEV, das seinerzeit mit Abstand größte gewerbliche Rechenzentrum Europas, in vielen größeren Städten „DFV-Konzentratoren“ errichtete, weil die Analogmodems trotz einer Geschwindigkeit von nur 1.200 Baud nicht mehr von Flensburg oder Dortmund nach Nürnberg durchkamen.

Und auch wenn die Leitung sauber war, dann gab es oft das berüchtigte „Gassenbesetzt“ nach der zweiten, dritten Vorwahlnummer. Es war deswegen oft üblich, eine Modemverbindung manuell, also mit Handapparat und Wählscheibe, aufzubauen. Alle beschriebenen Probleme betrafen naturgemäß nicht nur den Daten-, sondern auch den Sprachverkehr.

Ende der Achtziger Jahre setzten sich Nachrichtentechniker durch: Entgegen der damals durchaus gängigen Meinung, daß man eigentlich nur mit Koaxialkabel höhere Frequenzen sicher würde übertragen können, stellte man nämlich fest, daß auch mit der klassischen, verdrillten Kupferader, mit denen so gut wie alle Fernsprechteilnehmer am „HVT“ angeschlossen waren, ein wesentlich höheres Frequenzband übertragen werden konnte als die ursprünglich vorgesehenen 3,5 KHz.

Wenn man die Verspulung der Teilnehmeranschlußleitungen entfernte, konnte man leicht 128 KHz erreichen. Nun mögen Fledermäuse bei diesen Frequenzen kommunizieren, aber Menschen tun es nicht. Man kam daher auf die gleiche pfiffige Idee wie beim Rundfunksender, wo eine sehr hohe Trägerfrequenz im Rhythmus des niederfrequenten Sprachsignals moduliert wird.

Aber diesmal hatten die Erfinder weiter gedacht: Auch ein Radiosignal verliert mit Entfernung, Dämpfung und Störungen irreversibel an Qualität. Also tastete man die niederfrequenten Sprachdaten ab, wandelte die in einen Strom von Nullen und Einsen um und modulierte sie auf einen hochfrequenten Träger, um sie nun über eine Zweidrahtleitung verschicken zu können – mit dem Vorteil, daß an beliebigen Stellen im Netz durch De- und Remodulation eine hundertprozentig verlustfreie Auffrischung des Signals erreicht werden konnte. Die digitale Telephonie war geboren. Doch was nützt eine digitale Übertragung zum Hauptverteiler, wenn die Fernstrecken weiterhin analog betrieben werden? Deshalb wurde im Bereich des sog. „Backbones“ massiv digital aufgerüstet.

Vielleicht kommt dem einen oder anderen Leser die Frage in den Sinn, „Warum eine so hohe Bandbreite auf der Teilnehmerleitung belegen?“. Nun, die Architekten von ISDN hatten von vornherein im Auge, daß die Anzahl der Telephonanschlüsse explosiv steigen würde, die Kapazität der in der Erde vergrabenen Hauptkabel aber „hart“ durch die Anzahl der vorhandenen Doppeladern begrenzt war. So kam man auf die Idee, einen sogenannten „Zeitmultiplex“ einzusetzen, um eine einzelne Doppelader zweifach und ein Doppeladerpärchen sogar 32-fach zu nutzen. Das vielen bekannte Konzept mit den beiden B-Kanälen und dem D-Kanal war geboren.

Eine Kupfer-Doppelader wurde also dadurch zweifach genutzt, daß die Gesamtkapazität der Übertragungsstrecke in kleine Zeitscheiben aufgeteilt wurde, die alternierend den Nutzkanälen zugeteilt wurden. Trotz dieser Aufteilung erreichte man eine für Telephonate völlig ausreichende Datenrate von 64 KBit/s pro Kanal.  Bei Telephonieanwendungen wird das Sprachsignal 8.000 mal pro Sekunde abgetastet, und zwar mit einer Quantisierungsrate von 8 Bit, sprich, es existieren 256 mögliche Werte für die Momentanlautstärke des Signals zum Zeitpunkt einer jeden Abtastung. Dies gewährleistet, zusammen mit einer gewissen Pre- und Deemphasis, auch unter heutigen Gesichtspunkten eine gute bis sehr gute Gesprächsqualität.

Gegenüber dem aktuellen „Voice over IP“ bietet ISDN einen unschlagbaren Vorteil: Die Plesiochronizität, vereinfacht: „Fast-Synchronizität“ innerhalb des gesamten Landesnetzes. Sprich:  Eine zu übertragende Zeitscheibe landet mit Lichtgeschwindigkeit beim Empfänger. Echos, wie man sie bei anderen Techniken kennt, sind zwar vorhanden, werden aber wegen der faktisch nicht vorhandenen Zeitverzögerung als solche nicht wahrgenommen!

Zuguterletzt konnte man ISDN erstklassig dazu verwenden, Daten zu übertragen, weil zum einen keine zusätzlichen, aufwendigen Modems mehr benötigt wurden – man konnte die Daten mit 64 oder sogar 128 KBit/s (bei Bündelung zweier B-Kanäle) direkt auf die Strecke schicken. Ohne Verluste, ohne zeitaufwendigen Verbindungsaufbau, mit automatischer Vermittlung.

ISDN war ein großer Entwurf und bis ins Detail von Nachrichtentechnikern durchdacht. Das mag damit zusammenhängen, daß SIEMENS zum erstenmal ernsthafte Konkurrenz hatte, nämlich NIXDORF. Brancheninsider witzelten gerne, „ISDN“ heiße nicht „Integrated Services Digital Network“, sondern in Wahrheit, „In Sachen Digitalisierung: Nixdorf“. Denn in der Tat setzte beispielweise die „Digitale Vermittlungsstelle NIXDORF 8818“ national und international Maßstäbe. Vielerorts ist dieses System noch im Produktiveinsatz.

„ISDN“ – das VW 411 – Protokoll

11 Jahre zu spät und 4.000 Mark zu teuer: Der VW 411

So witzelten Kenner über ISDN. Dennoch sollte festgehalten werden: Auch wenn ISDN eine Dekade zu spät kam, so war sie bereits Technik aus dem aktuellen Jahrhundert, während die bisherige Telephontechnologie auf Erfindungen basierte, die in den 1880er Jahren bereits Serienreife erreicht hatten.

Dann kamen der Börsengang und die „Privatisierung“

Und Robert T. Online schickte sich an, aus einer soliden technischen Basis wieder ein Mickymausprodukt zu machen – passend zur „Stilikone“.

Es fing damit an, daß die neu privatisierte „Telekom“ bei ISDN-Datenübertragungen auf Kompression verzichtete, welche bei „normalen“ Analogmodems gang und gäbe war. So konnte es leicht passieren, daß man mit einem guten Analogmodem die dreifache Datenrate erreichte wie mit ISDN. Es wäre nun ein Leichtes für die Telekom gewesen, die Kompression zu aktivieren – aber der Endkunde wurde mit schwammigen Ausreden an der Nase herumgeführt. Aber es kommt noch knüppeldicke: Was die Telekom, genauer die T-ochter T-online in Weiterstadt, so gar nicht mochte, war Wettbewerb.

Privatisierung ja, speziell beim Herausekeln der Mitarbeiter, das ist ja wohl klar – aber wir wollen doch nicht im Wettbewerb stehen! Also verramschte die Telekom ihre ISDN-Anschlüsse, welche aus Volkseigentum heraus erstellt worden waren, zu einem Spottpreis, den kaum ein Konkurrent halten konnte.  Reihenweise gingen die Anbieter in Konkurs.

Als es dann faktisch nur noch eine Handvoll Internetprovider gab, fiel der Telekom urplötzlich auf, „Hilfe, die Notrufe könnten ja behindert werden!!!“. Na sowas, auf einmal, urplötzlich und nicht vorhersehbar. Selbstredend mußten die ISDN-Gebühren erhöht und der Kunde zu DSL genötigt werden.

DSL setzt nochmals „einen drauf“, indem die Teilnehmeranschlußleitung unterteilt wird: Der Bereich von 0 bis 140 KHz wird für ISDN reserviert und der Bereich ab 140 KHz für DSL, den seinerzeit aktuellen Stand der Datenübertragung über Kupfer-Doppeladern.

Die Erfinder von ISDN wußten damals genau, was sie taten, als sie die obere Grenzfrequenz von ISDN bei der Marke von 140 KHz setzten. Dieser Bereich ist einigermaßen dämpfungsfrei und kann als „Filetstückchen“ der Leitung bezeichnet werden, alles, was darüber hinausgeht, ist eher Schlachtabfall.

Die Inhaber von Analoganschlüssen hatten es da besser: Für ihre Telephonate brauchten sie ja nur den Bereich bis 3,5 KHz, so daß zusätzlich noch ein hochwertiges Frequenzband von mehr als 130 KHz zur Verfügung stand. In einfachen Worten: DSL, kombiniert mit ISDN, weist entweder eine wesentlich geringere Datentransferrate oder aber eine wesentlich geringere Reichweite auf. Das wurmte die Telekom ungemein, und so wurde, zum erheblichen Nachteil aller Analogkunden, das freie Frequenzband ganz bewußt ausgespart, denn „Unsere ISDN-Kunden sollen es nicht schlechter haben als die Analogkunden„. Weil aber die Telekom federführend war bei der „letzten Meile“ und den Hauptverteilern, mußte sich der – gerade noch verbliebene – Wettbewerb auf den unsäglichen nationalen Alleingang „Annex B“ einstellen.

Besonders ärgerlich dabei ist das Geheule diverser Verantwortlicher, man würde ja so gerne entlegene Gebiete anbinden, wenn man denn nur könnte…

Wie schamlos und dreist gelogen und betrogen wurde, kann man daran sehen, wie ein neues „Produkt“ realisiert wurde:  Mit einem ebenfalls unnötigem nationalen Alleingang „Annex J“ wird nun die gesamte Bandbreite der Teilnehmerleitung für Datenübertragung genutzt. Und siehe da: Urplötzlich sind viele entlegene Haushalte per DSL erreichbar, mit akzeptablen Datenraten! Wer hätte das gedacht?

Ja, wer? Eigentlich wußten es alle. Denn die ersten DSL-Splitter, die die Telekom ausgeliefert hatte, verfügten noch über einen Schalter „Analog/ISDN“. Die eine Sache ist, eine riesige Kundengruppe dreist abzukochen. Die andere Sache ist, dies mit Heerscharen von Mitwissern zu tun. Aber es hat sich nie jemand aufgeregt.

In Abwandlung von Karl Krauss:
Der T-Online – Benutzer säuft willig den Kakao aus, durch den man ihn vorher gezogen hat.

Schalten Sie auch demnächst wieder ein, wenn wir hier einen vorsichtigen Blick werfen auf die aktuellen, atemberaubenden Spitzenleistungen des dreistesten Leistungsverweigerers seit der Deutschen Bahn.

hb

Bauer-GoosEin wenig fühle ich mich als Informatik-Pionier der dritten Generation. Und denke gerne an meine ersten großen Projekte in den Siebziger Jahren des letzten Jahrhunderts zurück, die START, ITS, Dispol oder SNATCH hießen.

Für die zweite Generation der IT-Pioniere steht in meiner privaten Ordnung mein verehrter Professor F.-L. Bauer, bei dem ich 1969 im Herbstsemester an der TUM (damals noch TH für technische Hochschule) als Student der Mathematik meine erste Vorlesung in meinem Nebenfach Informatik hören durfte. Das abgebildete Buch ist übrigens mein erkennbar viel gelesenes persönliches Exemplar aus dieser Zeit.

Damals war das Thema Informatik etwas ganz Neues für mich. Und wahrscheinlich habe ich das Fach gewählt, weil ich nicht wusste, was es ist. Einfach, weil es irgendwie in die Zukunft gewiesen hat.

In der schönen Vorlesung von Professor Bauer habe ich so fast folgerichtig nicht alles von dem verstanden, was er uns mitgeben wollte. Sehr zu meinem Leidwesen.

BauerIn den letzten Jahren durfte ich Professor Bauer dann bei mehreren Führungen im Deutschen Museum in der Abteilung Informatik begleiten, die er für uns (InterFace AG) und unsere Kunden, Freunde und Partner gehalten hat. Da ist mir vieles klar geworden, was ich als junger Student noch nicht verstehen konnte.

Zur ersten Generation der Informatik zähle ich übrigens Menschen wie Konrad Zuse, den ich am Ende der InterFace-Konrad-Zuse-Radtour 1986 kennen gelernt habe. Er hat uns dort toll empfangen, eine wunderbare Rede gehalten und uns das abgebildete Bild beim großen Empfang in Hünfeld geschenkt, das heute bei der InterFace AG in Unterhaching hängt.

K_ZuseHeute ist die Informatik um „Lichtjahre“ weiter. Ich war und bin mit Herzblut Informatiker. Die Sinnkopplung zwischen meiner Arbeit, meinem Leben und der Gesellschaft war mir immer wichtig. Deshalb ist für mich die Entwicklung der Informatik wie ihre Zukunft wichtig. Beiträge von Dritten zu diesem Thema von herausragenden Vertretern der Informatik interessieren mich natürlich ganz besonders.

So habe ich in der 14. Ausgabe des TUM Magazins „Faszination Forschung“, einem hochwertigen Hochglanz-Magazin der TU München, in der Ausgabe vom Juni 2014 zum Thema „informatics“ den Artikel „Connecting the World“ gefunden.

Der Trailer zum Artikel liest sich so:

In future, everyday objects will be linked via the Internet, enabling them to interact autonomously. To realize this vision, computer scientists are developing virtual models they can use to test practical implementation and monitor the security, safety and reliability of connected systems

Der Artikel beschreibt die Zukunft der Informatik auf der technischen Ebene. Es geht hier vor allem um das Zusammenwirken von Systemen in einer zukünftigen „cyber-physikalischen Welt“. Da ich den Artikel lesenswert und als eine gute Diskussionsbasis empfinde, biete ich ihn hier zum „Download“ an: Cyber-Physical (706).

Mein Freund und Partner im Aufsichtsrat der InterFace AG, Professor Dr. Manfred Broy, wird dort zitiert und abgebildet. Es ist davon auszugehen, dass die Aussagen im Artikel zum Teil Ergebnisse der von ihm geleiteten Forschungsarbeit sind.

Ich bin mit dem Inhalt des Artikels nicht ganz einverstanden. Sicher wird es noch erstaunliche Entwicklungen in unserer Technologie geben, vielleicht noch verblüffender als die im Artikel beschriebenen. Nur an die Vorhersage der Anwendungsfelder glaube ich nicht, da ich annehme, dass die Gesellschaft der Zukunft ganz andere Herausforderungen haben wird, als wir sie uns heute vorstellen. Und wir dann sicher sehr aufregende Lösungen finden werden, die sich aber nicht in diese „schönen neuen Welt“ bewegen werden.

Spannend (und für mich bedenklich) wird es aber, wenn man die Entgegnung von Dr. Werner Meixner liest. Dr. Meixner ist wissenschaftlicher Mitarbeiter an der TUM und hat wohl in in einem Vortrag niedergelegt, wie dieser Artikel „auf jemanden (ihn) wirkt, der den Sinn seines Berufslebens wesentlich aus einer Faszination für Naturwissenschaften als einem humanistischen Wert versteht“.

Dieser Vortrag ist auch der Inhalt eines offenen Briefes an Professor Dr. Manfred Broy und hat zum Thema:
Wohin geht die Informatik?
Auch hier der Link zum Download des offenen Briefes von Dr. Meixner:
Wohin geht die Informatik? (712)

Um den IF-Blog-Leser auch hier zum Lesen anzuregen zitiere ich einen kurzen aber vielleicht zentralen Auszug aus diesem Artikel:

Jede menschliche Entscheidung, und das wissen Konzerne ganz genau, beinhaltet einen Wertschöpfungsakt und ist also wertvoll an sich. Das Wichtigste dabei ist, dass der Eigentümer dieses produzierten Wertes derjenige ist, der die Entscheidung getroffen hat und verantwortet. Dies genau ist die Bedeutung des Privaten, aus der auch die unbedingte Schutzwürdigkeit des Privaten folgt. Jegliche wirtschaftliche Tätigkeit ergibt sich daraus.

Ich verstehe die zitierte Aussage nicht so ganz. Wenn ich versuche, sie dialektisch zu analysieren, so meine ich einen willkürlichen Wahrheitsanspruch zu entdecken, der mir leicht widerlegbar scheint.

🙂 Ich schreibe aber an niemanden offene Briefe, da ich ein Blogger bin. Und BLogger schreiben keine öffentlichen Briefe sondern bloggen. So veröffentliche ich meine Meinung in meinen Blog.

Also:
Den Artikel im TUM-Magazin finde ich zu eindimensional technologisch, der „offene Brief“ hat mich bestürzt.

In beiden Artikeln nehme ich ein Welt- und Menschenbild wahr, das der von mir als real wahr genommenen Wirklichkeit nicht gerecht wird. Der erste erinnert mich ein wenig an die (damals ja von wirtschaftlichen Interessen gesteuerte) Euphorie zur Kernkraft vor mehr als 50 Jahren, der andere überhöht die Bedeutung des Privaten und lamentiert über dessen Schutzwürdigkeit, die nach meiner Lebenserfahrung und meinem Wissen aus Anthropologie, Gehirnforschung, Psychologie, Philosophie aber auch Soziologie überhaupt nicht zu rechtfertigen ist. Sogar mit theologischen Begründungen dürfte dies misslingen.

Die Herausforderungen für uns alle werden zeitnah andere sein als die beschriebenen. Nicht das Traumbild einer total vernetzten Welt wird uns helfen, diesen Herausforderungen zu begegnen noch der krampfhafte Schutz unserer privaten Daten, die letztendlich eh nicht geschützt werden können.

Die aktuellen Nachrichten, sei es von den Fronten der IS, von den sonstigen Kriegen mit ihren Folgen, von den Flüchtlingen die in die EU drängen, von dem Attentat aus Frankreich oder zu #Pegida und #Anti-Pegida in Deutschland sind deutliche Anzeichen einer sich beschleunigt verändernden Realität, die wir akzeptieren müssen. Und mit der wir vernünftig umgehen müssen.

Die Vorherrschaft der globalen Wirtschaft, die total freie Märkte für Waren schafft aber die Arbeit unfrei lässt (eine Näherin aus Bangladesch kann ihren Arbeitsplatz nicht nach Europa verlagern, obwohl die von ihr genähten Kleider nur dort verkauft werden), wird zu Ende gehen. Die Reichen in dieser Welt (wir) beuten die Armen mehr in enormen Masse aus und die Anzahl der Sklaven ist höher als je zuvor in der Geschichte der Menschheit.

Die durch diese Gegensätze generierten Spannungen dürften sich wie Erdbeben entladen. Das beginnt schon jetzt. Die Verschlechterung der Rahmenbedingungen in vielen Regionen (Klima, Wasser, Ernährung und Böden) entwickelt sich geometrisch wachsend und wird uns früher oder später in kritische Bereiche bringen. Die Spannungen werden immer spürbarer.

So könnte es ganz schnell gehen, dass wir sehr unsanft aus unseren aktuellen Träumen geweckt werden. Meine Hoffnung ist, dass uns auch hier die Informatik helfen wird. Natürlich weiß ich aber noch nicht wie und kann mir dies nur so ungefähr vorstellen.

Ich glaube, dass die IKT einen positiven Beitrag für die menschliche Zukunft nur dann leisten kann, wenn es ihr gelingt, vor allem einen hochkomplexen, weltweiten, redlichen Diskurs zu unterstützen, der eindringliche Ergebnisse bringt. Nur so kann eine Konsensbildung gelingen, die nicht auf Feindseligkeit und Ausbeutung beruht sondern die Menschen (uns) auf und für die notwendige Veränderung von Denken und Leben vorbereitet.

Nur so kann die globale Gesellschaft mit möglichst wenig Gewalt verändert werden. Nur so kann die heutige Art des Wirtschaftens in eine „Gemeinwohl-Ökonomie“ transformiert werden. Und nur so können wir Lösungen für ein besseres Copyright- und Patentwesen finden. Durch die Weisheit der Vielen und gegen die Einfalt des Einzelnen.

[Hinweis: Unsere Kollegen von Youmigo.de haben das vielleicht verstanden und eine wunderbare APP zur „Weltverständigung“ geschrieben.]

Dem Artikel im TUM Magazin würde ich entgegen halten, dass wir keine Luxuswelt von vernetzter Technologie brauchen, die uns letztendlich noch mehr versklavt. Zu Werner Meixners Aussagen meine ich, dass er das Thema „pretty good privacy“ in Form eines Glaubensbekenntnis überhöht, dieses aber nicht glaubhaft begründet sondern im dogmatischen verbleibt.

Und ich meine, dass in Zukunft uns Menschen unsere Privatsphäre ziemlich egal sein wird. Weil wir ganz andere Probleme haben werden. Und wir Menschen uns immer im Spannungsfeld Individualität und Kollektivität bewegen werden. So oder so. Mit Datenschutz und ohne. Und das schaffen wir nur auf eine dem Menschen würdige Art, wenn wir auf Werte basiert denken und handeln. Dogmen und deren gebetsmühlenartige Verkündung hilft uns nicht.

Noch ein Satz zu den persönlichen Daten. Informationen über Menschen zu sammeln ist doch ein ganz normaler Teil der menschlichen Zivilisation, die sich ja aus guten Gründen Administrationen geschaffen hat und so z.B. die Geburt eines Kindes protokolliert. Natürlich hat der technologische Fortschritt seit der Erfindung von Karteikästen und -karten unglaubliches ermöglicht.

Sicher lässt sich mit „neuen“ Technologien viel mehr Daten sammeln als früher. Das ist aber nur die Fortsetzung einer Entwicklung, die begonnen hat mit der Erfindung von der Schrift und Papier als Möglichkeit, Informationen aufzuzeichnen und weiterzugeben. Mag sein, dass die Erfindung von Dateikasten und -Karten (sicher eine Erfindung von IT), einen Schub gebracht hat. Und die IKT dann nochmal.

Aber: Hat die IKT hier wirklich so viel verändert? Und wie groß ist der Schaden? Und ist es nicht wunderschön, dass Informationen generell durch Whistle-Blower veröffentlicht werden können und die IT dies noch viel leichter gemacht hat?

Ich sehe eine Bedrohung nur dann, wenn sich „unmoralische Systeme“ (wie z.B. ein Unrechtssystem) der Daten bemächtigen. Aber dann hilft uns auch kein Datenschutz. Vielmehr müssen wir vermeiden, dass wir unter die Kontrolle „unmoralischer Systeme“ geraten. Und das ist eine permanente gesellschaftliche Herausforderung für jeden Bürger. Der „Kommerziellen Nutzung“ von Daten zu widerstehen geht sowieso nur durch persönliche Autonomie, aber das war und ist mit der andauernden Manipulationsbedrohung durch Marketing genauso. Und wenn man unsinnig konsuminert, kostet das doch nur Geld und selten das Leben.

Persönlich empfinde ich den vermeidbaren Schaden, den uns die „alten“ Technologien der letzten 100 Jahre zugefügt haben und heute permanent zufügen, deutlich höher als den Schaden, den die neue Technologie IKT in den letzten 25 Jahren generiert hat.

Die Technologien des letzten Jahrhunderts haben uns zum Beispiel die Ruhe geraubt. Wer kennt noch einen Ort in München, der frei von „technischem Rauschen“ ist? Die Lärmverschmutzung ist jedoch ein wirklich harmloses Beispiel im Verhältnis zu anderen Folgen wie den 1,2 Millionen Verkehrstoten pro Jahr – weltweit verursacht durch den motorisierten Individual-Verkehr. Und die wir auch sonst nur zu gut kennen aber gerne ignorieren wie den Kohlendioxid-Gehalt in der Atmosphäre.

So wie wir uns an die grenzenlose Lärm-Emissionen gewöhnt haben, so haben wir uns doch schon lange unsere (ja trotz allem immer nur sehr eingeschränkte) Transparenz akzeptiert. Eingeschränkt, weil auch die vernetzen Systeme der Industrie und Welt 4.0 kaum unsere Gedanken lesen werden können. Und weil wir uns eh zu autonomen Menschen in einem selbstbestimmten kollektiven Rahmen entwickeln müssen, wenn wir überleben wollen.

Sind so gesehen die permanenten Forderungen nach Geheimhaltung von Daten nicht nur ein Protestschrei, weil man ja gegen irgendwas sein will und muss, sich aber nicht traut, gegen die wahren Bedrohungen aufzustehen?

Aber vergessen wir nicht:

Nur die neuen Technologien bieten uns die Chance, uns zu vernetzen und unsere Gedanken zu veröffentlichen. Und so gegen Ignoranz, Intoleranz, Dogmen, Unvernunft und Dummheit und manches mehr dieser Art zu wehren.

RMD

Am 19. September hatten wir Hans Bonfigt und Marc Haber von redoxSystems im IF-Forum zu Gast. Vorsicht E-MAIL war ihr Thema. In zwei mutigen und persönlichen Vorträgen haben sie uns nicht nur über “Geschichte, Grundlagen, Spam&Viren” berichtet, sondern auch “Konzepte für den sicheren und zuverlässigen Betrieb eines eigenen Mailservers” vorgestellt. Besonders haben sie uns aber auch an die vielleicht doch wesentlichen Bedrohungen unserer Zeit erinnert.

Nach den Vorträgen hatten wir dann eine besonders lebhafte und fruchtbare Diskussion. Und unsere Gäste sind aufgeweckt aber zufrieden heim gefahren.

Die beiden Referate haben wir wie (fast) immer gefilmt. Die wesentlichen Ausschnitte aus dem Vortrag von Marc Haber sind jetzt auf youtube verfügbar.

Aufgenommen und produziert hat das Video wie auch den Beitrag von Hans Bonfigt übrigen Lukas Ziegler.  Den Part von Hans Bonfigt werde ich ebenso zeitnah zur Verfügung stellen.

RMD

Roberto Simanowski_smallDer Referent des dritten und letzten großen IF-Forum des Jahres 2013 ist Professor Dr. Roberto Simanowski!

Ursprünglich wollte er einen Vortrag mit dem Titel halten:

Jean Paul, der Witz, die Postmoderne und die neuen Medien.

Der Vortrag sollte am 7. November stattfinden. Aus diversen Gründen mussten wir den Termin ändern. Aber keine Angst, der Referent bleibt der gleiche.

Am Freitag, den 25. Oktober 2013 (Achtung – neues Datum!) wird Roberto Simanowski über den für seine Zeit doch sehr autonomen, revolutionären, ja fast anarchistischen Jean Paul berichten. Anschließend wird er zu folgenden aktuellen Themen Stellung nehmen:

Big Data und gläserne Gesellschaft:
NSA, Self-Tracking und das Internet der Dinge.

Dazu wird er uns mitbringen:

  • Big Data als „Öl“ des 21. Jahrhunderts stellt auch die Frage der Umweltverschmutzung und eines informatorischen Nachhaltigkeitskonzepts
  • Gesprächsverweigerung der Politik und der Bevölkerung im Kontext der NSA-Affäre deutet nicht nur auf mangelndes Problembewusstsein, sondern auch auf eine untergründige Komplizenschaft
  • der „kalte Bürgerkrieg“ findet nicht zwischen den Bürgern und dem Geheimdienst/Überwachungsstaat statt und auch nicht vorrangig zwischen den Bürgern, sondern in jedem Bürger
  • die Datenbank verdrängt die Erzählung als Form des Welt- und Selbstverständnisses
  • der Algorithmus wird zum Psychotherapeuten, der seinen Patienten weder verrät, was er herausgefunden hat, noch sie fragt, ob er davon Gebrauch machen darf

Zur Person:

Nach dem Studium der Literatur- und Geschichtswissenschaft wurde Roberto Simanowski 1996 mit einer Arbeit zur Massenkultur um 1800 an der Friedrich Schiller-Universität Jena promoviert. Der wissenschaftlichen Mitarbeit an der Universität Göttingen 1997 folgten Aufenthalte als Visiting Scholar an der Harvard University (1998-2000) und der University of Washington (2001-2002) sowie eine Vertretungsprofessur für Medienwissenschaft und Kulturtheorie digitaler Medien an der Universität Jena.

2003-2010 arbeitete Roberto Simanowski als Assistant Professor am Department of German Studies der Brown University in Providence (USA), seit 2010 ist er Extraordinarius am Seminar für Medienwissenschaft der Universität Basel.

2011 wurde er mit einer Arbeit zur Kunst in digitalen Medien an der Universität Siegen im Fach Medienwissenschaft habilitiert. Er ist Gründer und Herausgeber des Online Journals für Kunst und Kultur digitaler Medien dichtung-digital.org.

Zu seinen Publikationen im Bereich digitale Medien gehören:

  • Textmaschinen – Kinetische Poesie – Interaktive Installation. Zum Verstehen von Kunst in digitalen Medien (Transcript 2012)
  • Digital Art and Meaning. Reading Kinetic Poetry, Text Machines, Mapping Art, and Interactive Installations (University of Minnesota Press 2011)
  • Reading Moving Letters: Digital Literature in Research and Teaching. A Handbook (Mhg; Transcript 2010)
  • Digitale Medien in der Erlebnisgesellschaft. Kultur – Kunst – Utopie (Rowohlt 2008)
  • Interfictions. Vom Schreiben im Netz (Suhrkamp 2002)
  • Literatur.digital. Formen und Wege einer neuen Literatur (Hg., DTV 2002)
  • Digitale Literatur (Hg., Text & Kritik Oktober 2001)

Anmeldung:

Dieses IF-Forum findet in unserem Headquarter in Unterhaching in der Seminarzone im Dachgeschoss statt. Beginn ist um 18:00. Wir freuen uns auf unsere Gäste! Die Anmeldung auch zu diesem IF-Forum geht wie immer per E-Mail.

RMD

Diese Woche ist es wieder soweit: Am 19. September 2013 um 18:00 findet in Rahmen unserer “IF-Akademie” bei der InterFace AG wieder ein spannendes IF-Forum mit einem aufregenden Vortrag statt. Diesmal ist das Thema

Mailserver & Mail-Client (Vorsicht E-MAIL!)
“Geschichte, Grundlagen, Spam&Viren” oder “Konzepte für den sicheren und zuverlässigen Betrieb eines eigenen Mailservers”
(Hans Bonfigt / Marc Haber – redoxSystems)

Und es gibt eine gute Nachricht:

HaberMarcII200911-Heidelfoto-A-orig-IMG_4678plus_v2Marc Haber kommt auch.

Mittlerweile ist sichergestellt, dass neben Hans Bonfigt auch Marc Haber anwesend sein wird. Die beiden kennen sich mit der Technik und den Abgründen unseres so viel benutzten Mediums E-Mail perfekt aus. Wir haben diesmal so zwei „Hochkaräter“ zu Gast, die höchst kompetente aber auch radikal kritische Fachleute „vom alten Schlage“ sind. Beide verfügen über die Gabe, auch komplexe Themen einfach zu erklären. Sie sind mir persönlich bekannt und werden im Ko-Referat Erstaunliches berichten.

So werden sie schlüssig ableiten, dass ein Unternehmen um den Betrieb eines eigenen Mailservers einfach nicht herumkommt. Sie werden zeigen, wie erstaunlich einfach dieser einzurichten ist und wie erstaunlich günstig das mit Freier Software funktioniert. Gleichzeitig werden die Referenten, quasi „aus erster Hand“, einmal von den ganz „alltäglichen“ „SINA-Boxen“ erzählen, mit denen tagtäglich Grundrechte verletzt werden können, ohne dass man auch nur die geringste Chance hätte, dies überhaupt zu bemerken.

Weil das Thema zurzeit ja höchst aktuell ist, haben wir den Vortrag im Rahmen der IF-Akademie zu einem fachlichen „Sonder-IF-Forum“ aufgewertet. Der Donnerstag Abend ist so für uns wieder eine sehr gute Gelegenheit, die InterFace AG unseren Freunden, Partnern, Kunden, sprich interessierten Menschen aber auch neuen Kollegen vorzustellen.

So bitte ich Euch alle, uns zu unterstützen, um aus IF-Forum eine lebendige Veranstaltung zu machen. Auch über kurzfristige Teilnehmer und „Spontan-Besucher“ freue ich mich.

Hier der LINK zu den Details und zur Anmeldung!

Ich freue mich auf zahlreiche Besucher!

RMD

Heute am Donnerstag – Veranstaltung von InterFace an der TUM:

Technische Vorträge von InformatikerInnen für InformatikerInnen

18. Juli 2013 – diesmal  schon ab 16 Uhr an der TUM!

Der nächste Vortrag in unserer Reihe IF-Akademie – Technische Vorträge 2013 findet am 18. Juli wie immer an einem Donnerstag statt. Aber diesmal bleiben wir nicht in den Räumen der InterFace AG in Unterhaching, sondern gehen wie ein Wanderzirkus auf Tour und machen die Veranstaltung inklusive der anschließenden Happy Hour an der TU München in Garching. Die TUM stellt uns dazu den Raum „Konrad Zuse“ zur Verfügung.

felis_swReferent ist Felix Köbler. Felix hat einen großen Teil seiner informatischen Ausbildung und Forschung an der TUM verbracht.

Er wird uns berichten, welche ganz neue Denkweisen und Möglichkeiten durch das Internet und die dazu gehörenden moderne Technologien schon Realität sind und wie das weiter gehen könnte. Dazu wird er zu folgendem Thema berichten:

 Crowdsourcing & BahnScout
Einführung und ausgewählte Schmankerl & Crowdsourcing-Lösung für sichere und saubere Bahnhöfe

Abstract von Felix:

Im ersten Teil meines Vortrags werde ich aktuelle technologische und sozio-technologische Entwicklungen skizzieren, wie bspw. die Adoption und Nutzung von ubiquitären und mobilen Technologien, die nicht nur unsere alltägliches Leben durchdringen sondern auch neuartige Anwendungen ermöglichen.

Ein vielversprechender, neuartiger Anwendungsfall stellt dabei das sogenannte Crowdsourcing dar, welches die Ver- und Auslagerung von Aufgaben oder Wertschöpfungsaktivitäten durch ein Unternehmen oder Institution an eine undefinierte Gruppe freiwilliger Nutzer umfasst.

Anhand von verschiedenen Beispielen, die über bekannte Anwendungen und Initiativen, wie Wikipedia und OpenStreetMap hinausgehen, werde ich Möglichkeiten und Problemstellungen dieser neuartigen Konzepte diskutieren. Eine Besonderheit des Crowdsourcing liegt in der Ausdehnung bestehender Arbeitsteilungsmodelle um den Faktor Motivation, der in der sozio-technischen Umsetzung zu meist durch die Anwendung von Gamification – der Einsatz von spielerischen Elementen in nicht-spielerischen Kontexten – bedacht wird.

Der zweite Teil des Vortrags befasst sich mit einer konkreten Lösung und Anwendung „BahnScout“ im Bereich des sogenannten „Mobile Crowdsourcing“, welches durch technische Entwicklungen im Bereich der mobilen Endgeräten ermöglicht wird. Bei „BahnScout“ handelt es sich um eine Smartphone-Applikation mit der Fahrgäste Probleme, wie technische oder bauliche Schäden und Verschmutzungen in Bahnhöfen und öffentlichen Infrastrukturen, direkt an die zuständige Stelle melden können.

Der Vortrag soll neben aktuellen Ergebnissen aus dem laufenden Feldversuch diverse Einblicke in die handwerkliche Vorgehensweise (Participatory Design/User-centered Design) und konzeptionelle Herausforderungen im Bereich Gamification während der Entwicklung der Lösung geben.

Der Referent

Felix Köbler ist Doktorand am Lehrstuhl für Wirtschaftsinformatik der Technischen Universität München. Er erhielt einen B.Sc. und M.Sc. in Information Systems/Wirschaftsinformatik von der Technischen Universität München und studierte unter anderem an der Shanghai Jiao Tong University, Shanghai, China sowie der Technischen Universität Tampere, Finnland und der Universität Tampere, Finnland.

Seine Forschungsschwerpunkte liegen in den Bereichen Globale Distributed Software Engineering, Social Networking, Gamification, Persuasive Technologies und Ubiquitous und Mobile Computing mit einem starken Fokus auf Human-Computer Interaction. Ergebnisse seiner Forschungsarbeiten werden in internationalen Fachzeitschriften, wie bspw. AIS Transactions on Human-Computer Interaction und International Journal of Human-Computer Interaction (IJHCI) sowie auf internationalen Konferenzen wie International Conference on Information Systems, European Conference on Information Systems und ACM SIGCHI Conference on Human Factors in Computing Systems veröffentlicht.

Neben der Ausgründung zu BahnScout ist er in den Bereichen User Experience Design und strategische Beratung sowie im Business Development bei „FELD M“, einem Beratungsunternehmen für digitales Marketing tätig und verdient sein Geld als selbständiger Berater.

Ein paar Infos zur Veranstaltungsreihe

Alle zwei Monate bieten wir einen Vortrag mit technischen, fachlichen, führungs-spezifischen oder unternehmerischen Themen an. Dazu laden wir alle interessierten InformatikerInnen aus der Region und natürlich ganz besonders die Kolleginnen und Kollegen der InterFace AG ein.

In den Vorträgen wird der Idee von Craftmanship folgend neues Wissen und besondere Erfahrung aus der Praxis für die Praxis weiter gegeben. Schwerpunkt und Inhalte sind Programmieren als deutsche Ingenieurs-/Wertarbeit, modernes Basis-Know-How, Zukunfts-Technologien, Insider-Wissen und Veränderung bei bewährten Technologien, Erfahrung aus Projekten wie aus Management & Führung und vieles mehr.

Die Referenten sprechen in der Regel 30 Minuten, die nächsten 60 Minuten gehören der Diskussion. Und anschließend gibt es immer eine „Happy Hour“.

Die Veranstaltungen finden jeden dritten Donnerstag in den ungeraden Monaten des Jahres statt.

RMD

Roland Dürre
Donnerstag, der 13. Juni 2013

Heute: Fachliches IF-Forum bei InterFace in Unterhaching ab 13:00!

IF20x_5172Heute ist es wieder soweit!

Ab 13:00 startet unser Workhop „Craftsmanship“!

Alle Informationen finden Sie hier!

Es sind noch ein paar Plätze frei!

Und für all die, die nicht kommen können, übertragen wir den Vortrag wieder live im Internet.

Unter http://www.ustream.tv/channel/IF-Forum kann man ab ca 13:45 den Video-Stream zum Vortrag sehen.

Zusätzlich zur Übertragung werden wir wie immer einen Video-Mitschnitt anfertigen und auf youtube (Kanal InterFace AG) zur Verfügung stellen.

RMD

Roland Dürre
Dienstag, der 11. Juni 2013

B2 Tagesgespräch Datenschutz

Der US-Geheimdienst weiß alles: Können wir uns den Datenschutz sparen?

Das war das Motto des Tagesgesprächs gestern in Bayern2. Ich beginne mit zwei Zitaten von der Website zur Sendung am 10 Juni 2013:


Mit seinem Spähprogramm Internet-Prism hat der US-Geheimdienst den Zugriff auf Milliarden Internetdaten. Apple, Google und Facebook: alle werden angezapft. Können wir uns also den Datenschutz sparen?

Das Tagesgespräch wollte wissen, welche Rolle nationale Datenschutzgesetze in dieser Angelegenheit spielen. Diskutiert wurde auch, ob und wie deutsche und europäische Politiker gegen das Spähprogramm vorgehen können.

Studiogast war der Terrorismus-Experte des NDR Joachim Hagen, die Informatikerin und Autorin Constanze Kurz war wohl zugeschaltet.

sie wies darauf hin, dass sowohl die Politik den Datenschutz sichern als auch der User durch Verschlüsselung seine Daten schützen muss. Darüber hinaus erläuterte die ehrenamtliche Sprecherin des Chaos Computer Clubs, welche Daten zu welchem Zweck ausgewertet werden. Nicht nur die Geheimdienste interessierten sich für die Datenpools, hinter den maschinell ausgelesenen und zusammengefassten Daten steckten auch handfeste wirtschaftliche Verwertungschancen.


Da der Experte auch gegenüber Verschwörungstheorien sehr aufgeschlossen erschien und in der Sendung unter anderen auch zum Kampf für den Datenschutz aufgerufen wurde, dachte ich mir, ich ruf doch mal an!

Das habe ich auch dann getan. Und kam auch dran. Und habe meine persönliche Meinung kundgetan. Die ganz einfach folgende ist:


Der Datenschutz ist in der Praxis gescheitert. Dies unwiderruflich. Und wir sollten nicht für mehr Datenschutz kämpfen, sondern für mehr Transparenz. Denn es könne nicht sein, dass der Bürger immer transparenter wird, die staatlichen und wirtschaftlichen Mächte aber weiter im Geheimen arbeiten. 

Schlüssig habe ich gefordert, dass wir uns nicht für mehr Datenschutz sondern für eine Transparenz der Symmetrie einsetzen sollten.


Leider hat der „Terroristik-Experte“ meine Aussage wohl nicht verstanden. Denn er hat mein Statement kurz damit abgetan, dass die Unternehmen sich bedanken würden, wenn sie ihre Geschäftsgeheimnisse offen legen müssten.

Ich war dann gleich auch wieder draußen.Dabei ging es in der Sendung ja um den Schutz von persönlichen Daten. Nicht um industrielle oder militärische Geheimnisse. Und da eine symmetrische Transparenz zu fordern, ist doch eigentlich selbstverständlich.

Persönlich glaube ich ja, dass auch Transparenz bei den anderen (allen jenseits der persönlichen) Daten das Gemeinwohl eher fördern denn beschädigen würde.

In der zweiten Hälfte dieses Tagesgespräch habe ich einen anderer Anrufer zugehört. Der wie ich Transparenz gefordert hat. Und dies mit einem interessanten Gedanken begründete. Ich gebe ihn sinngemäß wieder:


Heute ginge es uns in Deutschland ja noch sehr gut. Was aber wäre denn, wenn auch bei uns die Zeiten schwieriger werden würden? Und die Menschen in Deutschland wie in Ägypten oder der Türkei in großen Mengen auf die Straße gehen und gegen die herrschenden Mächte protestieren würden? Was würde der Staat denn dann mit den Daten so alles anfangen?


So weit, so gut.

RMD

P.S.
Hier noch die Daten zum Tagesgespräch:

In Bayern2 (Rundfunk) werktags von 12:00 – 13:00
Telefon: 0800 – 94 95 95 5 gebührenfrei ab 11 Uhr erreichbar
E-Mail: tagesgespraech@bayern2.de
Internet: www.br.de/tagesgespraech

Roland Dürre
Dienstag, der 16. April 2013

Video von „Bewegt Euch!“ ist da (Bier&Informatik)

In unserer Vortragsreihe

“IF-Technologie – von InformatikerInnen für InformatikerInnen”
(auch als Bier&Informatik bekannt)

hat Johannes Schmidt am 21. März 2013 einen Vortrag gehalten:
Bewegt euch!

Wie Videospiele und Bewegungssteuerungen uns wieder vom Sofa locken?

Diesen sehr schönen und interessanten Vortrag haben wir aufgenommen und zwei Videos daraus gemacht. Hier sind sie – sehr sehenswert!

Im ersten Teil des Vortrags berichtet uns Johannes Schmidt die geschichtliche Entwicklung der Bewegungssteuerung.

Was unterscheidet Sony EyeToy und Nitendo Wii von Microsoft Kinect?

Der zweite Teil zeigt, wie einfach mittlerweile die Programmierung dieses technisch so anspruchsvollen Themas ist.

Mit Live-Programierung!

Der nächste Vortrag in Bier&Informatik findet am 16. Mai 2013 wieder bei uns in Unterhaching statt.

Es geht um:

“Ubuntu & Android im Business Einsatz
Der Praxis-Test – Was können die Windows Alternativen wirklich? Features, Probleme und Lösungen im Überblick.

Alexander Jachmann (IF-Tech AG) wird uns an diesem Donnerstag über den aktuellen Stand berichten. Und natürlich gibt es im Anschluss wieder Bier&Leberkäs.