Roland DĂŒrre
Mittwoch, der 5. April 2017

IT Oberland BarCamp am 12. Mai 2017 in Holzkirchen!

Das BarCamp zur digitalen Transformation und ihren gesellschaftlichen Auswirkungen

Damals dachte der Autor noch in Hardware 🙂

Momentan schlĂ€gt das „buzzword“ DIGITALISIERUNG hohe Wellen. Es gibt ein Zentrum-Digitalisierung.Bayern (ZD.B) und in den bayrischen LĂ€ndern entstehen geförderte Digitalisierungs-Zentren.

Nur Digitalisierung war doch gestern. Das war damals, als die Uhren, Tachometer und Thermometer plötzlich eine digitale Anzeige bekamen. Das war vielleicht 1985, als Apple 2 und MacIntosh fröhlich Urstand feierten und die deutschen Informatiker in ihrer Industrie-Nostalgie mit BS2000 und Àhnlichem noch viel Geld verdienten.

Internet und Google sind mittlerweile ein alter Hut. Von selbst lernenden Systemen haben wir schon vor ein paar Jahrzehnten getrĂ€umt – in unserer Euphorie zu KI (kĂŒnstliche Intelligenz). Die modernen unter uns haben schon 1980 die KI dann AI (artificial intelligence) genannt, weil wir wussten, dass es damit in Deutschland nichts wird. Damals haben wir von Lisp und Prolog getrĂ€umt. Jetzt kommen die denkenden Systeme und lernen schnell von selbst – in Bereichen wie Übersetzung oder Verkehr – weil die Hardware halt so leistungsfĂ€hig ist, dass es zu funktionieren beginnt. Auch ohne Lisp und Prolog.

Immer noch passiert viel Neues. Dies in einem oft nicht mehr nachvollziehbarem Tempo. Und es scheint erst jetzt so richtig los zu gehen. Eine unvorstellbare Welle von Produkten rollt auf uns zu, die die Welt nochmals radikal verÀndern werden. Viele Gesetze und Regeln werden in Zukunft nicht mehr funktionieren. Da stellen sich viele Fragen:

  • Heute wird viel ĂŒber „das selbst fahrende Auto“ diskutiert. Aber ist das nicht nur die Spitze des Eisbergs einer VerĂ€nderung des Lebens? Und wird schon viel frĂŒher viel mehr sich merklich und unmerklich verĂ€ndern?
  • Leben wir nicht im Zeitalter der Sensorik, die eine völlig neue Verbindung und Interaktion von „Informatik“ zur Welt schafft? Und es bald nicht mehr um die Mensch-Maschine-Schnittstelle gehen wird sondern um die „Welt-Maschine-Schnittstelle“.
  • Ist Datenschutz wirklich sinnvoll machbar? Oder nur so eine ChimĂ€re der ewig gestrigen? Was bedeutet das fĂŒr unsere Gesellschaft?
  • Welche technischen Elemente brauchen „Smart Solutions“ in einer modernen IoT-Architektur? Was heißt „smart“ ĂŒberhaupt – und was verstehen wir tatsĂ€chlich unter IoT?
  • Wie ist denn das mit den Regeln fĂŒr Roboter (selbst fahrende Autos)? Was sagt die „Ethik-Kommission“ der Bundesregierung dazu?
  • Wie gehen wir mit Kampfrobotern und Drohnen um? Was bedeutet das fĂŒr Krieg und Frieden?
  • MĂŒssen wir nicht viele Elemente unserer gesellschaftlichen Ordnung als Folge der technischen Entwicklung umdenken oder gar neu definieren?
  • Was bedeutet das fĂŒr unseren gesellschaftlichen Rahmen? Wird Politik Gestalterin des Selbigen bleiben oder haben das schon Maschinen ĂŒbernommen?

Solche und weitere Fragen werden auf dem Oberland BarCamp in Holzkirchen offen, redlich und achtsam diskutiert werden – wie das auf Barcamps meistens so ĂŒblich ist.

Deshalb habe ich mich zum BarCamp zur digitalen Transformation und ihren gesellschaftlichen AuswirkungenOberland BarCamp genannt – angemeldet. Es wird am 12. Mai in der RSC Factory – Trainings- und Coachingzentrum fĂŒr Digital Business & Innovation in Holzkirchen stattfinden.

Und ich freue mich schon darauf, dort viele Freunde wieder zu sehen!

RMD

P.S.
Das Oberland barcamp wird ĂŒber Meetup organisiert. Wenn Ihr Euch da anmeldet und mit diskutiert, macht das dem Veranstalter das Leben ein wenig einfacher!

 

Roland DĂŒrre
Dienstag, der 7. Februar 2017

Hacked By XwoLfTn …

Logo des Chaos Computer Clubs, der einflussreichsten Vereinigung von Hackern im deutschen Raum, bei dem Sicherheitsfragen sein wesentliches BeschÀftigungsfeld sind.

Jetzt ist es passiert:
IF-Blog ist gehackt worden. Schon das zweite mal. Jedes Mal ist Folgendes passiert:
Die Überschrift wird ĂŒberschrieben – und der Text auch. Beim letzten Mal war es mein Artikel America First, der attackiert wurde.

Da wurde die  Überschrift ersetzt durch
Hacked By XwoLfTn
und der gesamte Inhalt ĂŒberschrieben mit
Hacked By XwoLfTn – Tunisian Hacker

Beim vorletzten Mal hat es meine EURO-Geschichte getroffen. Mit demselben Effekt. Dieselbe Überschrift und derselbe Inhalt.

Die beiden Artikel konnte ich rekonstruieren. So bin ich froh, dass nicht mehr passiert ist. Aber man sieht, es gibt sie wirklich, die Bösewichte im Internet. Der von mir sehr geschÀtzte Chaos Computer Club (CCC) hat mal wieder recht. Und auch mein Freund Hans Bonfigt.

Leider weiß ich noch nicht, ob es ein EinzeltĂ€ter ist, der mich Ă€rgern will oder ein Bot, der da sein Unwesen treibt. Ich vermute eher das Zweite, besonders wenn ich in Google sehe, wie viel Blogs von genau diesem Effekt betroffen sind.

Jetzt werde ich auf jeden Fall zeitnah die neueste Version von wordpress installieren. Und hoffe dass das hilft. Und wenn Ihr Euch mit wordpress auskennt – oder noch besser – wisst, was da passiert ist und was ich dagegen machen kann, dann freue ich mich auf Hinweise!

Lieben Dank im Voraus!

RMD

Die Winderhitzer der Völklinger HĂŒtte.

„Die Winderhitzer der Völklinger HĂŒtte. Auch Vintage.“

Obwohl ich E-Mail fĂŒr Technik von vorgestern halte, habe ich natĂŒrlich noch ein paar E-Mail-Adressen. Da kommt viel Belangloses und Mist an.

Meine Aufgabe besteht dann vor allem darin, diese E-Mails zu löschen und meine „Kommunikations-Partner“ zu bitten, doch modernere Kommunikationsformen zu nutzen.

Heute musste ich aber mal wieder so richtig Schmunzeln. Da kam eine E-Mail von einem lieben und langjĂ€hrigen Freund, den ich auch fachlich fĂŒr sehr kompetent halte.

Der hat – an ganz viele Menschen (all@XYZ.de) – geschrieben:


Hi,

könnt ihr uns alle bitte mit dieser fĂŒr mich vollkommen sinnfreien Diskussion in Ruhe lassen!!!!!

Ich habe meine Meinung zu Mail-Verteilern und interner Mail auch in der Umfrage zu den neuen Kommunikationsformen von mir gegeben.

Das ist ein typisches Beispiel dafĂŒr, warum E-Mail unternehmens-intern Blödsinn ist und die E-Mail-Verteiler insbesondere sofort abgeschafft werden sollten.

Mit Absicht an all!


🙂 Bei der „sinnfreien Diskussion“ ging es ĂŒbrigens um das Problem mit „Akkus von I-Phones“ und deren Umtausch.

Ich habe dann geantwortet:


Deine E-Mail lĂ€sst mich schmunzeln. 😊

Bin ich doch genau Deiner Meinung – nur noch radikaler. E-Mail ist kein generelles Kommunikationsmittel mehr sondern ein völlig veraltetes, das man selbstverstĂ€ndlich in modernen Unternehmen nicht mehr nutzen sollte.

E-Mails an Dritte sollte man nur noch senden, wenn es einen Anlass gibt, fĂŒr den man in vergangenen Zeiten tatsĂ€chlich einen Brief geschrieben, ein Telegramm aufgegeben (!) oder eine Telefonzelle aufgesucht hĂ€tte.

Alles andere sollte man mit Werkzeugen erledigen, die dem Zweck adÀquat sind.

Liebe GrĂŒĂŸe und ein schönes Wochenende!


Ja – ich mag E-Mails auch nicht. Oft sind sie mit einem Riesen-Footer ausgestattet, der dann noch kĂŒnstlich mit viel Quatsch und völlig uninteressanten Hinweisen werblicher Art oder blödsinnigen juristischen Belehrungen verlĂ€ngert ist.

Ich hasse die E-Mail-Dialoge, die mit jedem Dialogschritt eine immer lĂ€nger werdende neue Inkarnation der Mail verursachen. Denn mit jeder Antwort entsteht eine E-Mail, wo dasselbe alles noch mal drinsteht ergĂ€nzt um die letzte Antwort. In der Ur-Zeit des Internets gab es Versuche, die E-Mail-Kommunikation ein wenig erfreulicher zu gestalten. Da gab es z.B. eine gute Regel, die man tofu nannte. Leider wurde „tofu“ aber nur von wenigen angewendet und ist so gescheitert.

Da Kommunikation erfolgt in der Regel als „Thread“ (Faden).  SpĂ€testens seit dies im Chat perfekt möglich ist, ist E-Mail in vielen FĂ€llen verzichtbar. Im „peer2peer“-Thread sehe ich immer sofort was in der letzten Zeit so alles ausgetauscht wurde. Das gilt auch fĂŒr Menschen, mit denen ich ganz selten kommuniziere und ist da besonders wertvoll. Threads sind auch gut geeignet, wenn mehr als zwei Menschen gemeinsam kommunizieren wollen. Bei E-Mail fĂŒhrt es dann sofort zur katastrophalen Fluten bedingt durch „cc“ und „bcc“.

Dazu kommt, dass ich alltĂ€glich gerne mit Bildern, Sprachnotizen (Audios) oder kleinen Filmen (Videos) kommuniziere. Wie umstĂ€ndlich ist das bei E-Mail fĂŒr Sender und Absender? Man schaue sich einfach an, wie bbm, wechat, whatsapp, der „messenger“ von FB oder Skype, die „dm“ (direct message) von Twitter usw.  funktionieren. Von Snapchat, dem System mit der modernsten und einfachsten „Benutzer-OberflĂ€che“ möchte ich hier gar nicht reden.

Noch besser als chat-Systeme eignen sich „communities“ fĂŒr die geordnete Kommunikation auch in grĂ¶ĂŸeren Teams/Gruppen. Im Internet gibt es viele „communities“ z.B. in Google+, die zeigen, wie es geht. Und wie man mit ganz einfachen Maßnahmen innerhalb einer „Organisation“ vortrefflich und trotzdem sehr strukturiert und hocheffizient kommunizieren kann. Und so auf den E-Mail-Blödsinn verzichtet und nicht dauernd die Nicht-Interessierten oder -Beteiligten voll mit Spam voll schĂŒttet!

Im ĂŒbrigen:

Auch Telefonieren ist OUT. Ich nutze das Telefon nur noch nach terminlicher Absprache, wenn es etwas Wichtiges zu erledigen gibt und ich mit einem Mitmenschen mit voller Aufmerksamkeit darĂŒber sprechen will. So setze ich das Telefon im Auto oder in öffentlichen RĂ€umen wie ZĂŒgen nicht mehr ein. Und auch fĂŒr Wichtiges nutze ich Telefonie nur dann, wenn Bildtelephonie (Hangout, Facetime, Skype, Cisco, Citrix …) nicht möglich ist, weil mein GesprĂ€chspartner das gute alte Telefon bevorzugt.

🙁 Nur zur Erinnerung. Die Funktion „Telefonieren“ ist auf dem Smartphone auch nur eine App fĂŒr synchrone Sprach-Kommunikation, die es möglich macht, Verbindung mit Adressen aufzunehmen, die aus „Telefon-Nummern“ (Ziffern) bestehen und mit „voice-over-IP“ ein Telefonat emuliert.

Also:
Wenn mich jemand anruft und ich mich melde mit
„Wer stört denn jetzt schon wieder?“,
dann bitte ich, dies mir nicht ĂŒbel zunehmen.

Ich bin weiter fĂŒr jeden erreichbar, der mich braucht: Hier meine physikalische Telefonadresse 0049 171 4850115 (leider sind die symbolischen schon lange aus der Mode gekommen). Aber bitte wirklich nur anrufen, wenn es wirklich wichtig und ganz dringend ist!

Sonst bitte ich zu ĂŒberlegen, ob es nicht genĂŒgt, mir eine asynchrone „(Sprach-)Botschaft“ ĂŒber einen der Chatter die ich benutze zu senden oder falls es auf ein bestimmtes Thema bezogen ist, diese Nachricht in der entsprechenden Community zu hinterlegen.

RMD

P1070216Wir leben ja im Zeitalter des unverantworteten GeschwĂ€tzes. Das erlebe ich besonders intensiv, wenn ich höre, was selbst ernannte Propheten zum Thema Digitalisierung so alles herum spekulieren. Wie viel Unsinn da dabei ist. Dann muss ich auch noch feststellen, wie viele auf den Zug aufspringen und das Gehörte oder Gelesene unkritisch nach plĂ€rren. Und so Ängste an falschen Stellen schĂŒren, die von den wahren Bedrohungen nur ablenken. Und erstaunlich wer da alles immer so dabei ist.

Ich persönlich betrachte den „digitalen Wandel“ nur als schlichte Fortsetzung der durch Technik bedingten VerĂ€nderung im Zeitalter der kompletten Elektrifizierung des Planeten (oder so). Da ich ihn erlebt und selber mit gemacht habe, versuche ich dem oft von einzelnen geĂ€ußerten und von vielen nachgeplapperten Blödsinn entgegen zu treten.

Zum Beispiel ist fĂŒr mich ein „fahrerloses“ Fahrzeug, sei es ein LKW, Bus oder Auto z.B. nichts anderes als technologischer Fortschritt, bei dem Eisen durch IT ersetzt wird. Die neuen Fahrzeuge brauchen halt keine Schienen mehr, sondern nutzen IT um auch ohne Fahrer an ihr jetzt variables Ziel zu finden. Das ist kein Hexenwerk sondern nur schlichte Ingenieursarbeit.

Ein harmloses Beispiel fĂŒr Panikmache ist in meiner Bewertung auch die so viel zitierte „Filterblase“. Immer mehr Leute behaupten in Sonntagsreden, dass hier eine große Gefahr droht und wir „von Algorithmen“ manipuliert werden. Ich mache es mir einfach und kopiere einen Text aus dem dazugehörigen <a href=“http://if-blog.de/wp-content/uploads/2015/06/P1070216.jpg“><img class=“alignleft size-medium wp-image-52015″ src=“http://if-blog.de/wp-content/uploads/2015/06/P1070216-300×208.jpg“ alt=“P1070216″ width=“300″ height=“208″ /></a> in Wikipedia (Stand heute – 27. Oktober 2016).


Die Filterblase (englisch filter bubble) oder Informationsblase (englisch informational bubble) ist ein Begriff, der vom Internetaktivisten Eli Pariser in seinem gleichnamigen Buch[1] verwendet wird. Laut Pariser entstehe die Filterblase, weil Webseiten versuchen, algorithmisch vorauszusagen, welche Informationen der Benutzer auffinden möchte – dies basierend auf den verfĂŒgbaren Informationen ĂŒber den Benutzer (beispielsweise Standort des Benutzers, Suchhistorie und Klickverhalten). Daraus resultiere eine Isolation gegenĂŒber Informationen, die nicht dem Standpunkt des Benutzers entsprechen.


Nur – das ist doch nichts Neues!

So habe ich von Kindes an in meiner „Filterblase“ gelebt. Kaum konnte ich lesen, habe ich (zuerst in der katholischen Pfarr- und spĂ€ter in der öffentlichen) BĂŒcherei mir genau die BĂŒcher ausgewĂ€hlt, die nach kurzer Leseprobe meinem WEIB (EselsbrĂŒcke fĂŒr Werte, Erwartungen, Interessen und BedĂŒrfnisse) entsprochen haben.

Als Zeitungsleser habe ich schnell die SZ dem MĂŒnchner Merkur bevorzugt. SpĂ€ter habe ich gelernt, dass die Zeitungen versuchen genau das zu schreiben, was ihre Leser lesen wollen …

Als Jugendlicher ging ich zu den Treffen der „republikanischen Clubs“ und nicht zur jungen Union und zu den Burschenschaften.

Aufgrund meiner BeschrĂ€nktheit habe ich mich so selber in meine „Blase“ rein gebracht. Damals hat mich das Radio aus dieser raus geholt. Da kam zum Beispiel an Silvester die Lach&Schieß und hat mich auf völlig neue Gedanken und Meinungen gebracht.

Aus dem Radio als „öffentlichem Rundfunk“ ist das Internet geworden. Ich kommuniziere mit anderen Menschen, lese deren Blogs und höre ab und zu sogar deren PodCasts. Ich bin da ein wenig altmodisch und lese noch, weil  ich nicht immer nur mit Kopfhörern herumlaufen mag. Aber auch mein Verhalten wird die Zukunft nicht beeinflussen. So wird „Audio“ im Wissenstransfer und Meinungsaustauch sicher gegen die „Verschriftung von Information“ gewinnen.

So erlebe ich viel Neues und Neuartiges im Netz. Denn das Internet besteht eben nicht nur aus Google und Facebook sondern vor allem aus den Menschen, die ihre Bewertungen und ihr Leben bloggen und podcasten und mich mit vielen Gedanken versorgen, die in der Tat hĂ€ufig meine Vorurteile widerlegen und mich zu Toleranz ermahnen. Und so lerne ich, Respekt und WertschĂ€tzung fĂŒr Meinungen und Menschen zu gewinnen, die ich frĂŒher einfach so abgelehnt hĂ€tte.

Meine Freunde machen es genauso. In dieser „Bubble“ fĂŒhle ich ich sehr wohl. Auf die Algorithmen scheiße ich. Und sehe da auch nicht die große Gefahr. Oft habe ich den Eindruck, dass das Internet als neuer „Buhmann“ von der massiven Manipulation durch Werbung und Lobbyismus ablenken soll. Weil es tatsĂ€chlich freier und autonomer macht und so den herrschenden Strukturen und Systemen gefĂ€hrlich wird. Deshalb wird auch von diesen die Freiheit des Internets nicht so gerne gesehen und so die EinschrĂ€nkung von Freiheit im Netz mit allen Argumenten begrĂŒndet – und mögen sie auch noch so dĂŒmmlich sein.

RMD

Hans Bonfigt
Freitag, der 7. Oktober 2016

DAMIT ICH MICH BESSER FRESSEN KANN

Ein Computergigant kannibalisiert sich selbst und wirft dabei so ganz nebenher die fĂŒhrende Rechnerarchitektur auf den Komposthaufen der „Community“.

Das ist das, was sich als Zusammenfassung vom „Linux on Power Anwendertag 2016“ aus dem IBM – Labor in Böblingen mitgenommen habe.

Ach ja, und Menschen „50+“ sind in der „IT“ deplaziert.
Wurde mir mehrfach klar gesagt.
Vielleicht, weil sie wissen, was sie tun?   Und vor allem: Was sie besser seinlassen?

Dies ist jetzt wieder einmal ein unsachlicher, fachlich sehr spezieller Bericht, er wird bestimmt lang und von geringem allgemeinen Interesse sein. Wer nicht weiß, fĂŒr was AIX, AS/400 oder MVS stehen: Jetzt wĂ€re es Zeit, hier mit dem Lesen aufzuhören.

Seit 1996 stagniert die INTEL – Welt, nicht, weil die Prozessoren schlecht wĂ€ren, sondern weil die Architektur buchstĂ€blich an ihrer eigenen Kleingeistigkeit erstickt.

Denn – wie hat das eigentlich angefangen?

Begeben wir uns einmal in die Zeit, als es in der Informationstechnik nur IBM gab und den „BUNCH“, Borroughs, Univac, NCR, Control Data und Honeywell. Der glĂŒcklose IBM – CEO sah verschnupft den Erfolg der „Äppel-Computer“, die sich den Anschein gaben, als könnten auch ganz normale Menschen damit umgehen. „Wo ist mein Äppel????“. Sehr eilig baute man im eigenen Hause etwas zusammen, den „Datamaster“.

Dazu vielleicht ein autobiographischer Einschub: Eine Laune des Schicksals hat dazu gefĂŒhrt, daß ich einige Zeit mit der Konstruktion von ScherenhebebĂŒhnen befaßt war. Im Zuge dieser Arbeiten wurde ich zu einem Konstruktionsseminar verdonnert. Es wurden dort Teams gebildet, die sich nach Sympathie ergeben hatten. Meines bestand aus Hubtisch- und Kranbauern. Ärgerlicherweise lautete die Aufgabe an uns nicht, „Baut ein Schwerlasthebezeug fĂŒr einen GĂŒterwaggon“, ein Job, den wir mit Bravour gelöst hĂ€tten, sondern, Gipfel der Infamie:
„Baut einen Kinderwagen“.

Was soll ich sagen, wir haben den teuersten, schwersten und unbrauchbarsten Entwurf abgeliefert. Und den scheußlichsten, denn er sah aus wie eine HebebĂŒhne.

So wie diesen mißratenen Kinderwagen muß man sich den IBM „Datamaster“ vorstellen. Wenn Mainframe-Bauer PCs bauen sollen, dann kommt ein kleiner Mainframe dabei heraus, aber kein PC.

So kam es, daß der „Datamaster“ desaströs floppte und Akers tobte.

IBM – Mitarbeiter Don Estridge erklĂ€rte Akers:
Wenn Sie einen Computer fĂŒr die Ahnungslosen bauen wollen, dann mĂŒssen Sie ihn von Leuten bauen lassen, die garantiert keine Ahnung von Computern haben„.

Das war sein VerhĂ€ngnis: Mit 11 weiteren Flaschen, die in der Entwicklung entbehrlich waren, wurde er buchstĂ€blich in die WĂŒste geschickt, wo er den „Personal Computer“ bauen sollte.

Der IBM – PC. Er war so erbĂ€rmlich, wie er aussah.

Dieses jenseits jeder Schamgrenze zusammengefrickelte StĂŒck SondermĂŒll fackelte schon bei der internen PrĂ€sentation ab – nicht umsonst nannte man dessen Macher IBM – intern „Das dreckige Dutzend“. Aber warum auch immer:

IBM brachte das Mistding auf den Markt und weil alles, was IBM vorgab, zu jener Zeit sofort zum „Industriestandard“ avancierte, war eine Seuche geboren, die schlimmer war als AIDS, Ebola und Islamismus zusammen.

Aber auch Akers hatte sich selbst keinen Gefallen damit getan, denn die unbeabsichtigte Etablierung eines „Standards“ etablierte vor allem eines: Konkurrenz. Infolge einer fatalen Verkettung unglĂŒcklichster UmstĂ€nde (ein IBM – Berater wollte am Wochenende in Ruhe angeln gehen, anstatt in Armonk eine wĂŒste Folienschlacht ĂŒber sich ergehen zu lassen) wurden Paul Allen und William H. Gates mit der Aufgabe betraut, ein Betriebssystem fĂŒr diese KrĂ€tze zu bauen.

Das hatten sie nicht — aber warum auch, wenn man eines klauen konnte?

So wurde aus CP/M im Magenumdrehen „MS-DOS“, welches in seiner unausgegorenen PrimitivitĂ€t und desaströser Konzeptlosigkeit perfekt zur elenden Hardware paßte.

Die Folgen sind bekannt:

Bei Landfahrzeugen besteht aus gutem Grund eine starke Diversifizierung: Wir sehen tÀglich Bagger, Tieflader, Sattelschlepper, MotorrÀder, Cabriolets, Reisebusse, FahrrÀder, Lokomotiven und Rennwagen. Kein Mensch kÀme auf die Idee, mit dem Möbelwagen in die Stadt zum Eisessen zu fahren oder mit dem Motorrad einen Umzug zu unternehmen.

Wirklich kein Mensch?

Der gemeine PC-Trendlemming war so dĂ€mlich. Und ist es heute noch. Selbst aktuelle Intel-„Server“ booten noch mit „DOS“. Und wer das nicht glaubt, der werfe eine Suchmaschine seiner Wahl an und finde heraus, wie PXE funktioniert, was ein „C/H/S-Interface“ ist und ein „A20-Gate“.

Jedermann kann nachvollziehen: Aus einem „Trabant“ macht man keinen Sportwagen und keinen LKW.

In der Informationstechnologie jedoch ist dies „Best Practice“.

Es gibt heute nur noch den vielfĂ€ltig aufgebohrten „IBM PC“ in unterschiedlichen Metastasierungen.

DEC, SUN, HP und IBM hoben sich lange Zeit ab von dem billigen Tand und bauten tolle Prozessoren, SUN die „SPARC“, HP sein PA-RISC, DEC seinen legendĂ€ren „Alpha“ und IBM unter anderem POWER.

Und diese Firmen hatten fĂŒr ihre Kunden auch ernstzunehmende Betriebssysteme entwickelt, MVS, Solaris, VMS, AIX, OS/400…

Betriebssysteme, Prozessoren, Hauptspeicher und externer Speicher wurden individuell und nach Anforderung im Rahmen einer qualifizierten Ingenieursarbeit zu einem System zusammengestellt.

PCs und leider auch sogenannte „Intel-Server“ dagegen wurden und werden völlig sinnfrei von gegelten Trieftollen-Salesguys zusammengestellt. Einzige, dafĂŒr aber zwingende Anforderung an das Flachpersonal: Garantierte UngetrĂŒbtheit von jeder Art Bildung oder gar technischem Sachverstand.

Mir war diese Entwicklung zunÀchst gar nicht so unrecht:

Ich fand es gut, daß sich „meine“ Server von den BilligbĂŒchsen unterschieden, die StabilitĂ€t und die durchdachten Details der Betriebssysteme gefielen mir, mein Beruf war angesehen.

Bezahlt wurde auch recht gut.
Der Name IBM stand fĂŒr ZuverlĂ€ssigkeit, QualitĂ€t und LeistungsfĂ€higkeit.

Irgendwann wollte oder mußte IBM Kosten senken.
Und da hatte man tolle Ideen:

  • Die fĂŒr etwa 20 Milliarden entwickelte „Next Generation Platform“ wickelte man ĂŒber eine Beerdigungsfirma ab, denn „eigene Hardware ist zu teuer“.
  • Die eigene Chipfertigung wurde verkauft.
  • Das fĂŒr die eigenen, professionellen Systeme optimierte AIX, seit gut 25 Jahren stabil, robust, sicher, skalierbar und leistungsfĂ€hig, soll durch „Linux“ ersetzt werden, einen billigen Unix-Abklatsch: Technologie von gestern mit den Konzepten von vorgestern. Aber alle finden es ja soooooo toll.
  • Und auch die kommerziellen Systeme sollen durch Linux ersetzt werden: „One Size Fits All“.

Mir ist es ja egal, was IBM verzapft (wenn’s ‚mal so wĂ€re…), es wird, solange ich lebe, immer Kunden geben, die meine Arbeit zu schĂ€tzen wissen – den Massenmarkt habe ich nie bedient.

Aber dennoch packt mich das blanke Entsetzen, wenn ich dann doch einmal an einer IBM – Konferenz teilnehme — und damit sind wir gnadenlos in der Gegenwart.

„Sie wollen eine gute Jazztrompete? Hier, nehmen Sie doch unsere neue Kirmeströte“

SAP lĂ€uft seit Jahren stabil und hochverfĂŒgbar auf „großen Eisen“.
Nun bietet IBM an:

„SAP hat jetzt seine eigene Datenbank, ‚HANA‘. Die laßt Ihr, in einer Wirrtualisierungsinstanz, auf unseren Servern laufen. Und zwar nicht unter AIX, das könnte ja unter UmstĂ€nden die Performanceeinbuße durch die Wirrtualisierung kompensieren, sondern nehmt ein LINUX, und zwar nicht irgendeines, sondern das scheußlichste, war wir auftreiben konnten: ‚SuSE‘, von Experten gern und mit guten GrĂŒnden als ‚NĂŒrnberger Windows‘ bezeichnet“.

Blöd bloß: Die Wirrtualisierungsinstanz heißt „Power VM“ und ist nichts anderes als ein „erweitertes“ AIX 6.1, und die Applikationsserver selbst laufen ebenfalls unter AIX.

Da mĂŒĂŸte ich ja schön blöd sein, einem Kunden ein solches Kuckucksei ins Nest zu setzen. Zumal bekannt ist: IBM ist nicht gerade sattelfest im Thema „Linux“:

„Crisis? What Crisis?“

In einem leider viel zu kurz geratenen Vortrag erlĂ€utert ein UniversitĂ€tsprofessor, welcher am „Hasso Flachmann – Institut“ lehrt, daß IBMs Linux – Implementation noch lange nicht „fertig“ ist:

  • die „Hardware Management Console“ ist nicht nur ein elender Stromfresser und ProduktivitĂ€tskiller, sondern „optimiert“ auch ungewollt den Prozessor/Storage – Pool kaputt.
  • Gut, das weiß man als IBMer und kennt auch Methoden, dieses Schandmal zu meiden.
  • Gerade bei vielen Nodes ist die NUMA sehr schlecht implementiert.
  • Ab und zu bleibt auch schon mal das Gesamtsystem unmotiviert stehen.
  • Der „gcc“-Compiler mit dem ppc-backend erzeugt alles andere als optimalen Code. Hier hĂ€tte IBM die Chance gehabt, einmal richtig zu helfen. Stattdessen pinselten sie in San Francisco ĂŒberall „Love, Peace & Linux“ auf die BĂŒrgersteige. Die Stadt war ’not amused‘ und IBM mußte die hĂ€ĂŸlichen Pinguine wieder entfernen.   Wer’s nicht glaubt:

Der Professor unterdessen wollte gnĂ€dig sein und hat auf Benchmarks, die beispielsweise einen prolligen „Dell“ und einen teuren „IBM POWER Server“ unter Linux miteinander vergleichen, verzichtet.

FreimĂŒtig konstatierte er jedoch, daß unter AIX sowohl NUMA als auch Compiler und ĂŒberhaupt das Gesamtsystem aus Scheduler, Device Drivern und Libs perfekt aufeinander abgestimmt seien.

Das entspricht auch meiner „Hands-on Experience“ (es wurde durchweg ‚denglisch‘ gesprochen, einer degenerativen Variante des ‚modern Esperanto‘):
Bei gleichem Workload und vergleichbarer Maschinenleistung erzielt man mit „Linux auf Intel“ 100 %, mit „Linux auf Power“ 75 % und mit „AIX auf Power“ 200 %.

Aber: Der Prof fĂŒhrt sinngemĂ€ĂŸ aus, „Ja, in den Neunzigern konnte AIX seine Überlegenheit voll ausspielen, aber heute kennt es nur die Generation „50+“. Und außerdem hat es nicht diese vielen tollen „Tools“ aus der „Community“.

An der Pforte hatte ich in der FrĂŒhe meinen Morgenstern, das Wurfmesserset sowie die TĂŒte mit faulen Eiern abgeben mĂŒssen, wirklich wirksame Argumente standen mir daher nicht zur VerfĂŒgung.

Aber einen Zwischenruf mußte ich dann doch loswerden, „mit den Linux-Tools löst man dann die Probleme, die man unter AIX gar nicht hĂ€tte – weil es einfach lĂ€uft“.

Denn: Ein Betriebssystem ist fĂŒr mich eine Infrastruktur – und kein Spielzeug. Mein Job ist es, Ideen auf dieser Plattform umzusetzen – und nicht, daran herumzubasteln.

Aber der Prof und die IBMer befinden:
„Die Welt spricht nun einmal Linux“.

Im Gleichschritt marsch …

Die Krönung setzt ein junger Mann von der „Sedativ GmbH“ auf, der, anstatt fĂŒr einen Neppshop ein AIX mit einer ordentlichen Datenbank einzusetzen, PostgrSQL unter Linux verwendet. Er erzĂ€hlt, „wir mußten POWER8 nehmen, denn die kann man auf ‚little endian‘ umstellen.

Auf meine Frage, „Warum nicht ‚big endian‘ , so daß die Lösung auch auf den (massiv im Einsatz befindlichen und immer noch verkauften) POWER7 – Modellen zum Einsatz kommen könnte“, meinte er, „wir wollten das Debian (die Linux-Distribution) nicht neu kompilieren“. Auf meinen Einwand, „die gibt es seit Jahren fix und fertig in der aktuellen Version zum Download“, ließ er dann doch die Katze aus dem Sack:

„Das, was Sie vorschlagen, ist halt ‚the road less taken'“.

Da weiß ich dann nicht, ob ich lachen, laut aufschreien oder heulen soll. Esst Scheiße — zehn Millionen Fliegen können sich nicht irren, oder, in Anlehnung an Robert Long:

Die Server krachen ĂŒberall
und bald kommt es zum großen Knall,
man mĂŒĂŸte schleunigst etwas unternehmen,
sonst werden wir erdrĂŒckt von den Problemen.
Doch statt daß die Vernunft regiert
wird fleißig weiter missioniert,
man watschelt gern mit Tux und Gott
zum Abgrund hin im GĂ€nsetrott.
Linus fĂŒhrt, Linus fĂŒhrt,
dahin, wo man selig wird,
Linus fĂŒhrt, Linus fĂŒhrt,
den, dem es gebĂŒhrt …
Es ist nun einmal, wie es ist,
der Mensch glaubt gerne jeden Mist,
Wer vorher blöd genug fĂŒr Win,
der macht jetzt „profihaft“ in Lin.

Da nimmt es dann nicht wunder, daß die „Sedativ GmbH“ sich auch beim „Design“ der verkorksten Linux-Lösung fĂŒr die Stadt MĂŒnchen vom Prinzip der ‚road more taken‘ offensichtlich hat leiten lassen — mit dem bekannten Ergebnis.

Das Nachbauen von Microsoft – Strukturen zieht halt Microsoft – Probleme nach sich — damit konnte wirklich niemand rechnen!

Und — zum Thema „Welcher Weg ist meiner?“ hatte Robert Frost eine andere Vorstellung, und zwar schon in den 50er Jahren:

„The Road Not Taken

Two roads diverged in a yellow wood, and I,
I took the one less traveled by,
and that made all the difference.“

Zwischendurch zur Klarstellung:

Niemand will die bahnbrechende Leistung der IBM bei der Entwicklung der POWER – Architektur schmĂ€lern, ganz im Gegenteil!
Bloß, um beim Beispiel mit der guten Jazztrompete zu bleiben:
Wenn nur der ‚dumme August‘ hineinblĂ€st, dann kann man auch bei der Kirmeströte aus Plastik bleiben.

Braucht jemand also eine Linux-Serverfarm, dann bestelle er sich ein Rack voller Dell-Pizzaschachteln. Die passen dann auch vom billigen Aussehen her perfekt zu Linux.

In der Welt der Verschwörer

Nun referiert ein Mitarbeiter der Firma Klo Lab.
Was mir gefĂ€llt: Die nehmen nicht den bestehenden Systemen die Workloads weg, sondern portieren Anwendungen weg von Windows, und das ist grundsĂ€tzlich begrĂŒĂŸenswert.

Aber: Das Produkt ist in Zusammenarbeit mit dem „BSI“ entwickelt worden. Das, was ich von dort mitbekommen mußte, taugte nie etwas.
Dann der Hinweis auf den eingebauten Mailserver der Firma „cyrix“: Den habe ich nicht in stabilster Erinnerung.
Dennoch: Es ist dringend notwendig, die grottenschlechten „Exchange“-„Server“ nachhaltig zu vernichten. Einschließlich des „Office“ – SondermĂŒlls. Da gewinnt ein solches Produkt auf der POWER – Plattform gehörig an Relevanz.

Der Referent ist gut, aber so einige Behauptungen sind lustig:
Bei Intel-Prozessoren gebe es Extra-Instruktionen fĂŒr „Google“ und die Asozialen-Schlammsuhle „facebook“. Das wĂ€re ja einmal etwas: Wenn, wegen des fehlenden Spezial-Opcodes von INTEL, ich mit einem Power – Rechner nie wieder ein Bild der Visage des Herrn Zuckerberg zu Gesicht bekĂ€me, dann wĂ€re das ein ungeheurer Vorteil.
Auch, wenn der Referent sich alle MĂŒhe gibt, tiefergehende Sachkenntnis zu verbergen: Einen Assembler – Programmierer erkenne ich, wenn ich ihn sehe. Da wĂ€re ganz klar mehr gegangen.
Aber IBM hat fĂŒr das komplexe Thema gerade einmal 20 (!) Minuten Zeit eingeplant. Ich wollte bei dem gedrĂ€ngten Programm nicht schon wieder durch Zwischenrufe und Fragen auffĂ€llig werden, aber es juckte mir schon in den Fingern, einmal zu fragen, wieso fĂŒr den Referenten die POWER – Architektur erst jetzt an Relevanz gewinnt. Daß der „x86“ so ziemlich die hinterletzte KĂŒchenschabe ist, wurde von keinem sachkundigen Menschen jemals auch nur diskutiert. Man vergleiche 8080 mit 6502, 80286 mit 68000 und so weiter, und so fort. Im Vergleich zur POWER – Architektur geriert sich Intel wie die elektronische Multimedia-Orgel eines schmierigen Alleinunterhalters neben einem ausgewachsenen Bösendorfer – FlĂŒgel. Das muß doch einem denkenden, neugierigen Menschen, der eine schweizerische Hochschule besucht hat, ins Bewußtsein springen?

Im Rahmen des Ultrakurzvortrags habe ich ungefĂ€hr 127 Mal die Phrase von der „Freien Software“ gehört, das geht mir seit Jahren auf den Senkel, weil es etwas hat von „Wir sind die Guten“.
„ProprietĂ€re Software“ heißt doch zunĂ€chst einmal nichts anderes, daß sich jemand darum kĂŒmmert! „Ökosysteme“ sind mir nicht erst seit Claudia Roth verhaßt. Es muß nicht jeder ĂŒberall dran ‚rumfummeln, ich sage nur „Ralf Seggelmann“, „Telekom“ und „Heartbleed“. Oder darf ich noch auf das desolate Xorg hinweisen?  FrĂŒher hatte man gewitzelt, „Ah, it compiles! Let’s ship it!“.
Ein Xorg zerlegt sich schon beim imake.

Trotz aller Meckerei: Mit einer Alternative zur gĂ€ngigen Kollabierungsware von Microsoft wird man sich auseinandersetzen mĂŒssen.

Danach stellen zwei Referenten eine weitere „Lösung“ vor, „Skalix“.

Hier zeigte sich:  Man kann auch noch einen 20-Minuten – Vortrag noch verkĂŒrzen, indem man 10 davon mit substanzlosen Unternehmensdarstellungen verplempert.  Da wĂ€re mir ein „gespielter Witz“ lieber gewesen.
Außerdem benutzt das Produkt „JAVA“ und „MySQL“.  Wenn dann noch „PHP“ oder Ă€hnlicher MĂŒll dazukommt, dann muß man aufpassen, daß nicht eine „kritische Masse“ erreicht wird, die dann irgendwann als schmutzige Bombe explodiert.

Der Kracher fehlt …

… und sitzt doch im Plenum. Denn, und da sieht die „Komjunity“ vor lauter „Ökosystem“ die BĂ€ume nicht, ein Computer ist kein Daddelspielzeug, sondern ein Werkzeug, mit dem Menschen ihre FĂ€higkeiten multiplizieren können.

Anstatt krampfhaft zu versuchen, „Schwerlastverkehr“ mit einem Klapproller zu realisieren, könnte man ja zur Abwechslung ja etwas Produktives tun:
Einen Computer als Anwendungsserver verwenden.
Und dazu bietet „Linux on Power“ ganz hervorragende Möglichkeiten:

Auf einem oder mehreren Servern weden Anwendungen installiert, die dann von hunderten oder tausenden von Anwendern ĂŒber schlanke, energiesparende „Thin Clients“ genutzt werden können — in atemberaubender Geschwindigkeit.

Gleichzeitig gibt es keinen Streß durch zentrales Updatemanagement und man erreicht hohe Sicherheit — denn der typische Viren-Schadcode ist fĂŒr die INTEL-Amateurcomputer konzipiert und lĂ€uft schlicht nicht auf einer POWER-Architektur.

Tja, und nach dieser Methode hĂ€tte man in MĂŒnchen die Informationstechnologie auf Vordermann bringen können — anstatt jedem Mitarbeiter so einen lĂ€cherlichen PC hinzustellen — der heute buchstĂ€blich zum alten Eisen zĂ€hlt.

Das alles bekommt man mit „X2go“ hin, aber das Thema schien wohl nicht so interessant zu sein. Am Ende nimmt man dem lieben Wettbewerber HP noch ein paar Großkunden ab. Da richten wir doch lieber unser KerngeschĂ€ft zugrunde und vergraulen unsere Stammkunden mit unausgegorenen Produkten.

Potentiale muß man erkennen …

… insbesondere wenn es um die eigenen geht.

Nachdem die Technologie ja angeblich zur VerfĂŒgung steht:

Ersetzt das IBM-Management durch „WATSON“ !

-hb

Hans Bonfigt
Samstag, der 27. August 2016

Am Beispiel eines Pioniers

Heinz Sebiger ist diese Woche verstorben.

1966 grĂŒndete er mit vier Kollegen ein genossenschaftlich organisiertes Unternehmen.

Als er nach ziemlich genau 30 Jahren die Leitung der DATEV abgab, war diese das grĂ¶ĂŸte gewerbliche Rechenzentrum Europas. Kraft der Gnade der frĂŒhen Geburt kann ich aus eigener Erfahrung hinzufĂŒgen: Der Erfolg der DATEV grĂŒndete sich fast ausschließlich auf der QualitĂ€t und ZuverlĂ€ssigkeit ihrer Leistung.

Die „Frankfurter Allgemeine“ verstieg sich zu der Behauptung, Sebiger habe das „Cloud Computing“ erfunden und markiert damit einen vorlĂ€ufigen Tiefststand journalistischen Niveaus. Warum plappern junge Leute immer so einen irrelevanten Blödsinn? Und plötzlich wird mir klar:

Sie kennen die Computergeschichte nicht. Ist doch auch nach vollziehbar: Computer wurden seinerzeit als „Arbeitstiere“ genutzt, quasi wie Bagger. SĂŒndhaft teuer, wartungsintensiv, mit wenig AttraktivitĂ€t fĂŒr die moderne Bespaßtwerdengesellschaft. Im Gegensatz zum „Porsche“: Vom Konzept her billig, vom LĂ€rm her prollig – und ein absolutes Objekt der Begierde. Die heutigen, peinlichen Daddelkisten sind so sinnvoll wie ein Porsche, die damaligen Computer waren so sinnvoll wie ein Bagger.

Wie jeder Pionier war Heinz Sebiger kein „Innovator“, sondern hat vorhandener Technologie den Weg geebnet.  Denn Fortschritt und Innovation sind heutzutage meist GegensĂ€tze.

Rechenzentren gab es nĂ€mlich Mitte der sechziger Jahre viele, hier ein Link zu einem Beitrag ĂŒber das ZBL-Rechenzentrum in Schwerte:  http://www.lokalkompass.de/schwerte/leute/revolutionaer-der-lochkarte-horst-haake-feiert-heute-seinen-90-geburtstag-d496803.html

Sowohl den Herrn Haake von ZBL als auch Herrn Sebiger kenne ich persönlich — und fĂŒr beide Unternehmen habe ich Datenerfassungsprogramme und Schnittstellen entwickelt. Vor diesem Hintergrund möge der Leser mir abnehmen: Die Produkte waren Ă€hnlich, die Verfahren waren Ă€hnlich. Horst Haake mußte sein Unternehmen Mitte der achtziger Jahre schließen, wĂ€hrend die DATEV den Zenit ihres Erfolges genießen konnte.

Was hatte Sebiger anders gemacht ?

Sebiger war Steuerberater. Als BerufstrĂ€ger wußte er, worauf es bei Finanzbuchhaltung, Anlagenbuchhaltung und Lohn- und Gehaltsabrechnungen ankommt.  Und er wußte, was die Endkunden, seine Mandanten, von ihm haben wollten.

Er schrĂ€nkte sein Angebot also sinnvoll auf das fĂŒr Steuerberater notwendige Portfolio ein und organisierte die DATEV als Genossenschaft. Jeder, der ihre Angebote nutzen wollte, mußte seinen Genossenschaftsanteil leisten – und BerufstrĂ€ger sein. Ein geniales Konzept, qualifizierte Kunden sorgen fĂŒr qualifiziertes Feedback. Qualifizierte Kunden aber konnten vor allem die Leistung des Rechenzentrums „an den Mann“, also den Endkunden, bringen. Damit konnte die DATEV die QualitĂ€t der Gesamtleistung sicherstellen.

Die heutige „EDV“ ist ja auch deshalb so schlecht beleumundet, weil jeder Einfaltspinsel auch die komplexesten, schlechtesten und wartungsintensivsten Produkte „vertreiben“, installieren und pflegen darf. Über neunzig Prozent derjenigen, die Datenbanken installieren oder warten, wissen nicht, was das ist. Man mache sich einmal den Spaß und frage einen heutigen „Spezialisten“ nach ACID. Sebiger hat, mit seinen vier GrĂŒndungsmitgliedern, dafĂŒr gesorgt, daß, anstelle von aufgeblasenem „QualitĂ€tsmanagement“, eine QualitĂ€tskette entstand.

Das EVA – Prinzip

Mir liegt das FAZ-Geschwafel vom „Erfinder des Cloud-Computing“ noch gewaltig im Magen, vielleicht sollte ich das Paradigma von Datenverarbeitung beleuchten, wie es in den 60ern verstanden und umgesetzt wurde:  „Erfassung — Verarbeitung — Ausgabe“.  Nehmen wir einmal eine Lohnabrechnung:

Die Sachbearbeiterin sammelte und sortierte die Aufzeichnungen zur Arbeitszeit, typischerweise Stempelkarten, Krankmeldungen usw. usf..  Nun ging sie zu einem ErfassungsgerĂ€t, typischerweise einem erweiterten Fernschreiber mit Lochstreifenstanzer, gab einen „Vorlauf“ ein, in dem codiert stand, „FĂŒr den Juni 1968 bei der Krummes & Schwarz OHG sind nachfolgende Arbeitszeiten angefallen“, und dann, Zeile fĂŒr Zeile, Personalnummer, Lohnart und Stundenzahl. Das war die Erfassung.

Die Rolle mit den Daten wurde im DATEV-Rechenzentrum zunĂ€chst eingelesen und auf einer Platte geparkt. Denn: Auf den großen IBM/360 lief nur genau ein Programm zur gleichen Zeit (fĂŒr Fachkundige: Solche Dinge wie TSO lasse ich jetzt einmal weg). Das war wesentlich effizienter, als es in die hohlen Birnen heutiger Informatiker geht. Zwei Programme A und B laufen hintereinander deutlich schneller ab als gleichzeitig. Man baute also Stapel (einen „Batch“) mit Steuerkarten, „Starte das Lohnprogramm, lese den passenden Lochstreifenspool und arbeite jeden Vorlauf ab“. Anhand der Informationen aus dem Vorlauf wurden die korrespondieren Daten von lokalen Platten geholt, die Berechnung und die Druckaufbereitung konnte beginnen. Bereits zu einem sehr frĂŒhen Zeitpunkt erfolgte ab hier auch schon eine automatische Übermittlung der Daten an die Kranken Kassen – Kraken in elektronischer Form.

Das Resultat der Verarbeitung war die Ausgabe unter anderem in Form fertiger Lohnabrechnungen, ÜberweisungstrĂ€ger fĂŒr die Banken, Lohnjournale etc.. Die wurden zugeschickt.

Das war „EVA“.  EVA war ein langsames GeschĂ€ft, aber:  Sebiger machte wirklich „den Weg frei“: Er trat der Bundespost richtig in den Arsch.

Denn fĂŒr den Transport der Lochstreifenrollen und den Versand der Auswertungen brauchte die heruntergekommene Schneckenpost gerne auch einmal eine Woche. Und die DATEV organisierte ihren eigenen Kurierdienst und so sparte man effektiv sechs nutzlose Tage pro Lauf ein.

NatĂŒrlich: Die Bundesrepublik Deutschland wĂ€re nicht die Bundesrepublik Deutschland, wenn nicht sofort ein Gerichtsverfahren gegen die DATEV losgetreten worden wĂ€re, eines, welches sich ĂŒber mindestens 5 Jahre hinzog.

Heinz Sebiger aber blieb nicht stehen.

Und wÀhrend Bundespostminister Kurt Dummle alles tat, um Unternehmenskunden immer weiter finanziell auszubluten und die Nation technisch immer weiter zu isolieren, stellte Sebiger kurzerhand auf Datenfernverarbeitung um.

Einem Verfahren, daß es kraft der BemĂŒhungen der Bundespost eigentlich gar nicht geben konnte. Denn so, wie Hartmut Mehdorn die Bahninfrastruktur systematisch verwahrlost hat, so ließ seinerzeit die Bundespost das Telephonnetz herunterkommen. Sebiger hatte die Lösung und baute bundesweit ein Netz von „DFV-Konzentratoren“ auf.   Der typische Steuerberater verfĂŒgte mittlerweile ĂŒber ein elektronisches Erfassungsterminal, welches die Nutzdaten auf einer Magnetbandkassette speicherte. Die konnte einfach verschickt werden, war vergleichsweise robust und man konnte sie auch einigermaßen schnell einlesen. Die Übertragung ins NĂŒrnberger Rechenzentrum erfolgte ĂŒber den nĂ€chstgelegenen „DFV-Konzentrator“. Dadurch fielen nur Nahbereichstarife an, vor allem aber „packte“ die regionale Verbindung wenigstens noch echte 1.200 Baud, in etwa also 145 Zeichen pro Sekunde.  Statt heute gĂ€ngigem „DSL 50.000“ gab es damals also „Analog 1,2“.  Aber das Datenformat war intelligent organisiert, verschwuchtelte „XML“-Pappnasen gab es glĂŒcklicherweise nicht – und so dauerte ein umfangreicher Datenaustausch etwa eine halbe Stunde. In der Nacht erfolgte die RĂŒckĂŒbertragung der Druckdaten – und der Steuerberater, welcher morgens seine Daten eingeschickt hatte, konnte am nĂ€chsten Tag seine Auswertungen im eigenen Hause drucken.

Sebiger hatte seine eigene Infrastruktur geschaffen.

Ganz wichtig dabei: HĂ€tte Sebigers DATEV der Politik nicht gezeigt, was alles möglich ist, dann wĂ€ren wir womöglich technologisch noch mehr Entwicklungsland als jetzt.  Es war nach meinem Empfinden die DATEV, welche den Begriff „Computer“ erst populĂ€r machte.

Paradigmenwechsel …

Bereits in den spĂ€ten Siebzigerjahren erkannte die DATEV, „Die Batchverarbeitung und EVA sind am Ende ihrer LeistungsfĂ€higkeit angelangt“.  Und wieder war es die DATEV, die, zaghaft zwar, ĂŒber die neuen Möglichkeiten der Datenfernverarbeitung echte Dialoganwendungen anbot.  Als wirkliche Sensation wĂ€re da die „Steuerrechtsdatenbank“ zu nennen, welche eine Volltextsuche in sĂ€mtlichen steuerrechtlichen Urteilen, inclusive derer des „Reichsfinanzhofs“, ermöglichte – und damit dem Steuerberater eine wirksame Waffe gegen die umfassenden Bibliotheken des feindlichen Finanzamts in die HĂ€nde gab. Wenn ich das persönlich bemerken darf: 1976 saß ich vor einem Terminal dieser Bauart und empfand es, gerade einmal 16jĂ€hrig, als unvorstellbaren Triumph der Technik, als einer von vielen quasi gleichzeitig mit einem Großrechner zu „sprechen“, welcher im 500 Km entfernten NĂŒrnberg stand.

Der Niedergang

Aus den USENET-Archiven habe ich gerade einen Artikel hervorgekramt, welchen ich vor ziemlich genau 16 Jahren verfaßt habe.  Warum eigentlich kein Vollzitat ?

Die Metastasen des DATEV-Elends
[...] 
So musste ich fruehzeitig Daten erfassen, und zwar zuerst an einer
Olivetti 1731 "Telebanda", einem, vom Antriebsmotor einmal abgesehen,
rein mechanischen Datenerfassungsgeraet. Die Ausgabe erfolgte auf ei-
nem modernen 8-Kanal - Lochstreifen, was gegenueber der Fernschreib-
norm einen gehoerigen Fortschritt darstellte.  Selbst Kleinschreibung
war damals schon moeglich.

Das Datenformat konnte natuerlich vom Rechenzentrum nicht so ohne wei-
teres geaendert werden, weil eine 'Programmaenderung' zwar nicht ge-
rade unmoeglich, aber doch recht aufwendig war.  Deswegen blieben so-
wohl Datenformat als auch die Logik der Erfassungsprogramme bis weit
in die 80er Jahre erhalten, denn so lange akzeptierte die DATEV Loch-
streifen.
Ab 1975 jedoch kamen die elektronischen Geraete in Mode, mein erstes
war eine Olivetti A5, mit Magnetkartenleser, acht freiprogrammier-
baren Lampen zur komfortablen, kontextsensitiven Bedienerfuehrung,
Kugelkopfdrucker und, Revolution, Magnetbandkassette nach ECMA 34 -
Standard.  Zwei KB Hauptspeicher, der Wahnsinn !
Die Aufzeichnungsnorm aenderte sich nie, die Erfassungslogik auch
nicht.  Denn diese Geraete wurden auch mit Lochstreifenstanzer an-
geboten.
1977 bekamen wir unsere KIENZLE 9027-40, mit Magnetbandkassette,
Datenfernuebertragungseinrichtung (BSC), Plasmabildschirm (12 Zeilen
zu je 40 Zeichen), Nadeldrucker sowie zwei 8-Zoll-Diskettenlauf-
werken. Mit seinem 8080 Prozessor und seinen 56 KB RAM war das Ge-
raet enorm leistungsfaehig.  Bis heute hat ein Kunde (Bauunterneh-
men in Oberhausen) dieses Geraet im Einsatz, weil ihm keine andere
Software so viel Komfort beim Verarbeiten seiner 'bergbauspezifi-
schen' Aufmasse biete, angeblich.  Ich sage aber jetzt nicht, wer
die SW geschrieben hat.  Und wieviele Kisten 'Koepi' hierfuer er-
forderlich waren.  Obwohl bereits diese Geraete weitaus leistungs-
faehiger waren als es ein PC jemals faktisch sein wuerde, blieb die
DATEV bei den sehr restriktiven Vorschriften fuer die Erfassungspro-
gramme.  Hintergrund war der, dass nicht einzelne Genossenschafts-
mitglieder wegen ihrer Hardware bevor- oder benachteiligt wuerden.
Immerhin kostete ein solches Geraet damals gut DM 50.000,--, was
heute leicht dem dreifachen entsprechen wuerde. Man wollte halt
nicht seine Mitglieder faktisch zwingen, jedes Jahr einen neuen Ap-
parat kaufen zu muessen.

Ein sehr vernuenftiger, sozialer Gedanke uebrigens, der auch einst
im Internet gepflegt wurde, bis die widerlichen PCPisser mit ihren
Shockflaschdreck dort einfielen wie die Schmeissfliegen.

Irgendwann einmal wurde es unserem lieben Gott zu bunt, und er woll-
te die Menschheit ausrotten.  Nachdem Sintflut und Pest eine Pleite
waren und auch das Aufkommen von Banken und Leasinggesellschaften
nicht das gewuenschte Ergebnis gezeitigt hatte, inspirierte der lie-
be Gott den PC, die uebelste aller Seuchen, die Perversion jeglichen
Ingenieursgeistes, die Brutstaette fuer Hirnfaeule.  Das perfideste
an diesen Apparaten war, dass sie die Hirne junger, unvernuenftiger,
modebewusster, karrieregeiler Jungspunde uebernahmen.

Und so kam es, dass der PC in die Steuerkanzleien einzog, zu ueber-
teuerten Preisen von einigen wenigen Herstellern angeboten, mit ei-
ner Software, die von DATEV angeboten wurde.
Weil die Vollidioten, die diese "Software" zusammenschmierten, keine
Erfahrung hatten und ausserdem nichts als pure Lust am Herumspielen,
sparte man sich ein sinnvolles Konzept und emulierte im Prinzip die
alten, proprietaeteren Erfassungsterminals und damit letzlich die
alten OLIVETTI - Lochstreifenstanzer.

Waehrend man aber mit einer alten Olivetti zuegig arbeiten konnte,
war die Arbeit am komfortablen PC umstaendlich, unergonomisch und
langsam.  Ja, das kann ich beurteilen, denn ich habe an allen bis-
her beschriebenen Systemen produktiv gearbeitet.

Wenn neuere PCs herauskamen, beispielsweise der hirnverbrannte 286er,
so gab es im Magenumdrehen eine neue Software, die den Performance-
gewinn ueberkompensierte.

Dabei wurde nach der "An- und Zubaumethode" gearbeitet:  Ein Pfeif-
chen hier, ein Klingelchen dort.  Vor allen Dingen wurde nie ein al-
ter Zopf abgeschnitten.

Viele Steuerberater wollten irgendwann einmal mehrere Arbeitsplaet-
ze haben, weil die Software so langsam geworden und so umstaendlich
zu bedienen war, dass mindestens drei notwendig wurden:  Zwei, um
das Buchungsvolumen zu bewaeltigen, und einer, an dem 'Spezialisten'
irgendetwas einstellten oder aufspielten.
Und so bot DATEV mit grossem Trara eine "Netzwerkversion" seiner
Weichhirnware an und waehlte, hierzu passend, das schlechteste al-
ler Netzwerkbetruebssysteme aus, das am Markt erhaeltlich war:
NOVELL.  Das sorgte dafuer, dass zwei Dinge regelrecht explodierten:
Zum einen die Anzahl der DATEV - PCs und zum anderen der Software-
umfang, den keiner mehr unter Kontrolle hatte.  Binnen kuerzester
Zeit war ein "486er" conditio sine qua non.

Dann kamen, Metastasen gleich, "Windows" und "Windows for playgroups".
Natuerlich gab es auch hierzu die passende DATEV - Software, denn wo
ein dicker Scheisshaufen liegt, da kackt auch alsbald ein anderer hin.
Weil aber die "Software" mittlerweile derart verbaut war, konnte ei-
ne Umstellung nur fehlschlagen.  So wurde den Genossenschaftsmitglie-
dern bis 1997 fuer teures Geld eine "Windows-Version" angeboten, die
in Wirklichkeit in der MSDOS-Kompatibilitaetsbox lief.  Und, selbst-
verstaendlich, wiederum alle bestehenden PCs zu Sondermuell machte.

Denn jetzt musste es ein schneller "Penzium" sein mit mindestens
64 MB Hauptspeicher.  Und wieder setzte die DATEV auf das mieseste
Trio infernal, was die Menschheit je hervorgebracht hat und auf das
nachfolgende Generationen spucken werden:  SINNLOS 95 als Arbeits-
platz, SINNLOS NT als Netzwerkserver und die PC - Architektur als
gemeinsame Basis.

Ja, so war das.  Und wie es heute ist, das hat Sven E. Lenz ja be-
reits aus seiner taeglichen Praxis beschrieben, ich zitiere noch
einmal:

> Was aber noch viel schlimmer als der Speicherplatz ist, ist die
> Laufzeit. Das ist wirklich unverschĂ€mt, was die Datev fĂŒr den Preis
> abzieht.

Ueber die Zuverlaessigkeit und Administrierbarkeit hat sich Sven
innerhalb dieses Threads ebenfalls geaeussert.

Und meine Prognose ist:  Es wird immer schliemmer werden.  Bis sich
irgendwann einmal jemand durchsetzen kann, den ganzen Dreck in die
Tonne tritt und die PC-Abteilung ausraeuchert.

In Indien sollten ja jetzt Ausbildungsplaetze vakant werden.

Nun gut, es war ein sicherlich nicht immer sachlicher Artikel. Doch in der RĂŒckschau sehe ich zweierlei: Zum einen entspricht die Darstellung in etwa der Wahrheit. Zum anderen habe ich mich geirrt in Bezug darauf, wie schlimm es einmal werden könnte.

Denn seit 1996 war der Lotse Sebiger im mehr als verdienten Ruhestand. Und wer auch immer den Fehler begangen hat: Es wurde ein ehemaliger Mitarbeiter des „Beratungshauses“ Ernst & Young zum GeschĂ€ftsfĂŒhrer „berufen“.

ZurĂŒck in die Steinzeit – ganz modern

Weil nĂ€mlich die DATEV – PC – Ware so grottenschlecht war (erfahrene DATEV-Anwender sehnen sich auch heute noch die alte, „schnelle“ Erfassungssoftware zurĂŒck), ĂŒberlegte man sich „innovativ“:

„Nun haben wir ein erstklassiges Rechenzentrum und eine lausige PC-Abteilung.  Laßt uns mehr Leistung auf die lokalen ArbeitsplĂ€tze verlagern, dann brauchen wir das Rechenzentrum nicht mehr.

Dann nĂ€mlich hĂ€tten wir ein unternehmenseinheitliches Mittelmaß !

Onlinetransaktionen  – wer braucht das schon, wenn der PC alles selber kann ?“

Und man lagerte nicht nur die gesamte Datenverarbeitung, sondern auch deren Speicherung und Archivierung auf die sichere PC-Plattform aus.

Tja – das waren die „neuen VisionĂ€re“, die die Renaissance der „lokalen Intelligenz“ am Arbeitsplatz begrĂŒĂŸten. Vernetzung? Wer braucht das schon. Und ja, es waren die gleichen Junggreise und Trendlemminge, die uns heute glauben machen wollen, man könne nicht mehr ohne LTE-„Handy“ aus dem Haus gehen.

Wie bekloppt dies wirklich ist, fĂ€llt eigentlich erst heutzutage auf. Warum muß ich aufwendigst eine komplette Großrechnersoftware auf jeden einzelnen verdammten PC installieren, obwohl eine moderne Rechenanlage leicht 100.000 Lohnabrechnungen pro Sekunde anfertigen kann?

Die DATEV war so blöd. Und selbstverstĂ€ndlich gab es Nachahmer, die noch inkompetenter waren: Das Bundesfinanzministerium mit seinem unsĂ€glich peinlichen ‚ELSTER‘ – Programm zum Beispiel. Es soll auch Firmen geben, die spezielle „APPs“ programmieren, mit der ein armer Student der TU MĂŒnchen nachgucken kann, was es in dieser Woche in der Mensa zu essen gibt. Vorausgesetzt natĂŒrlich, er besitzt so ein geschmackloses „Eifon“ oder einen hĂ€ĂŸlichen „Eifon-Klon“ der Machart „Android“.  Alle anderen werden sterben.

Intelligente, vorausschauende Menschen wie Heinz Sebiger haben die menschliche Lebenszeit als hohes Gut geachtet. Denn unsere Lebenszeit ist die einzige Ressource, die uns nicht unendlich zur VerfĂŒgung steht. Deswegen hat Sebiger eine Möglichkeit geschaffen, standardisierte Verfahren einmal sauber zu implementieren und Zehntausenden zur VerfĂŒgung zu stellen. Das ist ein sozialer Gedanke, der die Arbeitszeit des Menschen und damit den Menschen selbst achtet.

Werden Menschen gezwungen, fĂŒr nichts und wieder nichts immer neue Programme zu installieren und zu pflegen, wird ihnen diese Lebenszeit abgezogen (ich denke gerade an die ‚grauen Herren‘ von Michael Ende).

Besonders fatal wirkte sich die „Heirat“ der DATEV mit dem schlechtesten, ungeeignetsten und unsicherstem Betriebssystem aus, welches man sich denken kann: „Microsoft Windows“. Es gibt keinen grĂ¶ĂŸeren Lebenszeitvernichter als „Microsoft Windows“. Dieser zusammengeschusterte SondermĂŒll hat weltweit schon bis jetzt mehr Lebenszeit sinnlos vernichtet als alle deutschen Vernichtungslager zusammen. Administration und quĂ€lende Langsamkeit infolge von eigentlich unnötigen „Schutzmaßnahmen“ sind die eine Sache. Aber dann kommen die Hypertechnokraten der „DATEV“ und setzen auf den mehrfach ‚aufgebohrten‘ Havaristen noch ihr eigenes „Datev Framework“ obenauf. In den letzten Monaten war ich mehrfach Zeuge von DATEV-Installationen, jeweils durchgefĂŒhrt von ausgewiesenen Fachleuten. Da ist wirklich nichts, was man nicht mit einem Bulldozer sanieren könnte.

Die Anwender unterdessen klagen ĂŒber mangelnde Ergonomie, Unterbrechung des Arbeitsflusses durch langsame Software, hohe KomplexitĂ€t und hĂ€fige AbstĂŒrze.

Was von den VĂ€tern Du ererbt – erwirb es, um es zu besitzen

Der Tod von Heinz Sebiger macht mich traurig, ich kann mich noch gut an ein zufĂ€lliges gemeinsames Mittagessen beim NĂŒrnberger „Behringer“ erinnern:  „Nie die eigene Aufgabe aus den Augen verlieren“.

Und fĂŒr die DATEV wĂŒnsche ich mir eine neue FĂŒhrung, die das Potential des ursprĂŒnglichen DATEV – Modells von Heinz Sebiger begreift und mit aktueller Technologie erneut umsetzt.

Das wĂ€re einmal eine „Digitale Transformation“ nach meinem Geschmack !

-hb

Hans Bonfigt
Dienstag, der 3. November 2015

Drei glorreiche Halunken (II)

ISDN, DSL und Robert T. Online:

Die Degeneration entlĂ€ĂŸt ihre Kinder

Ein ZweiÀugiger sucht seinen Blinden

Mein Schwager ist ein „wert-konservativer“ Mensch.

Brahms, Violinkonzert? Ja, gerne! Aber „Deutsche Grammophon“ muß es sein, mit Herbert von Karajan, den Berliner Philharmonikern und Anne Sophie Mutter. Denn etwas „Besseres“ wird es niemals geben! Niemals nicht!

Und auch beim Telephonieren machte er keine Experimente: TELEKOM, das war das Beste und Einzige. Was der 280 SE in der Garage, war der Telekom-Anschluß im Wohnzimmer. Robust, unprĂ€tentiös, alternativlos.

Die Liebe zur Telekom wurde durch einige „Innovationen“ erschĂŒttert: Vor allem zu nennen wĂ€re der „Netz-Anrufbeantworter“, der, in seiner Standardeinstellung, ungefragt Anrufe entgegen nimmt und automatisch morgens um 03:30 durch hartnĂ€ckiges Klingeln signalisiert. Und morgens um 03:32 hat man genau die Ruhe und Gelassenheit, den nur 72 Stellen langen Deaktivierungscode einzugeben.

Als dann aber „Robert T. Online“, womöglich noch prĂ€senter als „Dieter Bohlen“, im Rahmen des „Börsengangs“ der neuen „Telekom“ von allen freien WerbeflĂ€chen prangte, hatte mein Schwager die Nase gestrichen voll und kĂŒndigte. Ich kann das sehr gut verstehen. Muß man sich eigentlich jede Entgleisung gefallen lassen? Ich finde: NEIN. Denn sonst wird es schlimmer.

Und es war auch ohne „Robert“ schlimm genug: In Teil I habe ich mit dem grandiosen Scheitern von „EWS“ aufgehört. Die Telephoniesituation in Deutschland war katastrophal, die Fernverbindungen waren so schlecht, daß die DATEV, das seinerzeit mit Abstand grĂ¶ĂŸte gewerbliche Rechenzentrum Europas, in vielen grĂ¶ĂŸeren StĂ€dten „DFV-Konzentratoren“ errichtete, weil die Analogmodems trotz einer Geschwindigkeit von nur 1.200 Baud nicht mehr von Flensburg oder Dortmund nach NĂŒrnberg durchkamen.

Und auch wenn die Leitung sauber war, dann gab es oft das berĂŒchtigte „Gassenbesetzt“ nach der zweiten, dritten Vorwahlnummer. Es war deswegen oft ĂŒblich, eine Modemverbindung manuell, also mit Handapparat und WĂ€hlscheibe, aufzubauen. Alle beschriebenen Probleme betrafen naturgemĂ€ĂŸ nicht nur den Daten-, sondern auch den Sprachverkehr.

Ende der Achtziger Jahre setzten sich Nachrichtentechniker durch: Entgegen der damals durchaus gĂ€ngigen Meinung, daß man eigentlich nur mit Koaxialkabel höhere Frequenzen sicher wĂŒrde ĂŒbertragen können, stellte man nĂ€mlich fest, daß auch mit der klassischen, verdrillten Kupferader, mit denen so gut wie alle Fernsprechteilnehmer am „HVT“ angeschlossen waren, ein wesentlich höheres Frequenzband ĂŒbertragen werden konnte als die ursprĂŒnglich vorgesehenen 3,5 KHz.

Wenn man die Verspulung der Teilnehmeranschlußleitungen entfernte, konnte man leicht 128 KHz erreichen. Nun mögen FledermĂ€use bei diesen Frequenzen kommunizieren, aber Menschen tun es nicht. Man kam daher auf die gleiche pfiffige Idee wie beim Rundfunksender, wo eine sehr hohe TrĂ€gerfrequenz im Rhythmus des niederfrequenten Sprachsignals moduliert wird.

Aber diesmal hatten die Erfinder weiter gedacht: Auch ein Radiosignal verliert mit Entfernung, DĂ€mpfung und Störungen irreversibel an QualitĂ€t. Also tastete man die niederfrequenten Sprachdaten ab, wandelte die in einen Strom von Nullen und Einsen um und modulierte sie auf einen hochfrequenten TrĂ€ger, um sie nun ĂŒber eine Zweidrahtleitung verschicken zu können – mit dem Vorteil, daß an beliebigen Stellen im Netz durch De- und Remodulation eine hundertprozentig verlustfreie Auffrischung des Signals erreicht werden konnte. Die digitale Telephonie war geboren. Doch was nĂŒtzt eine digitale Übertragung zum Hauptverteiler, wenn die Fernstrecken weiterhin analog betrieben werden? Deshalb wurde im Bereich des sog. „Backbones“ massiv digital aufgerĂŒstet.

Vielleicht kommt dem einen oder anderen Leser die Frage in den Sinn, „Warum eine so hohe Bandbreite auf der Teilnehmerleitung belegen?“. Nun, die Architekten von ISDN hatten von vornherein im Auge, daß die Anzahl der TelephonanschlĂŒsse explosiv steigen wĂŒrde, die KapazitĂ€t der in der Erde vergrabenen Hauptkabel aber „hart“ durch die Anzahl der vorhandenen Doppeladern begrenzt war. So kam man auf die Idee, einen sogenannten „Zeitmultiplex“ einzusetzen, um eine einzelne Doppelader zweifach und ein DoppeladerpĂ€rchen sogar 32-fach zu nutzen. Das vielen bekannte Konzept mit den beiden B-KanĂ€len und dem D-Kanal war geboren.

Eine Kupfer-Doppelader wurde also dadurch zweifach genutzt, daß die GesamtkapazitĂ€t der Übertragungsstrecke in kleine Zeitscheiben aufgeteilt wurde, die alternierend den NutzkanĂ€len zugeteilt wurden. Trotz dieser Aufteilung erreichte man eine fĂŒr Telephonate völlig ausreichende Datenrate von 64 KBit/s pro Kanal.  Bei Telephonieanwendungen wird das Sprachsignal 8.000 mal pro Sekunde abgetastet, und zwar mit einer Quantisierungsrate von 8 Bit, sprich, es existieren 256 mögliche Werte fĂŒr die MomentanlautstĂ€rke des Signals zum Zeitpunkt einer jeden Abtastung. Dies gewĂ€hrleistet, zusammen mit einer gewissen Pre- und Deemphasis, auch unter heutigen Gesichtspunkten eine gute bis sehr gute GesprĂ€chsqualitĂ€t.

GegenĂŒber dem aktuellen „Voice over IP“ bietet ISDN einen unschlagbaren Vorteil: Die PlesiochronizitĂ€t, vereinfacht: „Fast-SynchronizitĂ€t“ innerhalb des gesamten Landesnetzes. Sprich:  Eine zu ĂŒbertragende Zeitscheibe landet mit Lichtgeschwindigkeit beim EmpfĂ€nger. Echos, wie man sie bei anderen Techniken kennt, sind zwar vorhanden, werden aber wegen der faktisch nicht vorhandenen Zeitverzögerung als solche nicht wahrgenommen!

Zuguterletzt konnte man ISDN erstklassig dazu verwenden, Daten zu ĂŒbertragen, weil zum einen keine zusĂ€tzlichen, aufwendigen Modems mehr benötigt wurden – man konnte die Daten mit 64 oder sogar 128 KBit/s (bei BĂŒndelung zweier B-KanĂ€le) direkt auf die Strecke schicken. Ohne Verluste, ohne zeitaufwendigen Verbindungsaufbau, mit automatischer Vermittlung.

ISDN war ein großer Entwurf und bis ins Detail von Nachrichtentechnikern durchdacht. Das mag damit zusammenhĂ€ngen, daß SIEMENS zum erstenmal ernsthafte Konkurrenz hatte, nĂ€mlich NIXDORF. Brancheninsider witzelten gerne, „ISDN“ heiße nicht „Integrated Services Digital Network“, sondern in Wahrheit, „In Sachen Digitalisierung: Nixdorf“. Denn in der Tat setzte beispielweise die „Digitale Vermittlungsstelle NIXDORF 8818“ national und international MaßstĂ€be. Vielerorts ist dieses System noch im Produktiveinsatz.

„ISDN“ – das VW 411 – Protokoll

11 Jahre zu spÀt und 4.000 Mark zu teuer: Der VW 411

So witzelten Kenner ĂŒber ISDN. Dennoch sollte festgehalten werden: Auch wenn ISDN eine Dekade zu spĂ€t kam, so war sie bereits Technik aus dem aktuellen Jahrhundert, wĂ€hrend die bisherige Telephontechnologie auf Erfindungen basierte, die in den 1880er Jahren bereits Serienreife erreicht hatten.

Dann kamen der Börsengang und die „Privatisierung“

Und Robert T. Online schickte sich an, aus einer soliden technischen Basis wieder ein Mickymausprodukt zu machen – passend zur „Stilikone“.

Es fing damit an, daß die neu privatisierte „Telekom“ bei ISDN-DatenĂŒbertragungen auf Kompression verzichtete, welche bei „normalen“ Analogmodems gang und gĂ€be war. So konnte es leicht passieren, daß man mit einem guten Analogmodem die dreifache Datenrate erreichte wie mit ISDN. Es wĂ€re nun ein Leichtes fĂŒr die Telekom gewesen, die Kompression zu aktivieren – aber der Endkunde wurde mit schwammigen Ausreden an der Nase herumgefĂŒhrt. Aber es kommt noch knĂŒppeldicke: Was die Telekom, genauer die T-ochter T-online in Weiterstadt, so gar nicht mochte, war Wettbewerb.

Privatisierung ja, speziell beim Herausekeln der Mitarbeiter, das ist ja wohl klar – aber wir wollen doch nicht im Wettbewerb stehen! Also verramschte die Telekom ihre ISDN-AnschlĂŒsse, welche aus Volkseigentum heraus erstellt worden waren, zu einem Spottpreis, den kaum ein Konkurrent halten konnte.  Reihenweise gingen die Anbieter in Konkurs.

Als es dann faktisch nur noch eine Handvoll Internetprovider gab, fiel der Telekom urplötzlich auf, „Hilfe, die Notrufe könnten ja behindert werden!!!“. Na sowas, auf einmal, urplötzlich und nicht vorhersehbar. Selbstredend mußten die ISDN-GebĂŒhren erhöht und der Kunde zu DSL genötigt werden.

DSL setzt nochmals „einen drauf“, indem die Teilnehmeranschlußleitung unterteilt wird: Der Bereich von 0 bis 140 KHz wird fĂŒr ISDN reserviert und der Bereich ab 140 KHz fĂŒr DSL, den seinerzeit aktuellen Stand der DatenĂŒbertragung ĂŒber Kupfer-Doppeladern.

Die Erfinder von ISDN wußten damals genau, was sie taten, als sie die obere Grenzfrequenz von ISDN bei der Marke von 140 KHz setzten. Dieser Bereich ist einigermaßen dĂ€mpfungsfrei und kann als „FiletstĂŒckchen“ der Leitung bezeichnet werden, alles, was darĂŒber hinausgeht, ist eher Schlachtabfall.

Die Inhaber von AnaloganschlĂŒssen hatten es da besser: FĂŒr ihre Telephonate brauchten sie ja nur den Bereich bis 3,5 KHz, so daß zusĂ€tzlich noch ein hochwertiges Frequenzband von mehr als 130 KHz zur VerfĂŒgung stand. In einfachen Worten: DSL, kombiniert mit ISDN, weist entweder eine wesentlich geringere Datentransferrate oder aber eine wesentlich geringere Reichweite auf. Das wurmte die Telekom ungemein, und so wurde, zum erheblichen Nachteil aller Analogkunden, das freie Frequenzband ganz bewußt ausgespart, denn „Unsere ISDN-Kunden sollen es nicht schlechter haben als die Analogkunden„. Weil aber die Telekom federfĂŒhrend war bei der „letzten Meile“ und den Hauptverteilern, mußte sich der – gerade noch verbliebene – Wettbewerb auf den unsĂ€glichen nationalen Alleingang „Annex B“ einstellen.

Besonders Ă€rgerlich dabei ist das Geheule diverser Verantwortlicher, man wĂŒrde ja so gerne entlegene Gebiete anbinden, wenn man denn nur könnte…

Wie schamlos und dreist gelogen und betrogen wurde, kann man daran sehen, wie ein neues „Produkt“ realisiert wurde:  Mit einem ebenfalls unnötigem nationalen Alleingang „Annex J“ wird nun die gesamte Bandbreite der Teilnehmerleitung fĂŒr DatenĂŒbertragung genutzt. Und siehe da: Urplötzlich sind viele entlegene Haushalte per DSL erreichbar, mit akzeptablen Datenraten! Wer hĂ€tte das gedacht?

Ja, wer? Eigentlich wußten es alle. Denn die ersten DSL-Splitter, die die Telekom ausgeliefert hatte, verfĂŒgten noch ĂŒber einen Schalter „Analog/ISDN“. Die eine Sache ist, eine riesige Kundengruppe dreist abzukochen. Die andere Sache ist, dies mit Heerscharen von Mitwissern zu tun. Aber es hat sich nie jemand aufgeregt.

In Abwandlung von Karl Krauss:
Der T-Online – Benutzer sĂ€uft willig den Kakao aus, durch den man ihn vorher gezogen hat.

Schalten Sie auch demnÀchst wieder ein, wenn wir hier einen vorsichtigen Blick werfen auf die aktuellen, atemberaubenden Spitzenleistungen des dreistesten Leistungsverweigerers seit der Deutschen Bahn.

hb

Bauer-GoosEin wenig fĂŒhle ich mich als Informatik-Pionier der dritten Generation. Und denke gerne an meine ersten großen Projekte in den Siebziger Jahren des letzten Jahrhunderts zurĂŒck, die START, ITS, Dispol oder SNATCH hießen.

FĂŒr die zweite Generation der IT-Pioniere steht in meiner privaten Ordnung mein verehrter Professor F.-L. Bauer, bei dem ich 1969 im Herbstsemester an der TUM (damals noch TH fĂŒr technische Hochschule) als Student der Mathematik meine erste Vorlesung in meinem Nebenfach Informatik hören durfte. Das abgebildete Buch ist ĂŒbrigens mein erkennbar viel gelesenes persönliches Exemplar aus dieser Zeit.

Damals war das Thema Informatik etwas ganz Neues fĂŒr mich. Und wahrscheinlich habe ich das Fach gewĂ€hlt, weil ich nicht wusste, was es ist. Einfach, weil es irgendwie in die Zukunft gewiesen hat.

In der schönen Vorlesung von Professor Bauer habe ich so fast folgerichtig nicht alles von dem verstanden, was er uns mitgeben wollte. Sehr zu meinem Leidwesen.

BauerIn den letzten Jahren durfte ich Professor Bauer dann bei mehreren FĂŒhrungen im Deutschen Museum in der Abteilung Informatik begleiten, die er fĂŒr uns (InterFace AG) und unsere Kunden, Freunde und Partner gehalten hat. Da ist mir vieles klar geworden, was ich als junger Student noch nicht verstehen konnte.

Zur ersten Generation der Informatik zĂ€hle ich ĂŒbrigens Menschen wie Konrad Zuse, den ich am Ende der InterFace-Konrad-Zuse-Radtour 1986 kennen gelernt habe. Er hat uns dort toll empfangen, eine wunderbare Rede gehalten und uns das abgebildete Bild beim großen Empfang in HĂŒnfeld geschenkt, das heute bei der InterFace AG in Unterhaching hĂ€ngt.

K_ZuseHeute ist die Informatik um „Lichtjahre“ weiter. Ich war und bin mit Herzblut Informatiker. Die Sinnkopplung zwischen meiner Arbeit, meinem Leben und der Gesellschaft war mir immer wichtig. Deshalb ist fĂŒr mich die Entwicklung der Informatik wie ihre Zukunft wichtig. BeitrĂ€ge von Dritten zu diesem Thema von herausragenden Vertretern der Informatik interessieren mich natĂŒrlich ganz besonders.

So habe ich in der 14. Ausgabe des TUM Magazins „Faszination Forschung“, einem hochwertigen Hochglanz-Magazin der TU MĂŒnchen, in der Ausgabe vom Juni 2014 zum Thema „informatics“ den Artikel „Connecting the World“ gefunden.

Der Trailer zum Artikel liest sich so:

In future, everyday objects will be linked via the Internet, enabling them to interact autonomously. To realize this vision, computer scientists are developing virtual models they can use to test practical implementation and monitor the security, safety and reliability of connected systems

Der Artikel beschreibt die Zukunft der Informatik auf der technischen Ebene. Es geht hier vor allem um das Zusammenwirken von Systemen in einer zukĂŒnftigen „cyber-physikalischen Welt“. Da ich den Artikel lesenswert und als eine gute Diskussionsbasis empfinde, biete ich ihn hier zum „Download“ an: Cyber-Physical (384).

Mein Freund und Partner im Aufsichtsrat der InterFace AG, Professor Dr. Manfred Broy, wird dort zitiert und abgebildet. Es ist davon auszugehen, dass die Aussagen im Artikel zum Teil Ergebnisse der von ihm geleiteten Forschungsarbeit sind.

Ich bin mit dem Inhalt des Artikels nicht ganz einverstanden. Sicher wird es noch erstaunliche Entwicklungen in unserer Technologie geben, vielleicht noch verblĂŒffender als die im Artikel beschriebenen. Nur an die Vorhersage der Anwendungsfelder glaube ich nicht, da ich annehme, dass die Gesellschaft der Zukunft ganz andere Herausforderungen haben wird, als wir sie uns heute vorstellen. Und wir dann sicher sehr aufregende Lösungen finden werden, die sich aber nicht in diese „schönen neuen Welt“ bewegen werden.

Spannend (und fĂŒr mich bedenklich) wird es aber, wenn man die Entgegnung von Dr. Werner Meixner liest. Dr. Meixner ist wissenschaftlicher Mitarbeiter an der TUM und hat wohl in in einem Vortrag niedergelegt, wie dieser Artikel „auf jemanden (ihn) wirkt, der den Sinn seines Berufslebens wesentlich aus einer Faszination fĂŒr Naturwissenschaften als einem humanistischen Wert versteht“.

Dieser Vortrag ist auch der Inhalt eines offenen Briefes an Professor Dr. Manfred Broy und hat zum Thema:
Wohin geht die Informatik?
Auch hier der Link zum Download des offenen Briefes von Dr. Meixner:
Wohin geht die Informatik? (437)

Um den IF-Blog-Leser auch hier zum Lesen anzuregen zitiere ich einen kurzen aber vielleicht zentralen Auszug aus diesem Artikel:

Jede menschliche Entscheidung, und das wissen Konzerne ganz genau, beinhaltet einen Wertschöpfungsakt und ist also wertvoll an sich. Das Wichtigste dabei ist, dass der EigentĂŒmer dieses produzierten Wertes derjenige ist, der die Entscheidung getroffen hat und verantwortet. Dies genau ist die Bedeutung des Privaten, aus der auch die unbedingte SchutzwĂŒrdigkeit des Privaten folgt. Jegliche wirtschaftliche TĂ€tigkeit ergibt sich daraus.

Ich verstehe die zitierte Aussage nicht so ganz. Wenn ich versuche, sie dialektisch zu analysieren, so meine ich einen willkĂŒrlichen Wahrheitsanspruch zu entdecken, der mir leicht widerlegbar scheint.

🙂 Ich schreibe aber an niemanden offene Briefe, da ich ein Blogger bin. Und BLogger schreiben keine öffentlichen Briefe sondern bloggen. So veröffentliche ich meine Meinung in meinen Blog.

Also:
Den Artikel im TUM-Magazin finde ich zu eindimensional technologisch, der „offene Brief“ hat mich bestĂŒrzt.

In beiden Artikeln nehme ich ein Welt- und Menschenbild wahr, das der von mir als real wahr genommenen Wirklichkeit nicht gerecht wird. Der erste erinnert mich ein wenig an die (damals ja von wirtschaftlichen Interessen gesteuerte) Euphorie zur Kernkraft vor mehr als 50 Jahren, der andere ĂŒberhöht die Bedeutung des Privaten und lamentiert ĂŒber dessen SchutzwĂŒrdigkeit, die nach meiner Lebenserfahrung und meinem Wissen aus Anthropologie, Gehirnforschung, Psychologie, Philosophie aber auch Soziologie ĂŒberhaupt nicht zu rechtfertigen ist. Sogar mit theologischen BegrĂŒndungen dĂŒrfte dies misslingen.

Die Herausforderungen fĂŒr uns alle werden zeitnah andere sein als die beschriebenen. Nicht das Traumbild einer total vernetzten Welt wird uns helfen, diesen Herausforderungen zu begegnen noch der krampfhafte Schutz unserer privaten Daten, die letztendlich eh nicht geschĂŒtzt werden können.

Die aktuellen Nachrichten, sei es von den Fronten der IS, von den sonstigen Kriegen mit ihren Folgen, von den FlĂŒchtlingen die in die EU drĂ€ngen, von dem Attentat aus Frankreich oder zu #Pegida und #Anti-Pegida in Deutschland sind deutliche Anzeichen einer sich beschleunigt verĂ€ndernden RealitĂ€t, die wir akzeptieren mĂŒssen. Und mit der wir vernĂŒnftig umgehen mĂŒssen.

Die Vorherrschaft der globalen Wirtschaft, die total freie MĂ€rkte fĂŒr Waren schafft aber die Arbeit unfrei lĂ€sst (eine NĂ€herin aus Bangladesch kann ihren Arbeitsplatz nicht nach Europa verlagern, obwohl die von ihr genĂ€hten Kleider nur dort verkauft werden), wird zu Ende gehen. Die Reichen in dieser Welt (wir) beuten die Armen mehr in enormen Masse aus und die Anzahl der Sklaven ist höher als je zuvor in der Geschichte der Menschheit.

Die durch diese GegensĂ€tze generierten Spannungen dĂŒrften sich wie Erdbeben entladen. Das beginnt schon jetzt. Die Verschlechterung der Rahmenbedingungen in vielen Regionen (Klima, Wasser, ErnĂ€hrung und Böden) entwickelt sich geometrisch wachsend und wird uns frĂŒher oder spĂ€ter in kritische Bereiche bringen. Die Spannungen werden immer spĂŒrbarer.

So könnte es ganz schnell gehen, dass wir sehr unsanft aus unseren aktuellen TrĂ€umen geweckt werden. Meine Hoffnung ist, dass uns auch hier die Informatik helfen wird. NatĂŒrlich weiß ich aber noch nicht wie und kann mir dies nur so ungefĂ€hr vorstellen.

Ich glaube, dass die IKT einen positiven Beitrag fĂŒr die menschliche Zukunft nur dann leisten kann, wenn es ihr gelingt, vor allem einen hochkomplexen, weltweiten, redlichen Diskurs zu unterstĂŒtzen, der eindringliche Ergebnisse bringt. Nur so kann eine Konsensbildung gelingen, die nicht auf Feindseligkeit und Ausbeutung beruht sondern die Menschen (uns) auf und fĂŒr die notwendige VerĂ€nderung von Denken und Leben vorbereitet.

Nur so kann die globale Gesellschaft mit möglichst wenig Gewalt verĂ€ndert werden. Nur so kann die heutige Art des Wirtschaftens in eine „Gemeinwohl-Ökonomie“ transformiert werden. Und nur so können wir Lösungen fĂŒr ein besseres Copyright- und Patentwesen finden. Durch die Weisheit der Vielen und gegen die Einfalt des Einzelnen.

[Hinweis: Unsere Kollegen von Youmigo.de haben das vielleicht verstanden und eine wunderbare APP zur „WeltverstĂ€ndigung“ geschrieben.]

Dem Artikel im TUM Magazin wĂŒrde ich entgegen halten, dass wir keine Luxuswelt von vernetzter Technologie brauchen, die uns letztendlich noch mehr versklavt. Zu Werner Meixners Aussagen meine ich, dass er das Thema „pretty good privacy“ in Form eines Glaubensbekenntnis ĂŒberhöht, dieses aber nicht glaubhaft begrĂŒndet sondern im dogmatischen verbleibt.

Und ich meine, dass in Zukunft uns Menschen unsere PrivatsphĂ€re ziemlich egal sein wird. Weil wir ganz andere Probleme haben werden. Und wir Menschen uns immer im Spannungsfeld IndividualitĂ€t und KollektivitĂ€t bewegen werden. So oder so. Mit Datenschutz und ohne. Und das schaffen wir nur auf eine dem Menschen wĂŒrdige Art, wenn wir auf Werte basiert denken und handeln. Dogmen und deren gebetsmĂŒhlenartige VerkĂŒndung hilft uns nicht.

Noch ein Satz zu den persönlichen Daten. Informationen ĂŒber Menschen zu sammeln ist doch ein ganz normaler Teil der menschlichen Zivilisation, die sich ja aus guten GrĂŒnden Administrationen geschaffen hat und so z.B. die Geburt eines Kindes protokolliert. NatĂŒrlich hat der technologische Fortschritt seit der Erfindung von KarteikĂ€sten und -karten unglaubliches ermöglicht.

Sicher lĂ€sst sich mit „neuen“ Technologien viel mehr Daten sammeln als frĂŒher. Das ist aber nur die Fortsetzung einer Entwicklung, die begonnen hat mit der Erfindung von der Schrift und Papier als Möglichkeit, Informationen aufzuzeichnen und weiterzugeben. Mag sein, dass die Erfindung von Dateikasten und -Karten (sicher eine Erfindung von IT), einen Schub gebracht hat. Und die IKT dann nochmal.

Aber: Hat die IKT hier wirklich so viel verĂ€ndert? Und wie groß ist der Schaden? Und ist es nicht wunderschön, dass Informationen generell durch Whistle-Blower veröffentlicht werden können und die IT dies noch viel leichter gemacht hat?

Ich sehe eine Bedrohung nur dann, wenn sich „unmoralische Systeme“ (wie z.B. ein Unrechtssystem) der Daten bemĂ€chtigen. Aber dann hilft uns auch kein Datenschutz. Vielmehr mĂŒssen wir vermeiden, dass wir unter die Kontrolle „unmoralischer Systeme“ geraten. Und das ist eine permanente gesellschaftliche Herausforderung fĂŒr jeden BĂŒrger. Der „Kommerziellen Nutzung“ von Daten zu widerstehen geht sowieso nur durch persönliche Autonomie, aber das war und ist mit der andauernden Manipulationsbedrohung durch Marketing genauso. Und wenn man unsinnig konsuminert, kostet das doch nur Geld und selten das Leben.

Persönlich empfinde ich den vermeidbaren Schaden, den uns die „alten“ Technologien der letzten 100 Jahre zugefĂŒgt haben und heute permanent zufĂŒgen, deutlich höher als den Schaden, den die neue Technologie IKT in den letzten 25 Jahren generiert hat.

Die Technologien des letzten Jahrhunderts haben uns zum Beispiel die Ruhe geraubt. Wer kennt noch einen Ort in MĂŒnchen, der frei von „technischem Rauschen“ ist? Die LĂ€rmverschmutzung ist jedoch ein wirklich harmloses Beispiel im VerhĂ€ltnis zu anderen Folgen wie den 1,2 Millionen Verkehrstoten pro Jahr – weltweit verursacht durch den motorisierten Individual-Verkehr. Und die wir auch sonst nur zu gut kennen aber gerne ignorieren wie den Kohlendioxid-Gehalt in der AtmosphĂ€re.

So wie wir uns an die grenzenlose LĂ€rm-Emissionen gewöhnt haben, so haben wir uns doch schon lange unsere (ja trotz allem immer nur sehr eingeschrĂ€nkte) Transparenz akzeptiert. EingeschrĂ€nkt, weil auch die vernetzen Systeme der Industrie und Welt 4.0 kaum unsere Gedanken lesen werden können. Und weil wir uns eh zu autonomen Menschen in einem selbstbestimmten kollektiven Rahmen entwickeln mĂŒssen, wenn wir ĂŒberleben wollen.

Sind so gesehen die permanenten Forderungen nach Geheimhaltung von Daten nicht nur ein Protestschrei, weil man ja gegen irgendwas sein will und muss, sich aber nicht traut, gegen die wahren Bedrohungen aufzustehen?

Aber vergessen wir nicht:

Nur die neuen Technologien bieten uns die Chance, uns zu vernetzen und unsere Gedanken zu veröffentlichen. Und so gegen Ignoranz, Intoleranz, Dogmen, Unvernunft und Dummheit und manches mehr dieser Art zu wehren.

RMD

Am 19. September hatten wir Hans Bonfigt und Marc Haber von redoxSystems im IF-Forum zu Gast. Vorsicht E-MAIL war ihr Thema. In zwei mutigen und persönlichen VortrĂ€gen haben sie uns nicht nur ĂŒber “Geschichte, Grundlagen, Spam&Viren” berichtet, sondern auch “Konzepte fĂŒr den sicheren und zuverlĂ€ssigen Betrieb eines eigenen Mailservers” vorgestellt. Besonders haben sie uns aber auch an die vielleicht doch wesentlichen Bedrohungen unserer Zeit erinnert.

Nach den VortrÀgen hatten wir dann eine besonders lebhafte und fruchtbare Diskussion. Und unsere GÀste sind aufgeweckt aber zufrieden heim gefahren.

Die beiden Referate haben wir wie (fast) immer gefilmt. Die wesentlichen Ausschnitte aus dem Vortrag von Marc Haber sind jetzt auf youtube verfĂŒgbar.

Aufgenommen und produziert hat das Video wie auch den Beitrag von Hans Bonfigt ĂŒbrigen Lukas Ziegler.  Den Part von Hans Bonfigt werde ich ebenso zeitnah zur VerfĂŒgung stellen.

RMD

Roberto Simanowski_smallDer Referent des dritten und letzten großen IF-Forum des Jahres 2013 ist Professor Dr. Roberto Simanowski!

UrsprĂŒnglich wollte er einen Vortrag mit dem Titel halten:

Jean Paul, der Witz, die Postmoderne und die neuen Medien.

Der Vortrag sollte am 7. November stattfinden. Aus diversen GrĂŒnden mussten wir den Termin Ă€ndern. Aber keine Angst, der Referent bleibt der gleiche.

Am Freitag, den 25. Oktober 2013 (Achtung – neues Datum!) wird Roberto Simanowski ĂŒber den fĂŒr seine Zeit doch sehr autonomen, revolutionĂ€ren, ja fast anarchistischen Jean Paul berichten. Anschließend wird er zu folgenden aktuellen Themen Stellung nehmen:

Big Data und glÀserne Gesellschaft:
NSA, Self-Tracking und das Internet der Dinge.

Dazu wird er uns mitbringen:

  • Big Data als „Öl“ des 21. Jahrhunderts stellt auch die Frage der Umweltverschmutzung und eines informatorischen Nachhaltigkeitskonzepts
  • GesprĂ€chsverweigerung der Politik und der Bevölkerung im Kontext der NSA-AffĂ€re deutet nicht nur auf mangelndes Problembewusstsein, sondern auch auf eine untergrĂŒndige Komplizenschaft
  • der „kalte BĂŒrgerkrieg“ findet nicht zwischen den BĂŒrgern und dem Geheimdienst/Überwachungsstaat statt und auch nicht vorrangig zwischen den BĂŒrgern, sondern in jedem BĂŒrger
  • die Datenbank verdrĂ€ngt die ErzĂ€hlung als Form des Welt- und SelbstverstĂ€ndnisses
  • der Algorithmus wird zum Psychotherapeuten, der seinen Patienten weder verrĂ€t, was er herausgefunden hat, noch sie fragt, ob er davon Gebrauch machen darf

Zur Person:

Nach dem Studium der Literatur- und Geschichtswissenschaft wurde Roberto Simanowski 1996 mit einer Arbeit zur Massenkultur um 1800 an der Friedrich Schiller-UniversitĂ€t Jena promoviert. Der wissenschaftlichen Mitarbeit an der UniversitĂ€t Göttingen 1997 folgten Aufenthalte als Visiting Scholar an der Harvard University (1998-2000) und der University of Washington (2001-2002) sowie eine Vertretungsprofessur fĂŒr Medienwissenschaft und Kulturtheorie digitaler Medien an der UniversitĂ€t Jena.

2003-2010 arbeitete Roberto Simanowski als Assistant Professor am Department of German Studies der Brown University in Providence (USA), seit 2010 ist er Extraordinarius am Seminar fĂŒr Medienwissenschaft der UniversitĂ€t Basel.

2011 wurde er mit einer Arbeit zur Kunst in digitalen Medien an der UniversitĂ€t Siegen im Fach Medienwissenschaft habilitiert. Er ist GrĂŒnder und Herausgeber des Online Journals fĂŒr Kunst und Kultur digitaler Medien dichtung-digital.org.

Zu seinen Publikationen im Bereich digitale Medien gehören:

  • Textmaschinen – Kinetische Poesie – Interaktive Installation. Zum Verstehen von Kunst in digitalen Medien (Transcript 2012)
  • Digital Art and Meaning. Reading Kinetic Poetry, Text Machines, Mapping Art, and Interactive Installations (University of Minnesota Press 2011)
  • Reading Moving Letters: Digital Literature in Research and Teaching. A Handbook (Mhg; Transcript 2010)
  • Digitale Medien in der Erlebnisgesellschaft. Kultur – Kunst – Utopie (Rowohlt 2008)
  • Interfictions. Vom Schreiben im Netz (Suhrkamp 2002)
  • Literatur.digital. Formen und Wege einer neuen Literatur (Hg., DTV 2002)
  • Digitale Literatur (Hg., Text & Kritik Oktober 2001)

Anmeldung:

Dieses IF-Forum findet in unserem Headquarter in Unterhaching in der Seminarzone im Dachgeschoss statt. Beginn ist um 18:00. Wir freuen uns auf unsere GĂ€ste! Die Anmeldung auch zu diesem IF-Forum geht wie immer per E-Mail.

RMD