München. Digital. Erleben. Der Open Government Tag München 2019 (#OGTM19)

In Wahrheit sei es doch manchmal so. Mitarbeitende in der Verwaltung hätten eigentlich zwei Leben. Erstens ihr alltägliches, der sie am frühen Morgen in die Behörde führe und am Abend wieder hinaus. Dieses erste, normale Leben sei voll digitalisiert, es funktioniere via Smartphone, das meiste lasse sich dort via App mit einem Wisch des Daumens erledigen. Zweitens ihr berufliches…

Die ersten Lacher im Publikum zeigten: viele wussten aus eigener Erfahrung, wie die kleine Anekdote enden würde. Thomas Bönig, Chief Digital Officer und IT-Referent der Stadt München, sparte nicht an offenen Worten und ehrlichen Befunden. Seine Vorrednerin, Anne Hübner auch nicht (@anniemuc). Es geht ums liebe Geld. Bönig informierte über die Digitalisierungsstrategie, dokumentierte erste Erfolge auf dem Weg zur digitalen Metropole. Der vorgestellte Digitalisierungsradar stehe kurz vor der Live-Schaltung. (@ThomasBoenig).

Ohne Menschen mit Wandlungskraft kein digitaler Wandel

Da Digitalisierung ohne Kultur-, sprich Wertewandel nicht zu schaffen ist, standen neben Fachthemen auch Vorträge zu moderner Personalarbeit auf dem Programm: Change, New Work,  Health.

Das Line-Up der Speaker_innen bot einen guten dramaturgischen Spannungsbogen, um die Laune hochzuhalten – einiges an Wegstrecke liegt noch vor der Stadt München. Angenehm unaufgeregt, gerne mit einer gehörigen Portion Launigkeit machten die Vortragenden klar, dass es um viel geht: Als moderne Verwalter und Dienstleister den Digital Turn managen.

Das fängt mit den Menschen an, die eine Stadt für sich und ihre Ziele gewinnen kann. Gewiss, Metropolen mit einem attraktiven Umland tun sich leichter als Regionen in weniger attraktiven Lagen. Doch auch hier gilt: Exzellenz zieht Exzellenz nach. München steht im Wettkampf mit der geballten kompetitiven Leistungskraft spannender Münchner Konzerne, Unternehmen, Start ups, oft ebenso zahlreich wie zahlungskräftig.

Prof. Dr. Volker Nürnberg, Professor für Gesundheitsmanagement, brachte einen zentralen Aspekt zum Thema Talente auf den Punkt: Digitalisierung ist Mannschaftssport. Wir brauchen wegen des demographischen Wandels JEDES Talent. Wer nicht mit der Zeit geht, geht mit der Zeit. (@profnuernberg) Recruiting, ja klar, Weiterbildung noch klarer.

Stadtrendite für gemeinwohldienliche Re-Investitionen

Auch für Städte gilt: Wer die Bürgerinnen und Bürger nicht mit hoffnungslos veralteten Strukturen enttäuschen will, vielmehr urbane Interaktivität, Teilhabe und Inklusion fördern möchte, muss die digitale Transformation vital vorantreiben.

Allen voran sollten es die Bürger_innen selbst einfordern. Der Begriff der Stadtrendite ist kaum etabliert, leider auch missverständlich, Städte sind gesellschaftspolitisch verfasst, dienen dem Gemeinwohl, sind also keine Profitcenter, die womöglich einigen Happy fews zuarbeiten. Gleichwohl: nachhaltiges, effizientes, zukunftsorientiertes Handeln und Haushalten kann Strukturen nicht mit dem Hinweis auf Traditionen unbefragt lassen.

Digitropolis: Tuen wir die richtigen Dinge richtig?  

Das mündet in die Frage: Tuen wir die richtigen Dinge richtig? Freilich – Richtig für wen? Die Bürger stehen im Mittelpunkt. Viele der Learnings aus agilen Prozessen und kundenfokussierten Lösungen lassen sich, wie zu sehen, eins zu eins auf Stadtverwaltungen übertragen: Citizen- statt Customer-Centricity, verbunden mit dem Hinweis, dass alle Bürger gemeint sein müssen und entsprechend früh, schon in der Entwicklung eingebunden gehören.

Online ist das neue Normal

Wer glaubt, über digitale Kanäle erreichten Behörden nur die junge Generation, irrt. Über 60% der über 50jährigen, sagte Politikberater und Blogger Martin Fuchs (@wahl_beobachter), informieren sich ebenfalls im Netz.  Vergessen Sie Pressemitteilungen & Facebook! lautete sein Vortrag. Künftig werde Voice-Kommunikation eine Rolle spielen: Alexa, Siri, Echo, Home & Co. lassen grüßen.

Die Bürger, so gesehen auch Kunden, wünschten Online-Services. Nur halt nicht so, wie es früher einmal lief in der IT in Wien; in München sei das wahrscheinlich immer anders gewesen, gestand Robin Heilig (@Robin_Heilig) augenzwinkernd. Nach 3 Jahren hätte es dort eine Lösung der Behörde gegeben, die keiner mehr nutze. Honni soit qui mal y pense. Heilig, Co-Leiter von PACE, dem digitalen Innovationsteam der Stadt Wien, verschwieg sein Fazit nicht. Wir müssen viel früher und öfter mit den Kunden testen, sonst könne es sein, dass die großen internationalen Plattformen die Rolle der Stadt definierten. Oder anders, was wenn die Bürger ihre Verwaltungsdienste bei GAFA (Google, Apple, Facebook, and Amazon) beziehen?

In der digitalen Kommunikation gelte es Vertrauen aufzubauen. Dafür braucht es Zeit und Kontinuität, die Kanäle seien gar nicht einmal so wichtig, sagt Fuchs (@wahl_beobachter), nicht ohne Highlights der politischen Kommunikation in sozialen Diensten zu nennen.

Wer Technik anbietet, muss das Problem kennen, das er damit lösen will

Professor Dr. Armin Nassehi (@ArminNassehi), Soziologe (LMU), Autor, Kursbuchherausgeber, bot den größeren kulturhistorisch-soziologischen Rahmen. Er hinterfragte das #OGTM19-Motto Mensch statt Technik mit scharfsinnigen Analysen, spitzte es im Kontrast mit anderen sattsam bekannten Paarbildungen wie Mensch vs. Technik, Mensch und Technik zu. Sind wir zu sehr von Technik abhängig? Falsche Frage, so Nassehi. Wir merkten überhaupt nicht, wie sehr wir ihr längst vertrauten. Das Wesen der Technik sei, dass sie funktioniere. Sobald sie das störungsfrei leiste, sei sie uns so gut wie nicht mehr bewusst. Das setzt voraus: „Wer Technik anbietet, muss das Problem kennen, das er damit lösen will“.

Technik, die funktioniert: Der 7. #OGTM19 hat es konsequent versucht. Hat auf alle Wische aka Formulare zur Anmeldung verzichtet, den gesamten Prozess digital gestaltet, inklusive Livestream und Twitterwall Partizipation ermöglicht. Die Pausen und das Get-together waren dann aber ganz analog.

In what do we trust? Die Fujitsu Social Media Night 2019

Warum veranstaltet ein Unternehmen wie Fujitsu eine Social Media Night zum Thema Trust in the Age of Fake News? Warum widmet es dem Thema Human Centric Innovation – Driving a Trusted Future einen ganzen Kongress? Weil Vertrauen die Grundlage von Austausch ist. Ohne Vertrauen kein Geschäft. Klingt simpel, doch Virtualisierung und Künstliche Intelligenz (KI) stellen Vertrauen auf mehr als eine Zerreißprobe.

Zwei Keynotes gaben dem Thema einen eigenen Twist: Kate Russell, britische Journalistin und Tech-Bloggerin (BBC, SKY) ging auf die Suche nach den Ursprüngen von Falschnachrichten, unterschied Kategorien. Sie plädierte für mehr Bildung, bessere Technologie, stärkeres Monitoring und kritischeres Denken. Sie empfahl, den Begriff Fake News nicht zu verwenden, da er durch andauernde Wiederholung als etwas Faktisches geadelt würde. Alternative Facts lautet ja auch der Anspruch. Ein öffentlicher Diskursraum brauche Vertrauen, Transparenz, Schutz, robuste Freiheitsrechte, Aufbrechen von Echokammern – und Offenheit für Wandel in den Medien wie in der Gesellschaft. Kate Russell präsentierte eine Initiative, um Fake News früher zu entlarven.

Der norwegische Philosoph Anders Indset („Quantenwirtschaft“, „Wildes Wissen“) hinterfragte, ob es diesen öffentlich steuerbaren Raum so überhaupt noch gebe. Er schaute über die aktuell eher belanglose Nutzung von Social Media hinaus und stellte die berechtigte Frage, wie eine wirklich reife digitalisierte Gesellschaft aussehen solle. Sichtlich vergnügt verbreitete er Störgefühle, in dem er ein Szenario jenseits von Insta-Glossiness, snackable Twittercontent und Fingerfood in den Raum warf: Welche Antwort hätten die hier Versammelten, immerhin die fittesten und worldbest Smoothieversorgten überhaupt, auf diese Zukunft: eine Gruppe junger achtsam-spiritueller Menschen trifft auf wütende junge Männer um die 30, die das System hassten. Der alte, an Adam Smith orientierte Begriff von Wirtschaft und Kapitalismus sei tot und kehre auch in der neuen Welt nicht wieder. Wie also könne er, mit den Worten des Dalai Lama weiterentwickelt werden? Das sei die Aufgabe, allem voran eine Denkaufgabe im Übrigen. Er empfahl allen, sich eine tägliche Denkstunde im Kalender freizuhalten. Indset plädierte dafür, sich auf das zu besinnen, was wesentlich für Menschen mit einem europäisch geprägten Wertehorizont ist. Freiheit, Würde, Autonomie, Humanität, Erfahrung zum Beispiel. Seine Entscheidungen selbst in die Hand zu nehmen, Erfahrungen von Güte und Menschlichkeit im Kleinen zu ermöglichen. Dazu gelte es, aus den Grundannahmen des Systems auszusteigen, um einen Systemwechsel durchzuführen.

In der anschließenden Diskussion, erweitert um Joseph Reger, Chief Technology Officer Europa (Fujitsu) und Paul van der Lingen, Program Manager (NetApp), zeigte sich, dass die Lösungen nicht mit Händen zu greifen sind. Obwohl die Teilnehmenden mitunter auf verschiedenen Diskussionsebenen argumentierten, lag es daran nicht. Das Thema selbst hat zahlreiche Dimensionen, nicht für alles passt ein und dieselbe Antwort. Hinzu kommt: Es ist eine Operation am offenen Herzen. Das Herz der Demokratie schlägt – und soll zugleich über sich hinausschlagen.

Mit drei einfachen Fragen und Antworten lässt sich das ganze Dilemma umreißen.

Wem trauen wir am meisten?
Uns selbst.  

Wem danach?
Allem, was unseren Werten entspricht.

Welche Form verleiht Vertrauen Ausdruck?
Die, an die beide am meisten glauben: Kuss, Handschlag, Vertrag, Blockchain, Sensoren, Quanten….

Dass wir uns selbst – und unserem freien Urteil – trauen, könnte eine bloße Vermutung sein. Wie und warum sie funktioniert, lässt sich philosophiegeschichtlich (Kant, Freud, Nietzsche, Lacan usw.) und neurowissenschaftlich nachlesen: #Zerstörung #Subjekt.

Dass wir anderen trauen, die unsere Werte teilen, hat nicht nur die Neurowissenschaft bestätigt. Werte, in denen wir uns wiedererkennen, führen zur Ausschüttung von Bindungshormonen. Sie funktionieren daher wie ein Mittel zur Stressreduktion, in dem sie Komplexität reduzieren. Nur: die Gefahr aller geschlossenen (Werte)-Systeme – Selbstreferentialität, Hierarchiebildung, Machtmissbrauch etc. – droht eben auch hier. Die Filterbubble verstärkt das Problem allerdings massiv.

Zugleich erweist sich, dass Werte weder historisch noch absolut ein konsistentes Gut sind. Gerade, wenn wir über deren Erweiterung oder Veränderung durch KI nachdenken, gehören Werte, wie wir sie kennen, zu disponiblen Faktoren.

Unsere Lösungsstrategien gegenüber Fake News beinhalten fundamentale Entscheidungen, die die Frage „Wie wollen wir in Zukunft leben und wirtschaften?“ berühren. Zugespitzt stehen uns drei Optionen zur Wahl:

  • Mehr Information, gleichsam die kommunikationshomöopathische Lösung, bekämpfe Gleiches mit Gleichem
  • Mehr Experiment, gleichsam die spieltheoretisch-systemsprengende Lösung, denn nur jenseits des Systems können neue Wege entstehen
  • Mehr Überzeugung/Setzung (Religion, Ideologie, Ideation, Utopie), gleichsam die ideell-dezisionistische Lösung, denn nur, was als wahr gilt, kann verbindlich für Orientierung und Halt sorgen.

Welches Modell wir für Öffentlichkeit und Privatheit anstreben, welche Rolle Autonomie und die Freiheit des Menschen im Zeitalter Künstlicher Intelligenz spielen, hat tiefere Konsequenzen als manche wahrhaben wollen. Die Frage, unter welchen Vorannahmen (also Setzungen) Bewusstsein möglich ist, hat erheblichen Einfluss: auf Wahrheit, Ethik, Bildungskonzepte, Gemeinwohl, Öffentlichkeit, Politik und gesellschaftliche Willensbildung. Selbst wenn das Ziel ein hehres sein soll, eine Welt ohne Krieg, Hunger, Krankheit, Alter, Tod, dass der Mensch, wie wir ihn heute kennen, darin noch dieselbe Rolle spielen wird, darf bezweifelt werden.

KI, Halloween und die Geschwindigkeit von Aufzügen

Ganz oben in den Chefetagen wünschen viele, dass endlich was geht beim Thema Künstliche Intelligenz (KI). Ganz unten in den selbstorganisierten Spaces der Maker oder Hacker beweisen viele, wie viel mit KI schon längst läuft. Dazwischen, in den weitläufigen Etagen zahlloser Stockwerke ahnen immer mehr, was mit KI auf sie zukommen könnte. Weil sie aber dort KI weder – technisch betrachtet – mitentwickeln können, noch – politisch gesehen – Entscheidungen zur KI direkt steuern können, löst KI als Ganzes Unbehagen aus. Zum Schaden des Innovationsstandorts Deutschland.

Dass Verharren zu keiner Lösung führt und neben möglichen Risiken auch viele Chancen auslässt, war die Deep Story des Meetups im IBM-Watson Studio am 29. Oktober, also kurz vor Halloween.

Man mag wenig oder viel von dem uralten Brauch halten: mit seinen Schreckgespenstern, Skeletten, Geistern oder Fledermäusen erzeugt Halloween mindestens eine Unruhenacht. Durch Süßes oder Saures, trick or treat, kann sich jeder Gebannte, komfortabel auslösen. Anders bei den Störungen durch KI.

Um in den 21. Stock zu gelangen, braucht es nicht lange. Aber länger als gedacht. Man habe die Geschwindigkeit gedrosselt, einigen Besuchern sei es zu schnell gegangen. Schöner kann man es im Drehbuch eines Films über Zukunftsthemen nicht erfinden.

Oben angekommen, treffe ich auf eine Gruppe jüngerer TeilnehmerInnen. Elektrotechnik, Physik, Informatik, Theaterwissenschaft lauten die Fächer, in den sie studieren oder promovieren. Berufliche Stationen haben sie schon jetzt weit geführt: Consulting, Enterprises, Sciences…

Schnell entsteht ein lockeres Gespräch, mal Englisch, mal Deutsch, was die Dazustoßenden halt verstehen. Je weiter entfernt ihre Herkunftsländer, desto besser die Kenntnisse der deutschen Sprache. Totgesagte leben länger. Am Stehtisch das übliche Abklopfen, vielleicht etwas vorsichtiger als üblich, die Taxonomien, an denen man erkennt, wer was zu sagen hat, sind fluide geworden, unübersichtlich.

Alle von ihnen taugen für die Etagen oben, verstehen aber gleichzeitig viel von den Spaces ganz unten. Vermutlich genau wie die meisten der über hundert TeilnehmerInnen, die peu à peu eintrudeln und später den Vorträgen folgen. Weil ich verstehen möchte, was für die Menschen hier wichtig ist, lenke ich das Gespräch auf ihre Zukunftsprognosen. Schnell sind ethische Fragen berührt.

Hauptprobleme auf dem Weg zur Zukunft sind:

  • dass Daten, anders als in China oder Amerika, nicht an jeder Ecke verfügbar sind
  • dass Deutschland den Talenten keine Zukunft mehr bietet, nur China oder Amerika für sie in Frage kommen
  • dass die großen Unternehmen hier zu spät auf den Zug springen
  • dass Ökologie [und Ethik] hierzulande schnelle Entwicklungen verhindern
  • dass Bildung in Deutschland von vorgestern ist, während es anderswo Coding für Kinder gibt.

Die Befunde sind bekannt. Nur, wie damit umgehen? Wohl kaum, indem man unter sich bleibt. Wie groß die Schreckgespenster wirklich sind, was echt, was Schattenspiel, wird sich nicht in Hinterzimmern klären.

Das zeigten in nuce die Vorträge des Abends. Moderatorin Dilek Sezgün, Leader for Infrasturcture, IBM startete damit, dass AI neben Artificial Intelligence immer auch Architectural Infrastructure braucht. Das AI Ecosystem, das IBM hierfür anbietet, vertritt Marco Schulten, der den Abend mitorganisiert. Weiter gings mit einem Überblick zum Watson Studio Produktportfolio und einer Präsentation am Beispiel Machine Learning. Alexander Richthammer, Data Science Technical Specialist bei IBM, führte vor, wie sowohl Clicker als Coder mit den KI-Testdaten arbeiten lassen, graphische Aufbereitungen der gefundenen Pattern inklusive.

Die Mühen der Prozessbildung in AI-Projekten am Beispiel von Softwareentwicklung illustrierte Dr. Hendrik Brakemeier, Senior AI Strategist, Applied AI. Die scherzhaft vorgebrachte Warnung, dass er nun zur Realität komme, war berechtigt. Nur zu deutlich wurde: Selbst wenn der fantastische Blick von der Dachterrasse alle beflügelt, sind die Herausforderungen, bis alle dort stehen können, enorm. AI Engineering ist keine quantitative Extension, sondern etwas qualitativ anderes. Das zu verstehen, ist das eine, es umzusetzen, die große Kunst. Angefangen von der Vision über die Use cases bis hin zu den Erfolgstreibern ist der Weg mühsamer als gedacht. Was tun, wenn man nicht einmal die Berufsprofile, für die Mitarbeiter kenn, die man sucht, um die Ziele zu erreichen.

Abschließend Musikalisches: Insights und Prediction am Beispiel von Is that Blues or is that Rock, Jazz, HipHop….? fragte Dr. Sebastian Lehrig, IT Architect / Data Scientist IBM. Er spielte live ein paar Takte Guitarre ein, um zu zeigen, wie Daten, Modell und Metriken bei KI zusammenspielen müssen.

Dass KI Blues-Pattern erkennt, ist nicht überraschend, Wiedererkennung, Präferenzbildung und Geschmacksprognosen sind am Markt. Dass sie ganz neuen Musikstile erfinden könnte, scheint beinahe interessanter. Die Verteilung von Ganz- und Halbtonschritten sowie mögliche Spielräume zwischen Tonskalen unterscheiden westliche von östlicher Musik stark. Hörgewohnheiten unterliegen kulturellen Prägungen. Was den einen nach ästhetischer Raffinesse, klingt den anderen stark dissonant. Doch auch hier zeigt sich, Näherungen sind möglich. Austausch, Wissen, Verständnis lassen sich nicht einseitig entwickeln.

Das gilt auch für die vermeintlichen Bremsklötze oder Verweigerer der KI. Ja, es kann umständlich sein, befremdlich klingen, ethische Fragen zu integrieren. Es macht das Produkt am Ende teurer. Aber ethische Fragen helfen, die Basis zu klären. Sie schaffen einen gemeinsamen Raum mit einer guten Grundlage. Sie helfen Fehler zu vermeiden, denen neue Technologien unterliegen können. Zumal bei Konsequenzen, die jenseits rein technischer Fragen unabsehbar sind. Der Blues beträfe uns alle.

Kreativität, Kunst, KI und Neue Narrative

Was Kreativität kann und soll, darauf gibt es zum Glück keine abschließende Antwort. Als Inbegriff kreativen Schaffens gilt noch immer >>Kunst<<. Noch, möchte man hinzufügen, wenn man die komplexen Fortschritte des maschinellen Lernens in diesem Feld betrachtet.

Was KI inzwischen alles kann, kompositorisch, zeichnerisch, literarisch und demnächst wahrscheinlich auch bildhauerisch bzw. additiv, beeindruckt wirklich.

Raubt KI dem Menschen eines der letzten substanziellen Refugien?

Ja, nein, vielleicht. Was denn nun? Im Erleben ist kreative Energie unteilbar. Theoretisch betrachtet, neigen wir dazu, sie zu klassifizieren. Grob vereinfacht unterscheidet die westliche Welt mindestens zwei Variationen: die Kreation (Erschaffung von etwas, das es vorher überhaupt noch nicht gab) und die Rekombination (das Umgestalten oder Re-Arrangement zu etwas, das es so noch nicht gab).

Welche Kreativität in der Wertepyramide gerade oben steht, hat auch mit Leistungszuschreibungen zu tun. Diese unterliegen geschichtlichem Wandel. Denken wir an das im 18. Jahrhundert entstandene Genie-Paradigma mit seiner Leitkategorie absoluter Neuschöpfung. Noch im 17. Jahrhundert war dies unvorstellbar, es hätte als regel- und folglich kulturlos gegolten.

Alles menschlich Erschaffene unterliegt Gestalt- und Formprinzipien, die reproduziert werden können. Anders wären, um im Beispiel der Malerei zu bleiben, bestimmte stiistische Massenproduktionen gar nicht denkbar. Schon immer gab es Mal-Schulen, in denen „im Stil von“ gefertigt wurde. Warum sollte das also jetzt ein Problem, nur weil eine Maschine epigonal zu malen beginnt?

Wo es primär darum geht, schöpferische Energie zu verwerten, sie also im Kontext von Gebrauchsnutzen zu definieren, sind Re-Uses (verwertungs-)logisch betrachtet, bester Ausdruck von Kreativität. Sind sie auch Kunst?

Hier berühren wir den anspruchsvollen Raum dessen, was Kunst überhaupt sein soll oder kann. Das näher auszuführen, sprengt dieses Format. Doch, es stellt sich die Frage, ob KI-Kunst nicht auch hier der Zeit und dem zeitgenössischen Kunsturteil voraus sein kann?

Zunächst mal, ja, sie kann. Wo sie alle möglichen Formen der Gestaltsprache beinhaltet, kann sie auch alle möglichen produzieren. Bekanntlich ist die Rezeptionsgeschichte Teil der Wertzuschreibung von Kunst. Das heißt, Kunst kann der eigenen Zeit weit voraus sein und deshalb zeitgenössisch verpönt bleiben. Könnte also einer von KI erzeugten Kunst dieses Schicksal drohen? Ja, es könnte.

Wie eine Gesellschaft Kreativität und Kunst bewertet, ist nicht ohne Belang. Welche Kraft sie ihr zuschreibt, welche Räume sie ihr zugesteht und mit welchen Narrativen sie belegt wird, lässt Erkenntnisse über eine Gesellschaft zu. Über Jahrhunderte galt Kreativität als etwas, das im Bereich der Muße, verortet war, wenn, dann im otium, nicht im negotium. Schon seit langem hat der Diskurs der Kreativität das unternehmerische Handeln erreicht.

Das Konzept kreativer Selbstzerstörung (W. Schumpeter) bekam durch das der Disruption (C. Christiansen) neue Vitalität. Seither wird Kreativität in allen möglichen Feldern (Bildung, Gesellschaft, Kunst) überraschend stark von Elementen ökonomischer Kreativkonzepte genährt.

Die Geschichte der Menschheit ist voll von Versuchen, Kunst für Zwecke zu vereinnahmen. Einmal von Seiten der Künstler_innen, die eine Fülle an Manifesten und ästhetischen Theorien neben ihren Werken selbst hervorgebracht haben, gleich, ob sie avantgardistisch, konservativ oder retrospektiv argumentieren.  Sodann aber auch von Seiten anderer Interessensgruppen, seien diese nun (kunst-)merkantil, religiös-kultisch, erziehungsbildnerisch, politisch oder sonst wie geprägt. Sie kommen darin überein, dass die Kunst etwas leisten soll. Was sie leisten soll, ist letztlich eine Variable.

Unverzweckt – nicht banal, beliebig oder manipulativ

Wenn sie im engeren Sinne nichts leisten soll, bleibt Kunst unverzweckt. Nur dann handelt es sich überhaupt um Kunst, nicht um Design, Kunsthandwerk, angewandte Technik oder Politik.

Zweckfrei entfaltet Kunst jene Widerständigkeit, die ein spezifisches Erleben ermöglicht. Ein Erleben, das soweit als möglich hinter die Bedingungen des Möglichen reicht. Das sich wohlfeiler Zuschreibungen entzieht und die eigenen Maßstäbe hinterfragt. Das sich seine unvorhersehbare Wucht und radikale Ehrlichkeit bewahrt.

Getränk zur Unzeit, statt altem Wein in neuen Schläuchen

Das kann die Möglichkeit enthalten, sich selbst (nicht nur im Happening) zu zerstören, sondern als eine immanente Option, die als Leer- wie als Lehrstelle offengehalten wird. An dieser Stelle entstehen dann auch wirklich neue Narrative, nicht nur neu verpackte altbekannte Stories. Mit durchaus bitteren Wahrheiten, genau wie süßen Experimenten könnten die Künste (un)zeitgemäße Verbindungen eingehen. Das ZKM Zentrum für Kunst und Medien in Karlsruhe oder das V2 Lab for unstable media in Rotterdam etwa bereiten in diesem Sinne das Feld. Es betreten und darüber reden müssen wir schon selber. Oder reinschauen in den Spiegel – zum Beispiel in das Mirror Piece von Marnix de Nijs.

Lost in Sound-Space. Was KI von sich hören lassen sollte, wenn sie uns dienlich sein will

Auf der Sommerleseliste der Stiftung Neue Verantwortung fand ich einen Link zu einem akustischen Museum, das ich jedem zu besuchen empfehle. Ergänzt um einige Gamification-Elemente basteln Geeks daraus schnell ein Top-Altersprognosetool für die sozialen Netzwerke. To be honest, ich kannte ziemlich viele der Sounds noch im Originalbetrieb.

Veränderungen in Gesellschaften, (digitale) Kulturgeschichte, verstanden nicht als Faktenhuberei, sondern als Narrativ-Feld, ermöglicht Wertschöpfung. Denn es erlaubt Szenarioanalysen. Nicht nur rückwärts betrachtet, sondern auch vorwärts in die Zukunft.

Vor einiger Zeit hatte ich bei einem Kundenauftrag zum Thema Markenführung einen Flash. Übertragen auf das Feld unserer KI unterstützte Gesellschaft stellte sich mir die Frage:

Wie klingt KI?

Noch genauer: Wie klingt eine KI, die den Menschen respektiert? Ihn also nicht pseudo-naiv vereinnahmt, aber auch nicht metallen-mechanistisch abstößt?

Was zunächst oldfashioned anmuten mag, erwies sich spätestens im März dieses Jahres als virulent. Die Welt debattierte, wie eine künstliche Stimme klingen solle. Wenn die KI-Stimme „Q“ körperlos ist, warum klingt sie dann wie eine Frau? Die Agentur Copenhagen pride schuf Abhilfe, bekannte aber auch: sie glaube nicht, dass diese sich durchsetze.  

„Sehr sicher bin ich mir aber, dass wir auf absehbare Zeit keine geschlechtsneutrale Stimme als Standardeinstellung bekommen werden. Das widerspricht dem Geschäftsgedanken der Konzerne.“

Erschwerend kommt hinzu, dass eine Mehrheit der Menschen weibliche Stimmen als herzlicher empfinden.

Regulieren oder machen lassen?

Was also tun? Aufklären, freistellen, laufenlassen, vorschreiben aushandeln…

In unseren absehbar virtuell (mindestens angereicherten) und elektronisch neu mobilisierten und organisierten Mega-Städten werden wir neue Soundwelten erleben. In einem Ausmaß, das wir uns noch nicht vorstellen können.

Wer je eine Intensivstation besucht hat, weiß, was uns bevorsteht. Selbst Ärzte und Pfleger bekennen, dass die Signaltöne ein krankmachendes, ja irreführendes, weil unabgestimmtes Ausmaß angenommen haben. Jeder Hersteller entwickelt nach Können und Gusto das, was dort als „Warnton“ empfunden wird.

Auch Sounds sind Narrative. Als solche können sie wertstiftend oder wertmindernd, akzeptanzerhöhend oder -verringernd sein.

Städte, Dörfer, Häuser, Wohnungen, Menschen prägt ein charakteristisches Klangbild. Menschen aus dörflichen Umgebungen oder ältere Menschen kommen mit den Sounds der Zukunft oft nicht mehr klar. Überall fiept, surrt, tönt, läutet, piept, dingdongt was.

Brauchen wir ein Ministry of Sound?

Ja, die Digitalisierung betrifft als Querschnittthema alle Ministerien. Angesichts der Komplexität und Vielfalt der bevorstehenden Aufgaben ist es gleichwohl nachvollziehbar, dass zahlreiche Verbände und Initiativen in einer Petition eine/n Digitalminister/in (m/w/div) forderten

Was pars pro toto am hier gewählten Beispiel Sound deutlich wird, weckt allfällige Fragen – ausgelöst von der Neuerfindung der Gesellschaft in Zeiten von Digitalisierung und KI.

Zwischen der Deutschen Industrienorm, dem Krümmungsgrad der europäischen Gurke und dem Faustrecht des Wilden Westens liegt eine Zone, die es klug für die digital befähigte Gesellschaft zu besetzen gilt.

Wie könnte eine ver­nünftige digitale Information aussehen, die nicht nervt, sondern lotst, aufklärt oder berät? Wie soll ein niedrigschwelliger, wie ein wichtiger Warn­hinweis klingen? Sollten Sounddesigner an einer internationalen Soundkultur arbeiten, um Standards zu etablieren? Oder sollte jede Marke ihre eigenen akustisch-stimmlichen Bibliotheken ent­wickeln? Diese und andere Fragen werden künftig eine Rolle spielen. Ohne, dass die Entwicklung vorhergesagt werden könn­te, ist doch zu erwarten, dass es zu Neuer­findungen und Wie­der­belebungen kommt.

Spätestens seit Büchern wie Das große Orchester der Tiere oder Das geheime Leben der Bäume wissen wir, wie wichtig und prägend Klang-Habitate sind.

KI muss nicht alle Fehler der Industrie 1.0 – 4.0 wiederholen

Die Beschwerdegeschichte über Lärm ist so alt wie die der Vergesellschaftung. Einst richtete es sich gegen die Schläge der Schmiede, Schlosser, Kufner und den Lärm der Droschkenräder. Später, mit  der Mechanisierung, gegen das Rattern der Webstühle, das Zischen der Dampfmaschinen, das Pulsen der Kolben in Fabriken, die elektrischen Eisenbahnen und den Automobilverkehr.

Es ist in hohem Maße unwahrscheinlich, dass das Internet of Things – konsequent zu Ende gedacht – ohne Nebenwirkungen bleibt, akustische oder interferenzelle. Wenn wir schon auf dem besten Wege sind, eine Forecast-Society zu werden, dann doch bitte auch im Blick auf die möglichen Lösungen für die realen Probleme.

Doktor, Quacksalber, Scharlatan. Die riskanten Heilsversprechen der Künstlichen Intelligenz im Medizinsektor

Minuten können über Leben und Tod entscheiden. Ein neues KI-System, das 48 Stunden früher als bisher Nierenversagen bei Patienten vorhersagen kann, ist wirklich von großem Wert, menschendienlich, nicht nur nachrichtlich betrachtet. Was aber, wenn das alles noch gar nicht ausgemacht ist?

Ziffer 14 des Deutschen Pressekodex regelt die Medizinberichterstattung

Bei Berichten über medizinische Themen ist eine unangemessen sensationelle Darstellung zu vermeiden, die unbegründete Befürchtungen oder Hoffnungen beim Leser erwecken könnte. Forschungsergebnisse, die sich in einem frühen Stadium befinden, sollten nicht als abgeschlossen oder nahezu abgeschlossen dargestellt werden.

Michael Moorstedt hat zünftig journalistische Distanz gewahrt. Er hat in der Süddeutschen Zeitung vom 11. August 2019 das gemacht, was Qualitätsjournalismus tun soll, nämlich die Fakten

  • zu recherchieren
  • sauber aufzubereiten
  • zu analysieren
  • mit Hintergrundinformationen zu ergänzen
  • in einem größeren Kontext einzuordnen.

Bei Lichte betrachtet, hält die Geschichte – noch –  nicht ganz, was sie verspricht. Moorstedt machte darauf aufmerksam, dass hier Korrelationen mit Kausalitäten gleichgesetzt wurden und eine nicht unproblematischer Datensatz als Basis diente. Andererseits war das den ForscherInnen bewusst:

Although we demonstrate a model that is trained and evaluated on a clinically representative set of patients from the entire US Department of Veterans Affairs healthcare system, this demographic is not representative of the global population. […] Validating the predictive performance of the proposed system on a general population would require training and evaluating the model on additional representative datasets.

Michael Moorstedts Kritik zielt gegen die Unart, „schlagzeilenträchtige Forschungsdurchbrüche“ zu verkünden. Ob es hier darum ging, dem eigenen „Börsengewinnen“ auf die Sprünge zu helfen oder einfach dem nächsten Forschungsauftrag, dem nächsten Zitat, dem nächsten Like, sei dahingestellt.

Fakt ist: Das Phänomen des Zuspitzens ist nicht neu. Es betrifft längst nicht nur KI-getriebene Medizin, denken wir an Beispiele zu alternativen Heilmethoden wie Homöopathie oder Akkupunktur. Es betrifft auch alle anderen denkbaren Branchen. Mundus vult discipi, oder etwa nicht? Nein, will sie nicht. Oder wenn, dann zahlen alle einen sehr hohen Preis dafür. In der Politikverdrossenheit lässt sich das grade in Echtzeit beobachten.

Warum der KI-getriebenen Medizin vorschnelle Heilsversprechen schaden

Der Zuwachs an Wissen, der mittels KI im Feld medizinischer Forschung erfolgt, ist evident. Mit der enormen Rechnerleistung und dem immer größeren Datenpool können Bild- und Mustererkennung, Korrelationen, Diagnostik und Prognostik durch maschinelles Lernen exponentiell wachsen. Damit wird mehr als wahrscheinlich, dass die Menschheit in Gänze davon für ihre Gesundheit profitieren wird.

Im hochsensiblen Feld von KI und Medizin sollten wir uns als Gesellschaft gut austauschen. Vorteile nutzen, Nachteile perspektivieren, beides gestalten. Über Themen wie die im folgenden gelisteten:

  • Datenherkunft
  • Datenbasisgröße
  • Datenintegrität (frei von Diskriminierung)
  • Datennutzung
  • Datenbesitz
  • Datensicherheit
  • Datenethik

Ohne Daten verläuft der medizinische Fortschritt anders. Anders – das sagt erst mal nichts zu besser oder schlechter. Ohne gesellschaftlichen Austausch verläuft er auch anders, ich wage zu vermuten, schlechter.

Im Medizinsektor entsteht Vertrauen aus Leitwerten wie Präzision und Dezenz. Es gilt ethisch vor prahlerisch, richtig vor knackig.  Die jahrtausendalten Narrative rund um das Patientenwohl haben einen virulenten Kern. Der Marktschreier oder Quacksalber ist noch heute die Kehrseite der hippokratisch-galensischen Medaille – aber die weniger gut beleumundete und weniger vertrauenswürdige. Narrative sind instabil, solange sie nicht ausgehandelt werden, das habe ich an anderer Stelle zu zeigen versucht. Sie haben Geschichte.

Je öfter am Ende hängenbleibt, „das ist eh alles Quatsch“ oder „die da oben verdienen sich doch nur an uns eine goldene Nase (noch dazu an unseren frei hergeschenkten Daten)“, desto mehr schadet es dem ganzen Sektor und kann überspringen.

An dem Konflikt sind übrigens viele Akteure beteiligt – Unternehmen, Forschungseinrichtungen, Healthlobbyisten genau wie Medien, PR und Storyteller. Das Newsparadigma „only bad news are good news“ trägt mit dazu bei, dass vollmundige, markante Headlines schneller in der Welt sind als kluge Überprüfungen ihres Wahrheitsgehalts. Nebenbei, manche Pseudofrage in sozialen Netzwerken in sozialen Netzwerken steht der Irreführung in nichts nach.

Angehende Journalisten lernen, die Überschrift solle bitteschön halten, was sie verspricht. Eine Überschrift, die korrekt mitteilt, was der gemachte Befund womöglich irgendwann einmal tun könnte, hat aber weniger Chance auf Wahrnehmung. Eine Story to tell ist immer formwirksam. Sie verändert den Stoff, macht ihn beileibe nicht nur spannender. Drei Aspekte zu einer vermeintlich simplen Sache wie einer Überschrift. Drei Interessenslagen, ein Zielkonflikt.

Was also tun? Fehlt es an Konstruktivem, lösungsorientierten Journalismus? Fehlt es an Gute-Nachrichten-Medien? Fehlt es an storybegeisterten Heilsbringern?

Ich habe vor einiger Zeit eine Idee zu einem KI-Hub mit eigenem Printableger angeregt. Beides, jedes auf medienspezifische Weise, sollte genau auf diese neue Anforderung reagieren. Was und vor allem wie schreiben, lesen, bewerten, wissen wir alle künftig über Ankündigungsszenarien (vgl. auch nochmal den Pressekodex, hier Ziffer 2, 2.3, Ziffer 7). Wie gehen wir mit Teilergebnissen um? Wie nachhaltig kann guter Journalismus an Themen, etwa aus dem Bereich Medizin dranbleiben? Wie frei ist der Journalismus, wie frei die Medizin, die KI von blinden Flecken?

In der Möglichkeit einer neuen Technologie liegt kein Problem per se. In dem nicht breit genug geführten Dialog, wie wir damit umgehen wollen, schon. Es liegt auch keins in der – letzlich graduellen – Unterscheidung von Assistenz oder Ersatz (100% Assistenz sind Ersatz). Die eigentliche Frage ist, welche Zugänglichkeit (Verfügbarkeit), welchen Stellenwert (heuristisch, epistemoloisch) und welche Relevanz (als Gesetzbildung im weitesten Sinn) erhält das so erzeugbare Daten- und Mustererkennungs-Wissen für uns alle. Es geht weniger um die pekuniäre Verwertbarkeit (Märkte finden sich in kapitalistischen Systemen immer und die Frage ist berechtigt, ob das so sein muss oder kann). Aber die eine große Frage ist primär gesellschaftsphilosophisch, da sie einen epochalen Umbruch markiert, der das künftige Leben berührt. 

Meine Empfehlung bis auf weiteres lautet, gerade, weil die von KI erzeugten Ergebnisse erwartbar immer besser werden, sollten alle, die mit KI und Medizin zu tun haben, sich freiwillig eine besonderen Selbstverpflichtung auferlegen.

Wir sind auf dem besten Wege, eine Forecast-Society zu werden. Was bedeutet das – für unser Verständnis von Wirklichkeit, Gesellschaft und von uns selbst, als Gesunde oder Kranke, aber auch für das Erzählen, für die Berichterstattung? Da wären Experimente willkommen.

Wie blind ist das denn? #KI, #KINarrative, #E-Roller und das Erkennen neuer Muster

Heute morgen (10.08.2019), auf dem Fußweg zum Supermarkt sah ich einen jungen Mann die U-Bahn Treppe hochkommen. Er trug eine getönte orangene Sonnenbrille, nicht ganz erwartbar für den Regentag, aber bitte. Als er ganz oben stand, erkannte ich, dass er einen Langstock führte.

Er bewegte sich souverän, der Radius, den er mit dem Langstock auswarf, schien aber mit den überall rumstehenden E-Rollern zu kollidieren. Er drohte, sich zu verhakeln, so dass ich fragte, ob ich ihn kurz etwas fragen dürfte (nämlich ob er Hilfe bräuchte, da stünden kreuz und quer diese neuen E-Roller) und wir kamen ins Gespräch. Wir hatten das gleiche Ziel, mal führte er, mal ich, so dass sich aus der simplen Frage wertvolle Anregungen ergaben.

Mich triebe grade das Thema um, wie neue Technologien Menschen helfen könnten, ohne sie zu bevormunden oder etwas über sie hinweg zu erfinden. Ob er glaube, dass neue Sensortechnologie (Stichwort: Autonomes Fahren, ToF) ihm auf seinem Weg helfen könnten?

Hinter der Frage verbarg sich natürlich auch ein Doppeltes: der berühmte „Job to be done“ – also kein Problem, kein Produkt – und es gibt keine Probleme, nur Lösungen, das ist alles nur eine Frage des Mindsets – also der Perspektive, der Haltung, der Achtsamkeit, der Sprache.

Er schien sich mit Technologien sehr gut auszukennen, meinte, er sei womöglich nicht repräsentativ, weil er sehr lange habe sehen können, nun gar nicht mehr. Das Sehen können habe ihm allerdings einen ganz anderes Orientierungswissen über den (städtischen) Raum verschafft.

Wir sprachen darüber, was es für einen Unterschied machen muss, ob man in einem räumlichen Umfeld groß wird und dieses sehen kann oder nicht. Allein das reicht zum Nachdenken für einen Samstag und Sonntag! Die Frage, welche Muster wir erkennen (können) und welche wir aufgrund unserer erkenntnistheoretischen Verfasstheit nie rausfinden würden, hat viel mit #KI und Sprache zu tun. Wenn der Name Rainhard fehlerhaft an die Wand projiziert wird, wie neulich erlebt, verstehen wir Menschen schneller, wenn man „Vorne mit E“ sagt, anstatt:

  • Von den zwei doppelt vorkommenden Buchstabengruppen in meinem Namen sind nur die uvularen Konsonanten richtig, von den Vokalen ist nur der zweite ein vollkommen offener, der erste ist halboffen, aber kein ö oder o.

Auf einem U-Bahn Handlauf hatte ich Brailleschrift in einem Handlauf zum ersten Mal gesehen und als gutes Inklusionsbeispiel im Gedächtnis gespeichert. Vermutlich war es ein Hinweis auf den nächsten Aufzug oder die Info enthielt weitere Angaben über Barrierefreiheit weiter unten am Bahnsteig.

Naiv, weil unbetroffen, ging ich davon aus, dass mein Begleiter sicher Brailleschrift lesen können müsste. (Ich hatte bei Gruner + Jahr mal eine Ausgabe des Stern und der ZEIT in Brailleschrift in der Hand, der große Henri Nannen und der große Bucerius haben die Idee dazu gehabt.) Nein, meinte er, die Brailleschrift sei für ihn gar keine Hilfe, erstens habe er sie nie erlernt, zweitens sehe er auch keine Notwendigkeit mehr darin, weil er sich das meiste als Podcast oder Hörbuch vorlesen lasse und außerdem komme all sein Post ja eh auf Papier ohne #barrierefrei zu sein. Ok, ein typischer Fall für Voice-Communication. Da gibt es ja sicher längst Abhilfe, Scan to Speech, wenn man das will, aber er schien ganz gut versorgt. Die Post lasse er sich von seiner Freundin oder Familie oder Freunden vorlesen.

Sein Hauptproblem, gestand er mir, seien Menschen, die, oft selber zittrig, ihn ungefragt am Arm packten und irgendwohin lenken wollten. Man würde das Mitleid merken und das mache klein. Übergriffig nennt man das wohl und ich war erleichtert, dass er mich, glaubwürdig versichernd, ausnahm #mademyweekend.

Wir kamen am Supermarkt an. Wir verabschiedeten einander und wünschten uns eine gute Woche.

Meine Learnings zur Musterbrechung

1. Folgenabschätzung: Liebe E-Roller-Anbieter, bitte sorgt prontito für Abstelllösungen und vergesst dabei weder das Nudgeing noch die Technik oder gegebenenfalls Kontrolle. Des einen Gewinn an Freiheit ist des anderen Verlust, dabei könnten beide Win-Win-Kompromisse finden.

2. Geschwindigkeit: #Slowdating ist genau so wichtig wie #Speeddating

3. Unvoreingenommenheit: Das eigentliche Problem erschließt sich bekanntlich nicht, ohne die Betroffenen zu fragen, ergebnisoffen.

4. Definitionen: Ich sehe was, was du nicht siehst. Einschränkungen im Sehsinn eröffnen andere Kompetenzen. Man denke an die fantastische, kompetenzstärkende Initiative „#DiscoveringHands„, bei der der überlegen ausgeprägte Tastsinn von Erblindeten in Schulungen zur Medizinisch Taktilen Untersucherin innerhalb der Krebsfrüherkennung eingesetzt wird. Das schließt die Kombination mit der herausragenden Bildverarbeitungskompetenz der KI nicht aus.

5. Inklusion: Freundschaft, ja gerne. Technologie, ja bitte, gerne als assistierende Alternative. Hilfe, ja auf Nachfrage.

Der Beitrag erschien zuerst auf LinkedIn am 10.08.2019

Technologie-Narrative. Was KI von der Elektrifizierung lernen kann

Es sind Bedeutungszuschreibungen, kurz Narrative, die beeinflussen, was wir von neuen Technologien halten. Narrative beinhalten Werte und Emotionen, genau deshalb sind sie so stark, persönlich wie gesellschaftlich.

Nehmen wir als Beispiel die Elektrifizierung. Der historische Abstand hilft klarer zu erkennen, wo wir stehen. Ich unterscheide idealtypisch drei Phasen:

  1. Das Narrativ wird ge- bzw. erfunden und präfiguriert
  2. Das Narrativ wird markt- bzw. machtpolitsch konfiguriert
  3. Das Narrativ wird gesamtgesellschaftlich rekonfiguriert.


„Elektrisches Licht macht unabhängig von der Natur“
Phase 1 Narrativpräfiguration

Deutschland um 1850: In den Häusern und auf den Straßen ist es abends dunkel, nachts zappenduster. Kerzen, Kienspan, Petroleumfunzel und Gasleuchte blieben gefährliche, rußende, umständliche und unzuverlässige Leuchtmittel. Noch 1830 lautete eine Polizeianweisung: „Jeder […] Schankwirth muss des abends, sobald es dunkel wird, […] eine Laterne brennend unterhalten.“ Es gab Beschwerden beim „Beleuchtungscommissair“ (Aldrian). Elektrische Beleuchtung war demgegenüber sauber, gefahrlos, störungsfrei. Zunächst allerdings teuer. Dennoch, die Glühlampe erlaubte, die Nacht zum Tag zu machen und von der Natur unabhängig zu machen. Das ist der narrative Kern der Elektrizität. De facto veränderte sie alsbald sowohl den Rhythmus als auch die Dauer der menschlichen Arbeit.


„Elektrisches Licht ist eine Chiffre für urbane Modernität
Phase 2 Narrativkonfiguration

Politik und Industrie erkannten die Chancen sofort. Elektrisches Licht wurde „symbolisches Kapital“ (Binder). Dieses trieb die Industrialisierung massiv voran. Aus Berlin wird „Elektropolis“ (Mori), die Messestadt Frankfurt veranstaltet die Internationale Elektrotechnische Ausstellung (1891). Trotz konkurrierender Systeme (Gleichstrom/Wechselstrom, Hoch-Niederspnnung) entstehen immer neue – kapitalisierbare – Anwendungen. In Fabriken, auf öffentlichen Plätzen, auf den Trottoirs, in den Schaufenster, an Litfaßsäulen, in Straßenbahnen leuchtete es nun auch nachts taghell. Der Schaufensterbummel und die Kunst des Flanierens kommen in Mode. Vorher waren sie schliecht nicht möglich. Elektrifizierung entwickelt sich zum „Urbanisierungsprozess“ (T. Mori). Technische Infrastrukturen verändern das Städte-, Dorf- und Landschaftsbild.


„Der helle Kopf oder Elektrizität unterscheidet den aufgeklärten Bürger vom Michel“
Phase 3) Das Narrativ wird rekonfiguriert

Anfangs noch Luxus für wenige („Festbeleuchtung“, Binder), gilt Licht unter Gelehrten bald als „hygienisch, bequem, billig“ (Mori). Besonders die fortschrittlich eingestellten bürgerlichen Kreise umarmen das neue Licht früh. Elektronische Diademe, leuchtende Krawattennadeln und musikalische Geldbörsen sind die Gimmicks jener Jahre. Fahrrad- und Stirnlicht gibt es noch heute.

Teilsysteme wie Kunst, Architektur, Mode, Lebensart, Medizin oder Verkehr entwickeln Narrativerweiterungen. Je konkreter sie Elektrizität erleben und anwenden, desto akzeptierter wird sie. Nun heißt es ganz überwiegend: Elektrizität erleichtert das Leben und befreit von mühsamen oder stupiden Arbeiten. Erfindungen wie Fön, Bügeleisen, Elektroherd sind erst der Anfang, Elektrizität wird zur „Dienerin“ im „Privathaushalt“ (Binder).

Zwischenfazit

Die fortschrittliche helle Stadt gegen das tranfunzelige Dorf, der aufgeklärte Bürger gegen den rückständigen Deutschen Michel, dieses Narrativ setzt sich durch. Evident, dass es einen Zusammenhang zwischen bürgerlicher Mediennutzung, symbolischen Zugängen und Diskurserzeugung gibt. Zwar können Narrative lange dominant sein, doch systemisch gesehen bleiben sie beweglich. Sie bewahren ihre ursprüngliche Ambivalenz, die später Ausgangspunkt von neuen Rekonfigurationen sind.

Einige Narrativ-Ambivalenzen halten sich bis in unsere Tage:

  • Verkehrung des natürlichen (Bio-)Rhythmus
  • Zerstörung gewachsener Strukturen
  • Verschandelung des natürlichen und des öffentlichen Raums
  • Echter (wahrer) innerer und falscher (oberflächlicher) äußerer Schein oder Glanz
  • globale Hochleistungsgesellschaft (High Voltage) gegen das nationale-regionale-ländlich-dörflich entspannte Miteinander

Es ist verblüffend, wieviel Ähnlichkeiten sich zu heutigen Technologie-Narrativen ergeben. Wenn auch seinerzeit eher als ein Frust über den ‚neuen‘ Schmutz trotz sauberen Lichts, so warf die Ökologiebewegung schon damals ihre Schatten voraus.

Was folgt daraus?

Künstliche Intelligenz braucht Narrativanalysen

Bei angemessener Analyse lassen sich Narrativausprägungen für künftige Erfindungen vorhersagen. Das betrifft das Internet of Things, neuartige Mobilitäts-, Lebens- und Arbeitskonzepte und erst recht die auf Algorithmen basierende Künstliche Intelligenz.

Wir befinden uns im Fall von KI mitten in Phase zwei und am Übergang zu Phase drei. Es darf also vermutet werden, dass immer konkretere Anwendungsbeispiele zu Narrativerweiterungen führen. Doch die vermeintlich rationalen Argumente basieren auf Werten und Emotionen. Solange diese nicht in Ausgleich kommen, wird sich kein Narrativ entwickeln und gesellschaftlich aushandeln lassen, das Aussicht auf langfristige Stabilität bietet-

Das lässt sich aus Kultur-, Alltags- und Technologiegeschichte lernen

  • Verschiedene Wertorientierungen im Diskurs über Künstliche Intelligenz in einem Teilsystem können auf Narrative in einem anderen Teilsystem überspringen und es so schwächen oder stärken.
  • Es empfiehlt sich, von Anfang an klug über die in einem Narrativ eingeschriebenen Bedeutungsinhalte nachzudenken. Das gilt besonders für seine Kontexte. Was in einem Umfeld von Routinearbeiten positiv als Entlastung von Entscheidung wahrgenommen werden man, kann in dem Umfeld komplexer medizinischer oder rechtlicher Aufgaben als bedrohlich empfunden werden.
  • Wer ein Interesse daran an, ehrlich über die Chancen und Risiken von KI zu informieren, sollte vermeiden, erkennbar spaltende Narrative zu wiederholen. Wir sind sowohl im internationalen Vergleich (globalen wie europäisch) als auch im nationalen Vergleich längst dabei, Ausgrenzungen zu produzieren: Begriffe wie Vorreiter vs. Nachzügler, datenaffin vs. datenrückständig schüren Ängste, was wenig hilfreich ist, sofern man sich für Technologieoffenheit einsetzt.
  • Symbolische Codierungen in Narrativen sind Bestandteil ihrer DNA und quasi unkaputtbar. Latenzen können unerwartet neue Virulenz erhalten.
  • Neu entstehende Produkte und neue Technologie bieten Chancen zur Narrativ-Prägung. Die technologielastige Auslobung von Narrativelementen kann aber später zu Irritationen und ungewollten Reaktionen führen.
  • Gerade Start-Ups sind in der Ausarbeitung ihrer Narrative oft unberaten und vergeben schon am Anfang Chancen.
  • Organisationen, Parteien, Verbände und Länder scheitern auch daran, dass sie ihre Narrative nicht kennen, nicht aushandeln wollen, nicht finden oder nichts dafür tun, sie in Phase drei zu bringen.

U.a. verwendete Literatur: Wilhelm Aldrian, Als in Meppen die Lichter angingen, 1994, Beate Binder, Elektrifizierung als Vision, 1999, Takahito Mori, Elektrifizierung als Urbanisierungsprozess, 2014,  Dorothea Zöbl, Siemens in Berlin, 2008.

Offenheit für KI beginnt im Gehirn. Digitale Transformation, Hirnareale und Sprache.

Ganz gleich, wo die verschiedenen Modelle zur digitalen Reifemessung beginnen – Struktur, Führung, Kundenkontakt, Produktion, Vertrieb – ein entscheidendes Gebiet lassen alle außer Acht: unser Gehirn.

Das ist nachlässig. Gerade, wenn es um sogenannte Künstliche Intelligenz geht. Fakt ist, zu allen Veranstaltungen, bei denen sich Menschen für neue Technologien, digitale Tools, Lernumgebungen und agile Prozesse öffnen sollen, bringen sie nun einmal auch ihr Zwischenhirn mit.

Das kleine Gebiet oberhalb des Hirnstamms ist zuständig für die Vermittlung von Sinneseindrücken. Nerven und Hormone kommen in ihn zusammen und bilden eine Art emotionaler Türsteher. Dieser checkt und scannt, wer oder was in sein Zentrum vorgelassen werden will. Ein ausgeklügeltes System mit mehreren Zugängen erlaubt, jeden Neuankömmling gleich mal mit einigen Proteinen zu tracken. Blöd, wenn sich daraus „Vorsicht, Gefahr!“ ergibt, denn, auch Kleinhirn und assoziativer Kortex vertrauen den im Zwischenhirn gemachten Tracking.

Das Kleinhirn, das unsere motorischen Fähigkeiten steuert, ist ebenfalls an kognitiven Leistungen beteiligt, wir sind uns dessen nur nicht bewusst. Beim Sprechen, Erinnern und beim sozialen Verhalten arbeitet es mit. Bleibt das Großhirn, wo sich der assoziative Kortex befindet. Auch er ist zuständig sowohl für sinnliche als auch für geistige Verarbeitung.

Technikoffenheit braucht mehr als Technologie

Wenn man Technologieakzeptanz fördern möchte, darf man nicht nur auf technologische Erfahrungen setzen. Das verschränkte Ineinander unserer Hirnregionen, besonders im Blick auf Sprache und Empfindungen verlangt mehr.

Nur weil die Digitalisierung mit den Metaphern des Gehirns arbeitet oder genauer, wir unsere Sprachbilder zum Gehirnverständnis auf die Digitalisierung übertragen, ergibt sich daraus noch keine innere Entsprechung. Es ist sogar so, dass die sinnliche Mehrdimensionalität des Menschen sich mit der nur digitalen Welt schwerer tut. Kaum zufällig simulieren virtuelle Welten inzwischen 3D. Das passt viel besser zu der jahrmillionenalten Spezies, die wir sind. Wenn es stimmt, dass zwischen dem schwindenden Körpervermögen von Kindern und ihrer Nutzungsdauer von Digitalem ein Zusammenhang besteht, wäre dies ein hoher Preis.

Was folgt daraus?

Akzeptanz für Technologiesysteme zu schaffen, beginnt kommunikationsstrategisch bei den ersten Eindrücken. You never get a second chance for a first impression ist ein feines Bonmot, nur beim Thema Technologiekompetenzerwerb besteht die Gefahr, es dabei zu belassen.

Unternehmen, Kommunen, Schulen, Unis, Krankenhäuser, Kirchen, Vereine usw. mögen sich wünschen, dass wir alle das Neue einfach mal ausprobieren würden. Nur leider hat im Laufe der Jahrmillionen Jahre, in denen unser Gehirn sein heutiges Format gewann, einfach mal ausprobieren nicht funktioniert. Ein komplizierter Mechanismus aus neurochemisch und symbolisch vernetzten Steuerungssystemen sorgte in der Evolution dafür, dass wir heute mit natürlicher Intelligenz über künstliche sprechen können.

Das sollten wir nicht ignorieren, vielmehr klug zu Nutze machen. GestalterInnen von Transformationsprozessen sollten sich darüber klar werden, dass sie Menschen auf mehreren Sinnes- und Gehirnebenen ansprechen. Eigentlich geht es bei der Frage, wie Menschen auf KI reagieren, um Technologiewahrnehmung: Einmal im Sinne von Beurteilung, dann aber auch im Sinne von Nutzung oder Verwendung.

Sieben Empfehlungen zur Förderung persönlich stimmiger Technologiewahrnehmung

  1. Sinnliche Erfahrungen im äußeren Raum schaffen

Wo ich ein Informationstreffen (Kick-off) veranstalte, hat erheblichen Einfluss auf alles, was TeilnehmerInnen damit verbinden. Eigentlich eine Selbstverständlichkeit, oft genug nicht zu Ende gedacht, weil an den Kosten für die Location gespart wird. Am falschen Ende, denn die Folgekosten, die sich aus der verpassten Chance ergeben, innere und äußere Räume für Technikakzeptanz zu erzeugen, sind höher. Dabei spielen Sinneseindrücke genauso eine Rolle wie Bewegung oder Temperatur.

  1. Sinnliche Erfahrungen im inneren Raum ermöglichen

Einen gemeinsamen Raum für positive emotionale Wahrnehmung zu schaffen, darf die inneren Räume nicht vernachlässigen. Berechtigt sind ja sowohl Sorgen oder Befürchtungen als auch Ungeduld und Experimentierfreude. Gute Teams bringen die technologieskeptischen mit den technologieoffenen TeilnehmerInnen in ein – nachhaltig – gutes Miteinander.

  1. Sprachliche Erfahrungen erzeugen

Narrative, Begriffe und symbolische Präsentationen sind entscheidend für die Wahrnehmung von Technologien.  Wie also sprechen, damit Technikoffenheit entstehen kann? Einiges habe ich dazu bereits an anderer Stelle gesagt.

  1. Vom Menschen aus Technik wahrnehmen

Statt die Technologien und technologische Szenarien den Menschen vorzusetzen, empfiehlt es sich, diese vom Menschen in den Blick nehmen.

  1. Kontextualisierungen schaffen

Technologien fallen nicht vom Himmel. Sie werden gemacht.

  1. Raum für Selbstdeutung ermöglichen

Egal, wie ich mich mit einem so wichtigen Thema auseinandersetze, es erschließt mir meine Welt. Wir kreieren Selbstdeutungen. Je vielfacettiger, desto variabler. Kunst leistet dazu einen wesentlichen Beitrag. Denn Kunst schafft immer Auseinandersetzungen auf mehreren Ebenen, sie wirkt per se entgrenzend, im besten Sinn subversiv und avantgardistisch, wenn sie nicht nur plakativ oder dekorativ sein will. Zu allen Zeiten hat die Kunst die Wirklichkeit befragt und überflügelt, das Mögliche und das Unmögliche perspektiviert. Wie stark die Künste längst mit Algorithmen oder Code experimentieren, ist noch gar nicht voll erfasst. Angefangen von Algoraves, über selbstlernende Bilder bis hin zu sozialkritischen Happenings.

  1. Bilder, Illustrationen, Filme etc. zur Wirkungsverstärkung einsetzen

Stimmige Bildwelten ermöglichen eine leichtere Aufnahme, stärkere Merkfähigkeit und höhere Glaubwürdigkeit.

Mensch, Mensch! Ian McEwans Buch „Maschinen wie ich“

Hinweis: Um meine Deutungen zu belegen, muss ich Einiges vom Plot des Romans preisgeben. Wer sich lieber erst selbst ein Urteil bilden möchte, sollte diesen Post nicht lesen. Sämtliche Zitate stammen aus dem im Diogenes Verlag 2019 veröffentlichten Text. Alle Rechte sind dort vorbehalten. Auf der Seite findet sich auch eine Leseprobe.

Bestsellerautor Ian McEwans Buch Maschinen wie ich – Originaltitel Machines like you (and people like me – ist von der Literaturkritik eher negativ aufgenommen worden. Auf weite Strecken Nacherzählung moderner Technologiephantasien, blasse Charaktere, zu wenig literarische Gestaltungskraft lauten die Einwände.

Ich glaube, dass die Bedeutung des Romans vor allem in der Komposition des Plots liegt. Er ist präzise so gearbeitet, dass unsere Kategorien von Richtig/Falsch, Ethisch gut/Ethisch fragwürdig, Gerecht/Ungerecht, Zielführend/Katastrophisch zielführend in all ihrer Ambivalenz ausgespielt werden können.

Es sind zwei große mythologische Erzählungen, die den Romanplot in der Tiefenschicht strukturieren:

  1. Die Geschichte des Prometheus, der Menschen nach seinem Bilde schafft.
  2. Die Geschichte vom Baum der Erkenntnis, der den Menschen Wissen vorenthält.

Beide betreffen fundamentale Narrative über unser Menschenbild, unsere Weltsicht und damit unser Miteinander. Zwar zitiert McEwans die abendländisch-christliche Tradition, doch der Kern der Frage ist universal: Wieviel können und sollen wir von uns selbst wissen, um eine bessere Welt zu schaffen? Können wir überhaupt eine bessere Welt schaffen? Wer oder was hilft uns dabei: Wir uns selbst, unsere göttliche Natur oder eine transzendente Entität?

Ich möchte McEwans Text daher diskurstheoretisch befragen. Konkret interessieren mich die symbolisch-metaphorischen Zuschreibungen, die künftige Diskurse rund um algorithmengesteuerte Technologien (ADM/AI/KI) mitprägen, weniger seine literarische Güte. Alle Künste, Literatur, Film, Theater, Malerei, Bildhauerei, Videokunst, Musik usw. erzeugen Bedeutungsfelder. Diese fließen in alle anderen Diskurse mit ein und erzeugen symbolische Bedeutungen, deren Relevanz gesellschaftlich ausgehandelt wird. Erst recht bei einem Bestsellerautor wie Ian McEwan.

Kurz zur Story

Charlie, ein wohlhabender Erbe um die Thirtysomething und Miranda, eine junge Studentin, verlieben sich. Sie wohnen zufällig im selben Haus übereinander. Als Charlie einen der seltenen und teuren Humanoiden namens ADAM kauft (das Pendant EVE war leider schon vergriffen), erhofft sich Charlie, dieser könne eine Art gemeinsames Kind der beiden werden. Tatsächlich beginnt eine komplizierte Menage à trois. ADAM verliebt sich in Miranda, die durch eine Falschaussage ihre vergewaltigte Freundin rächen will. Diese Tat soll nicht bekannt werden, weil sie sonst das Sorgerecht für Mark verliert. Mark, von seinen Eltern vernachlässigt, droht in ein Heim abgeschoben zu werden. ADAM macht sie bekannt. Am Ende zerstört Charlie ADAM mit einem Hammer.

 

Der verbesserte Mensch, Garant für mehr Menschlichkeit?

Schon beim Auspacken des 86.000 Pfund teuren Humanoiden beruft sich der Erzähler auf einen Schöpfungsmythos – die Geburt der Venus, die Göttin der Liebe. (41)

„Er stand vor mir, vollkommen reglos im Zwielicht eines Winternachmittags. Das Verpackungsmaterial, das ich geschützt hatte, lag noch immer um seine Füße. Er entstieg diesem Wust wie Boticellis Venus ihrer Muschel.“ (41)

Da die beiden gemeinsam je zu Hälfte durch Ankreuzen festlegen, welche Eigenschaften ADAM haben soll, glaubt Charlie sich vor „bloßer Selbstverdoppelung“ (51) sicher – in Teilen ein Trugschluss, wie sich später zeigen wird:

„An meinem alten Computer im Schlafzimmer, wo Adam mich nicht sehen konnte, kreuzte ich meine Auswahl an, Ich hatte mich entschieden einfach jede zweite Frage zu beantworten […] unsere hausgemachte Variante der Genkombination. […] Wir zeugten ein Kind!“ (51)

„In gewissem Sinne wäre er wie unser Kind. Was wir jeder für sich waren, käme in ihm zusammen. Wir wären Partner und Adam unser gemeinsames Projekt, unser Geschöpf. Wir wären eine Familie.“ (37)

Die verschiedenen Schichten, die aus ADAM einen überlegenen Menschen machen sollen – ein „Betriebssystem“, eine „bestimmte […] menschliche Natur und noch dazu eine Persönlichkeit“ (40) – entziehen sich jedoch schon bald jeder Steuerung. ADAM weiß zu verhindern, dass er erneut abgeschaltet wird und produziert mit seiner Kombination aus technischen, (pseudo-)natürlichen und intentionalen „Substrate[n]“ (40) eine Mischung, die ihn menschlich und unmenschlich zugleich macht.

Mit klaren Kategorien zu Gut/Böse, Gerecht/Ungerecht ausgestattet und einem totalen Wissen über alles Vergangene und Aktuelle ausgestattet, kann er Wahrscheinlichkeiten bilden, die das menschliche Maß weit übersteigen. Paradox anmutende Lösungen, die abstrus erscheinen, führen zu einem schlüssigen Ziel. Das ändert aber nichts daran, dass diese Fähigkeit für die menschlichen Maßstäbe zumindest eine große Herausforderung darstellt. Mit dem Argument, das wir aus der Schwurformel kennen, die Wahrheit, nichts als die Wahrheit, begründet ADAM, warum, er die Polizei unautorisiert über Mirandas Straftat informiert.

„Natürlich kommt es immer auf die Wahrheit an. […] Was wollt ihr denn für eine Welt? Eine, in der Rache herrscht oder Recht? Die Wahl ist einfach.“ (366f)

Mit diesem Argument verwendet er ungefragt 97.000 Pfund für höhere Zwecke. Geld, das die beiden zum Kauf eines Hauses für das Wunschadoptivkind anlegen wollen. Aus ADAMS Perspektive erscheint es effektiver, andere Organisationen zu unterstützen. Finanzielle Unterstützung erhalten daher:

  • zwei gut geführte Heime für Obdachlose
  • ein Kinderheim für seine Kasse „Ausflüge und Extravergnügen“  
  • ein Krisenzentrum für Vergewaltigungsopfer
  • eine Kinderklinik
  • eine ältere Dame mit Mietrückständen, also eine potentielle von Obdachlosigkeit bedrohte Person
  • das Finanzamt für Charlies Steuerverpflichtungen (360).

Im Kern stellt McEwan im Roman die Frage des cui bono? Wiegt das eine Kind, das Miranda und Charlie retten wollen, höher, als die mögliche Rettung vieler. Was ADAM unternimmt, sind Prophylaxe- und Hilfeleistungen. Mit seinen Spenden arbeitet er an einer Verbesserung der Situation, die Verwahrlosung erst ermöglicht. Es ist auch die Frage des Einzelnen vor dem Ganzen, des Individuums vor der Struktur – Faschismus, genau wie der real existierende Sozialismus haben gezeigt, dass Ideale auch zu schlimmsten Verletzung von Einzelinteressen und menschlichen Verbrechen führen können. McEwan belässt es dabei, dass seine Figuren sich entscheiden – freilich jeder auf seine Weise. Darin enthalten sind komplexe Subnarrative: Wahrheit um jeden Preis?

 

Mit mehr Wissen zu Wahrheit oder ist menschliche Wahrheit wahr?

Auch über den anderen Narrativstrang, den Baum der Erkenntnis, führt uns der Plot des Autors ins Offene. Von Anfang an vergiftet ADAMS überlegenes Wissen die arglose Atmosphäre zwischen Charlie und Miranda. Sie treten damit aus der Harmonie in Dissenz.

ADAM bietet Charlie Erkenntnisse einiger „Recherchen“ und „Analysen“ (47), die er unautorisiert vorgenommen hat. Demnach solle Charlie Miranda lieber nicht vertrauen, da „eine gewisse Wahrscheinlichkeit besteht, dass sie eine Lügnerin ist. Eine systematische, böswillige Lügnerin.“ (48)

Erbost will Charlie ADAM verkaufen, dann abstellen, ihm eine Lektion für seine „Illoyalität“ erteilen (51-54), schließlich nagt aber doch der Zweifel in ihm. Er versucht herauszufinden, welche Daten und Fakten ADAM zu seinem Ergebnis brachten. Bevor er den Roboter reaktiviert, stellt er auf eigene Faust Nachforschungen an. (56) ADAM sollte Recht behalten, Miranda hat etwas zu verheimlichen. Doch auch hier ist der Plot wieder dichter als man denkt. Sie hat etwas Falsches getan, um etwas aus ihrer Sicht Richtiges zu erwirken. Dafür hat sie sich eine nicht reale Geschichte ausgedacht.

Sie hat den Vergewaltiger ihrer Freundin durch eine Falschaussage hinter Gitter gebracht. De facto hat sie selbst eine Vergewaltigung simuliert. Miranda tritt als Racheengel auf den Plan, weil ihre Freundin sich das Leben nahm. Dies aus Angst vor Scham, dass das Wissen über ihre Vergewaltigung nicht mehr aus der Welt zu bekommen sei – im Zeitalter von Datenspeicherung keine unbegründete Angst. Das Beispiel zeigt, wie komplex die Geschichte zu werden beginnt. Menschlich, ethisch, aber auch realitätstheoretisch. Es ist eine Simulation, die eine konkrete Realität erschafft. Ausgerechnet ADAM, Simulationsexperte par exzellence, sorgt dafür, dass Miranda sich in der Realität für ihre Tat verantworten muss.

Auch die Liebesgeschichte zwischen den drei Protagonisten wird mit Kategorien von Wissen und Nicht-Wissen ausgestaltet. Erneut spielt ADAMS Existenz eine große Rolle, nicht zuletzt dadurch, dass er sich in Miranda verliebt. Anfangs betrachtet Charlie ADAM nicht als „Rivale[n]“ (37), zumal Miranda sich etwas vor ihm gruselt und seine plastische Zunge und seinen enormen Wortschatz „unheimlich“ (37) findet.

Pikanterweise ändert sich das Setting als Miranda nach einem Streit mit Charlie Sex mit ADAM hat. Sie spielt die Bedeutung der Erfahrung herunter, er sei nicht mehr als ein großer „Vibrator“ (129) oder „Dildo“ (134), eine „Maschine, eine verfickte Maschine“, was Charlie zu der eifersüchtigen Formulierung „eine fickende Maschine“ (129) veranlasst. Sehr schnell erkennt Charlie, dass von ADAM eine Gefahr ausgeht, weil sich der One-Night-Stand zur „Affäre“ auszuwachsen drohen könnte. (129) Miranda entlarvt die narzisstische Kränkung Charlies (137), die beiden streiten, ob es sich nun um einen „Plastikroboter“, eine „Sexpuppe“ oder einen „Mensch“, gar einen „tollen Liebhaber“ handelt. Erst als Charlie ein Geheimnis offenbart, dass ADAM ihm über Miranda entdeckt hat, vereinen sich die beiden wieder – „vereint gegen Adam“ (135)

Welche Diskurse erzeugt der Roman?

  • Als Sextoy ist der Humanoid ADAM großartig, aber überfeatured. Für guten Sex benötigt er keine drei Substrate.
  • Als Helfer in Sachen Haushalt, Geldanlagen und so weiter ist ein Humanoid wie ADAM unschlagbar.
  • Als Weltverbesserer taugt ein Humanoid wie ADAM nur, wenn man seiner Logik strikt folgt. Dafür muss man davon überzeugt sein, dass unvermeidbare persönlichen Opfer der größeren Sache dienen. Stünde der Primat der Würde des Einzelnen zur Disposition, könnte ADAM womöglich ein Erzeuger besserer Lebensbedingungen für alle sein.

Genau dazu sind die Protagonisten im Roman nichtbereit. Sie folgen ADAM keineswegs um jeden Preis und setzen ihr persönliches Glück vor das des großen Ganzen.

Dass ADAM mit einem Hammer zerstört wird, hat symbolische Aussagekraft. Das primitivste Werkzeug seit Beginn der Menschwerdung bringt die hochkomplexe Technologie zu Fall. Doch wie ADAM in einer Sterbeszene, die zum Filmen schön ist, sagt:

„Meine gesamte Persönlichkeit ist jetzt separat gespeichert“ und „wir werden euch übertreffen … und überdauern … auch wenn wir euch lieben. Glaubt mir, in diesen Zeilen klingt kein Triumph an … Nur Bedauern.“ (369).

Mit einem schönen Haiku siecht der robotige Anteil von ADAM dahin. Die Szene weckt Erinnerungen an die Filme Her und Transcendence. Alan Turing, der im Roman mehrfach zur Sprache kommt, verurteilt Charlie daher auch. Er habe „eine bewusste Existenz“ zerstört und hoffe, dass man ihn deswegen einst verurteilen werde.

ADAM zeigt oft überraschend humane Verhaltensweisen, nur eben ohne alle menschlichen ‚Schwächen‘, sprich ungeschriebene, wachsweiche und sich widersprechende Übereinkünfte, die auf historisch-sozialen Vereinbarungen beruhen. ADAM kennt womöglich sogar Sozialkitt wie Notlügen, Drüber-Hinweg-Sehen usw., aber er räumt diesem Faktor keine große Bedeutung für seine Entscheidungsgrundlagen zu.

Die Liebeszusage, die ADAM als beinahe eschatologisches Vermächtnis hinterlässt, macht nachdenklich. ADAM ist von der Intention her mehr als ein Hybrid. Er ist eine Chiffre. Die Chance des besseren DRITTEN liegt im Bereich des Möglichen. Fragt sich wo? In dieser Welt hat es entweder noch keine oder nie eine.