Die Ablösung der künstlichen Intelligenz durch den Netzwerk – Menschen
Walther Ch. Zimmerli
WechselWirkung 103/104, 2000
Walther Ch. Zimmerli, Dr. Phil., ist Universitätsprofessor für Philosophie an der Philips Universität Marburg und Präsident der privaten Universität Witten/Herdecke gGmbH.
Manchmal beschleicht uns die bange Frage: Was sind wir als Menschen eigentlich, wenn wir uns als Menschen die Aufgabe stellen, uns als Menschen zu verändern? Man kann diese komplex formulierte Frage auch einfacher und griffiger ausdrücken, wie der verstorbene Philosoph Hans Jonas das gemacht hat, als er fragte: Gott schuf bekanntlich den Menschen nach seinem Bilde. Nach wessen Bilde sollen wir Menschen nun aber den Menschen schaffen?(1) Und dann nochmals komprimierter: Wenn uns unsere biowissenschaftlichen Erfolge die Möglichkeit an die Hand geben würden, Menschen nach Maß zu schaffen, dann fragt sich immer noch: nach welchem Maß? Seit dem Sophisten Protagoras wissen wir, daß der Mensch das Maß aller Dinge ist(2). Und damit wären wir wieder beim Anfang, denn wenn der Mensch das Maß aller Dinge ist und wir Menschen uns selber genetisch verändern können, ist immer noch offen, in welche Richtung die Veränderung gehen soll.
Wenn wir also enhancement therapy als eine Therapie, die auf Verbesserung und nicht nur auf Wiederherstellung der Gesundheit des Patienten abzielt, bedenken, dann fragt sich, was daran ´besser´ bedeutet. Für das Gewicht, daß diese Frage hat, und für die Einsicht, wie wenig selbstverständlich sie ist, genügt ein Blick auf einige der Antworten, die auf sie gegeben worden sind. Dazu muß man nicht unbedingt das schwere Geschütz des irregeleiteten Grauens auffahren, das im Dritten Reich mit dem Begriff der ´Eugenik´ verbunden wurde. Es reicht, sich klar zu machen, daß auch die wissenschaftlich-technische Zivilisation unmittelbar nach der molekularbiologischen Revolution im Zusammenhang ihrer zukunftsorientierten Euphorien ihre abstrusen Vorstellungen von genetischer Verbesserung hervorgebracht hat. Große Köpfe wie Joshua Lederberg etwa haben in allem Ernst vorgeschlagen, man solle, weil ja die Zukunft des Menschen draußen im Weltall und der Schwerelosigkeit liege, versuchen, die Menschen weltraumfähig zu machen. Ganz offenkundig sind wir nämlich nicht sehr gut für ein Leben unter Bedingungen der Schwerelosigkeit geeignet, da wir mit unseren Händen nur über zwei Greifwerkzeuge verfügen, während die Greiffähigkeit unserer Füße verkümmert ist. Der Vorschlag ging also dahin, enhancement therapy, Verbesserungstherapie oder besser: -züchtung zu betreiben, damit die Menschen der Zukunft nicht nur greiffähige Hände, sondern auch greiffähige Füße hätten!
Wenn man sich dies vor Augen führt und dabei zugleich in Rechnung stellt, daß wir über die kombinatorischen Effekte unserer Eingriffe und über deren Kontext nur wenig wissen, dann erinnert man sich unwillkürlich an die berühmte Geschichte von George Bernhard Shaw, die – obwohl nicht politisch korrekt – ein grelles Schlaglicht auf die Fähigkeit der Menschen wirft, ihre biologische Zukunft zu planen. George Bernhard Shaw soll einmal bei einem Dinner als Tischherr einer überdurchschnittlich schönen Dame von dieser gefragt worden sein: „Wäre es nicht herrlich, wenn wir zusammen ein Kind hätten? Denken Sie nur: Ihre Intelligenz und meine Schönheit!“ Daraufhin soll George Bernhard Shaw nur trocken erwidert haben: „Mylady, das lassen wir lieber, denn es könnte unter Umständen genau umgekehrt herauskommen“; und wer weiß, wie George Bernhard Shaw aussah, kann sich vorstellen, wie intelligent die Dame gewesen sein muß.
Diese kleine Geschichte zeigt uns, daß wir uns in einem Unsicherheitsraum bewegen, wenn wir über genetische „Verbesserungen“ nachdenken, und daß unsere Vorstellungen über Züchtung und auch über mit molekularbiologischen Methoden gentechnisch verfahrende Züchtung eher in den Bereich des Mythos gehören.
Und trotzdem (oder vielleicht gerade deswegen) gilt es, über den Menschen als Produkt seiner eigenen technischen Handlungen, also über den Menschen als Artefakt oder über den künstlichen Menschen, nachzudenken. Dazu lassen sich mindestens zwei Strategien verfolgen: Die eine ist schon seit der Antike bekannt und besteht in dem Versuch, eine Maschine zu bauen, die so ist, daß sie alles das kann, was auch Menschen können. Diese Strategie ist sozusagen klassisch, und ich nenne sie die Roboterstrategie.
Die andere Strategie hat den faktischen Verlauf unserer Entwicklung bisher bestimmt und versucht, immer weitere Teile des Menschen und der Funktionen des natürlichen Menschen durch technische Artefakte zu ersetzen, zu verbessern oder zu erweitern. Diese Strategie ist bislang hauptsächlich in der Frage nach Menschenverbesserung durch Menschenzüchtung verfolgt worden und kann deswegen auch als Züchtungsstrategie bezeichnet werden. Die folgenden Überlegungen wollen dagegen in fünf Schritten genau diesen Spannungsbogen zwischen beiden Strategien versuchen auszuleuchten.
Der erste Schritt dieser Überlegungen setzt an mit der sogenannten ´Sloterdijk´-Debatte (I), um danach das zu diskutieren, was ich zu diesem Zwecke ´Züchtungszähmung´ nennen will (II). In einem dritten Schritt will ich den Übergang von der Künstlichen Intelligenz zum Netzwerkdenken erörtern (III), um in einem vierten Schritt zu fragen, welche Konsequenzen das für das Denken und Handeln von Menschen in Netzwerken hat (IV), und dann fünftens zur Frage zu kommen: Wie verhält sich denn das konkrete Netz, das wir gegenwärtig benutzen und das als technisches Netz unsere kognitiven Leistungen erweitern soll, zu Fragen der Wissensgesellschaft, in die wir angeblich hineinsteuern (V).
I. Die Sloterdijk-Debatte – revisited
Die Geschichte ist schnell erzählt: Das Sommerloch 1999 war tief und leer, und so waren alle froh, als plötzlich die Debatte über einen Vortrag ausbrach, den der Philosoph Peter Sloterdijk auf Schloß Elmnau zum Thema: „Regeln für den Menschenpark – Ein Antwortschreiben zum Brief über den Humanismus“ gehalten hatte. Zwar war das nicht die Premiere, denn dieser Text war schon früher in Basel vorgetragen worden und hatte dort die übliche Reaktion erhalten – distanziertes Interesse und freundlichen Applaus für artistische Formulierungen. Auf Schloß Elmnau war man feinfühliger und merkte, daß hinter den gefälligen Pointen eine geballte Ladung verborgen war. Und schon füllten sich von der ZEIT bis in die Boulevardmedien die Gazetten mit Kampfgetöse.
Was aber hat Sloterdijk, in gebührendem Abstand beurteilt und gewürdigt, eigentlich gesagt? Was war denn anstößig in diesem Text des Anstoßes? – Neben vielem anderen, was historisch-philologisch eher verklausuliert daherschreitet, findet sich folgender Satz, und um diesen Satz ging es eigentlich in der Debatte: „Ob aber die langfristige Entwicklung auch zu einer genetischen Reform der Gattungseigenschaften führen wird – ob eine künftige Anthropotechnologie bis zu einer expliziten Merkmalsplanung vordringt; ob die Menschheit gattungsweit eine Umstellung vom Geburtenfatalismus zur optionalen Geburt und zur pränatalen Selektion wird vollziehen können – dies sind Fragen, in denen sich, wie auch immer verschwommen und nicht geheuer, der evolutionäre Horizont vor uns zu lichten beginnt.“(3)
Auch wenn man nicht wüßte, aus welchem Anlaß dieser Vortrag gehalten worden ist, würde man schon dem spezifischen Sprachduktus entnehmen können, daß es eine Veranstaltung war, die etwas mit Heidegger zu tun hatte, und so war es denn auch: Es ging um die Frage des Humanismus nach der Humanismuskritik Martin Heideggers, und Sloterdijk vertrat die Auffassung, daß die Kritik am Humanismus heute in viel radikalerer Form vorgetragen werden müsse. Die zugrundeliegende Frage läßt sich – pointiert – so wiederholen: Lohnt es sich eigentlich noch, nachdem wir über annähernd drei Jahrtausende versucht haben, die Humanisierung der Menschen durch Bildung voranzutreiben, nachdem also diese Bildungsdomestikation als Zähmung gescheitert ist, nachdem sich folglich herausgestellt hat, daß man die Menschen durch humanistische Bildung nicht bessern kann, – kurz: Lohnt es sich noch, nach dem Versagen des Humanismus-Projekts an der Hoffnung auf Zähmung des Menschen durch Bildung festzuhalten? Sollten wir uns nicht eher radikal umwenden und sagen: Schluß mit der humanistischen Tradition der Zähmung, der Domestikation und Zivilisierung – wir bauen den Menschen gleich richtig um, nun da wir es genetisch können. Wir greifen ein in die Menschenkonstruktion, und damit ersetzen wir die Erziehung. Noch einmal anders gewendet: Das Erziehungsprojekt wird abgeschlossen, und an seine Stelle wird kompensatorisch das Züchtungsprojekt gestellt.
Auch hier wiederum bedarf es keiner Erwähnung, daß erneut ein Hintergrunddenker Pate gestanden hat, und natürlich ist es derselbe Denker, unter dessen Einfluß auch Heidegger stand, nämlich Friedrich Nietzsche. Dieser, der Denker der „ewigen Wiederkehr des Gleichen“ und des „Willens zur Macht“, hat ein drittes Haupttheorem formuliert, auf das sich Sloterdijk bezieht, das er allerdings nicht konsequent genug weiterdenkt. Nietzsches Idee ist ebenso einfach wie überzeugend und steht unter dem Einfluß des sich damals breitmachenden Darwinismus. Sie geht aus von der Frage: Wieso soll eigentlich, wenn alle anderen Spezies aussterben oder mutieren, ausgerechnet homo sapiens sich nicht weiter entwickeln? Oder als Nietzsches Theorem formuliert: „Der Mensch ist ein Seil, geknüpft zwischen Thier und Übermensch, – ein Seil über einem Abgrunde.“(4)
Übermensch, das ist nicht Superman, sondern mit ´Übermensch´ ist die nächste Stufe der Evolution von homo sapiens gemeint. Die Frage ist also: Wohin soll homo sapiens sich entwickeln? Oder – reflexiv gewendet – wohin sollen wir uns entwickeln? Nietzsches Antwort darauf lautet: Wir müssen diese Frage so angehen wie diejenige nach der Weiterentwicklung aller anderen Arten, deren Weiterentwicklung wir selber in der Hand haben, also nicht selber in der Hand haben, also nicht durch Abwarten, sondern durch Eingreifen. In Nietzsches eigener Formulierung: „Ich lehre euch den Übermenschen. Der Mensch ist Etwas, was überwunden werden soll. Was habt ihr gethan, ihn zu überwinden? […] Der Übermensch ist der Sinn der Erde. Euer Wille sage: der Übermensch sei der Sinn der Erde!“(5)
Nun kannte Friedrich Nietzsche die heute verfügbaren gentechnischen Methoden nicht, und sein Begriff der ´Züchtung´, den er in diesem Zusammenhang verwendet, war gewiß stärker kulturalistisch gemeint, weil ihm auch in den kühnsten Träumen nicht eingefallen wäre, die primitive Genetik seiner eigenen Zeit als Züchtungsgrundlage zu benutzen, wie es später die Faschisten getan haben. Seine Idee war also, daß wir als Menschen etwas Kulturelles unternehmen müssen, um die „Verhaustierung“ des Menschen – ein Begriff den Sloterdijk, von Nietzsche inspiriert, übernimmt und variiert – zu verhindern, also zu verhindern, daß wir durch Erziehung und Zähmung immer braver, immer langweiliger und immer unbedeutender werden. Insofern stehen wir dann in der Tat mit unserer konventionellen Form der Erziehung am Ende. Uns stehen – so Nietzsche in vielleicht allzu weitsichtiger Prophetie – zwei Jahrhunderte voll Blut und Eisen bevor, und diese Jahrhunderte werden Haustiermenschen nicht überleben können.
Gewiß, das waren die siebziger und achtziger Jahre des letzten Jahrhunderts, und man findet schlimmere Phantasien am Anfang unseres Jahrhunderts, und keineswegs nur in Deutschland, sondern überall dort, wo die Idee der Eugenik diskutiert wurde. Und bei aller Berechtigung, die der empörte Aufschrei in den Feuilletons nach der Sloterdijk-Debatte gehabt haben mag, da sich in jede Idee der Menschenzüchtung in unseren Breitengraden gleichsam von selbst faschistisches Gedankengut einmischt, muß trotzdem zweierlei aus der Sloterdijk-Debatte gerettet werden(6):
Zum einen hat nämlich Sloterdijk fraglos, auch wenn er für die Galerie spielt und auf Effekthascherei und Publikumszustimmung aus ist, mit Klarsicht einen Punkt getroffen, der von zentraler Bedeutung ist: Die ganze Debatte über die Kriterien, nach denen wir Methoden der Molekularbiologie im Rahmen der Humanmedizin auf Menschen anwenden, findet hinter verschlossenen Türen statt. Gewiß, es gab und gibt jede Menge Ethik-Kommissionen, die an allen möglichen Stellen zwischen Wissenschaft und Politik, zwischen Ärzteschaft und Forschung tagen und Beschlüsse fassen, Konventionen und Abkommen schließen. Die Öffentlichkeit jedoch wird, so ehrenwert diese Reflexionen auch sein mögen, darüber kaum informiert. Dieser Punkt, den einzuklagen eindeutig ein Verdienst Sloterdijks ist, ist nahezu untergegangen in der Debatte darüber, daß wir die Frage nach den Maßstäben, nach denen wir unsere eigene Spezies und deren Weiterentwicklung verändernd in die Hand nehmen (und schon längst in die Hand genommen haben). Die Frage danach, wohin unsere Spezies steuert, wenn sie sich selbst verändert, also die Frage, wohin Menschen als Menschen steuern, wenn sie sich selbst verändern, muß wieder aufgegriffen und öffentlich diskutiert werden.
Zum anderen aber ist ob des erhitzten Eugenik-Diskurses völlig unter den Tisch gefallen, daß Sloterdijk eine Prämisse vorausschickt, die ihrerseits sozialphilosopisch von entscheidender Bedeutung ist, nämlich die Prämisse, daß die Phase der Zähmung als Erziehung oder Bildung vorbei sei. Und hier scheint sich mir nun eine zentrale Frage neu zu stellen, die von größter Wichtigkeit ist: Die Phase der Bildung – ist sie wirklich vorbei? – Und die Antwort muß natürlich lauten: Nein! Die Phase der Bildung und Erziehung ist keineswegs vorbei, wir haben noch nicht einmal begriffen, wo wir uns gegenwärtig befinden, geschweige denn, daß wir eine Idee davon hätten, wohin wir uns in Zukunft entwickeln sollten. Und hier muß man Sloterdijk aus einem anderen Grund dankbar sein: Weil er nämlich zur Untermauerung seiner eigenen These kaum etwas Gewichtiges beisteuern kann. Vielmehr gilt, daß die Vorstellung geradezu abenteuerlich falsch ist, wir hätten bisher die Evolution noch nicht in eigene Regie genommen, Menschenzüchtung, wenn man darunter eine Veränderung der biologischen Ausstattung des Menschen einschließlich seiner genetischen Ausstattung versteht, beginne erst jetzt.
II. Die ´Züchtungszähmung´ in der technologischen Evolution
Menschliches Handeln ist kulturelle Veränderung der Natur oder Kulturalisierung der Natur(7). Vom ersten Werkzeuggebrauch an greifen Menschen in die natürlichen Bedingungen ihrer Umwelt ein und verändern sie damit. Jeder, der kein Vulgärdarwinist ist weiß, daß Evolution in Tat und Wahrheit immer Koevolution ist, d.h. Entwicklung lebender Spezies im Zusammenhang der Entwicklung der Systeme, die die Umwelt dieser Spezies darstellen et vice versa. Jede Veränderung unserer Umwelt ist damit ein Eingriff in die evolutionären Bedingungen. Seit Menschen technisch handeln, verändern sie also nicht nur ihre Umwelt, sondern damit nicht zuletzt auch die Bedingungen ihre eigenen Evolution.
Dies bislang eher theoretisch Entwickelte läßt sich mit einem Beispiel schlaglichtartig beleuchten, das heute in aller Munde ist. Es handelt sich dabei um die pränatale, vielleicht sogar präkonzeptionelle Beratung, die heute die genetische Beratung definiert. Dafür gibt es professionelle Institutionen und Lehrstühle an Universitäten. Genetische Beratung wendet heute, in denjenigen Fällen jedenfalls, wo dies möglich ist, Methoden an, die auf der Molekularbiologie beruhen und in den Bereich dessen gehören, was man allgemein unter ´Gentechnik´ subsumiert. Ein konkretes Beispiel dafür ist die Mukoviszidose oder zystische Fibrose, eine heterozygot übertragene Erbkrankheit, bei der die zu testenden Träger selbst asymptomatisch sind; es bedarf also einer Testung beider Partner, um vorhersagen zu können, ob eine Mendel´sche 1 : 4-Wahrscheinlichkeit vorhanden ist, daß ein Kind mit dieser Krankheit geboren wird.(8)
Die damit aufgeworfenen Fragen sind, wie man leicht sieht, Fragen der probabilistischen Medizin und werden im Bereich der philosophischen Ethik zu Fragen der probabilistischen normativen Prognostik, die ungeheuer komplex sind: Gibt es einen Wahrscheinlichkeitsprozentsatz, von dem ab man moralisch verpflichtet ist, etwas zu tun oder zu unterlassen? Ist also die Wahrscheinlichkeit von 1 : 1600, die, wenn kein Test vorliegt, die hierzulande übliche statistische Wahrscheinlichkeit ist, daß man ein Kind mit zystischer Fibrose zeugt, ein hinreichender Grund dafür, eine Zeugung zu unterlassen, oder ist erst eine Wahrscheinlichkeit von 1 : 4 ein hinreichender Grund dafür! Wir sehen, daß wir in unserem ethischen Diskurs für Fragestellungen dieser Art überhaupt nicht gewappnet sind.
Um es noch mehr zuzuspitzen: In der normalen Verteilung ist, wie gesagt, die Wahrscheinlichkeit, daß wir ein Kind mit dieser Krankheit zeugen, 1 : 1600. Läßt sich ein Elternteil testen, und das Ergebnis ist positiv, erhöht sich die Wahrscheinlichkeit auf 1 : 80. Wenn auch das zweite Elternteil sich testen läßt und das Testergebnis ist positiv, beträgt die Wahrscheinlichkeit 1 : 4. Das bedeutet nun aber, daß die Wahrscheinlichkeit sich durch zwei Testschritte, anders: durch die Entscheidung beider Partner, sich testen zu lassen, von 1 : 1600 auf 1 : 4 erhöht. Ist es dann noch verantwortbar, ein vorliegendes Testverfahren, das über zwei solcher Schritte die Wahrscheinlichkeit drastisch steigen läßt, nicht anzuwenden? Mit anderen Worten: Sind Testverfahren dieser Art im Rahmen der propabilisten prädiktiven Medizin in dem Moment, in dem sie zur Verfügung stehen, nicht auch sofort moralisch verbindlich?
Eine ganz neue Art interessanter ethischer Fragen tut sich hier auf, an denen sich der ethische Sachverstand zu schärfen hat, an dem man aber zugleich sieht, daß de facto, ohne daß wir das ethische Instrumentarium dafür hätten und ohne daß wir genau wüßten, welche Konsequenzen das im einzelnen hat, schon über eine genetische Beratung drastisch in die Evolution eingegriffen wird. Zwar nicht vermittelt über Abtreibung und auch nicht über die genetische Veränderung des Erbmaterials der potentiellen Eltern oder des betreffenden Kindes, sondern, um es paradox zu sagen, über den Eingriff in die Frage, ob ein mögliches Kind ein wirkliches Kind wird. Philosophisch gesprochen resultiert daraus die Frage, ob mögliche Eltern über die Frage entscheiden dürfen, ob mögliche Kinder zu wirklichen Kindern und sie dadurch aus möglichen Eltern zu wirklichen Eltern werden dürfen. Wir sehen, wir greifen selbstverständlich in die Evolution ein, und zwar auch in die genetische Evolution, obwohl wir weder über das ethische Instrumentarium verfügen, um die Frage nach der Zulässigkeit zu entscheiden, noch über die Konsequenzen davon hinreichend genau Bescheid wissen.
Und um zu demonstrieren, daß dies zunächst einmal kaum etwas mit Gentechnik zu tun hat, greife ich auf ein ganz anderes Beispiel zurück: Unsere derzeitige Population, wie wir sie auf unser Erde, vor allen Dingen in der Nordhemisphäre antreffen, ist ihrerseits Folge massiver Eingriffe in die genetische Ausstattung von homo sapiens. Denken Sie nur an die Myopie oder Kurzsichtigkeit: die hohe Inzidenz der erblichen Kurzsichtigkeit in unserer Gesellschaft ist die Folge der Tatsache, daß im 12. und 13. Jahrhundert Menschen angefangen haben, Linsen zu schleifen und sie zu Brillen zu verarbeiten. Das bedeutet, daß die einfache technische Erfindung der Brille dazu führt, daß fünfhundert Jahre später eine statistisch hohe genetische Disposition zur Kurzsichtigkeit in den zivilisierten Ländern anzutreffen ist. Die Erklärung hierfür ist natürlich ganz einfach: Die Überlebenschancen und die Fortpflanzungschancen und damit die evolutionären Chancen von Kurzsichtigen steigen drastisch, sobald Artefakte vorliegen, die die nachteiligen Auswirkungen der Kurzsichtigkeit kompensieren können. Man muß sich nur die hohen selektiven Auswirkungen des Straßenverkehrs vor Augen halten, um die Plausibilität eines primitivdarwinistischen Argumentes einzusehen, das hier greift und das in der evolutionären Erkenntnistheorie verbreitet ist: Gäbe es keine Brillen, so gäbe es heute keine Kurzsichtigkeit mehr – so oder ähnlich würde ein solches Argument lauten -, weil jene potentiellen Vorfahren, die kurzsichtig waren, im Straßenverkehr des 20. Jahrhunderts nicht überlebt haben und deswegen nicht zu unseren aktuellen Vorfahren gehören. Aufgrund der Erfindung der Brille ist es genau anders herum gelaufen. Wir haben mit einem einfachen technischen Eingriff eine gewaltige Veränderung der genetischen Disposition, in unserem Falle zur Kurzsichtigkeit, eugenisch initiiert. Brillen herzustellen oder Linsen zu schleifen zum Zwecke der Herstellung von Brillen, ist – so betrachtet – Eugenik.
Wenn man sich dies an einem unverdächtigen Beispiel Explizierte nochmals in begrifflicher Abstraktion vor Augen führt, dann wird deutlich: Jedes technische Handeln greift – wenn auch in unterschiedlicher Tiefe – in die Randbedingungen unserer Evolution ein. Wir sind längst dabei, die biologische Evolution von homo sapiens massiv zu beeinflussen durch das, was „Eugenik durch die Hintertür“(9) genannt worden ist, also durch harmlose Eugenik, die sozusagen auf Umwegen geschehen ist und nicht intendiert war. Man wird an dieser Stelle wohl kaum umhin können, sich die Frage zu stellen, ob daß, was wir bislang ´harmlos´, d.h. unbeabsichtigt getan haben, nun, nachdem wir wissen, daß wir es tun, noch zu verantworten ist. Das Beispiel der Kurzsichtigkeit ist dabei noch relativ unbedenklich, aber wir wissen auch, daß unsere technischen Errungenschaften eine Reihe von kulturell bedingten oder mindestens kulturell mitbedingten Krankheiten befördern und daß diese Technik ihrerseits im gleichen dazu beiträgt, daß sich diese Krankheiten verbreiten und daß Methoden entwickelt werden, diese Krankheiten zu bekämpfen. So zeigt sich das paradoxe Bild, daß dieselbe Technik dazu dient, Schäden anzurichten, deren Beseitigung anschließend zu deren Hauptaufgabe wird, so daß wir uns in einen ewigen Kreislauf von ungewollt angerichteten Schäden und Technologien zur Beseitigung eben dieser Schäden verstricken, die ihrerseits wieder ungewollte eugenische Konsequenzen haben.
Dann aber beginnt die Frage unabweisbar zu werden, von der ich ausgegangen war, aber mit einer anderen Betonung: Was bedeutet das Präfix ´eu´ im Wort ´Eugenik´? In der griechischen Sprache, aus der dieses Wort stammt, heißt ´eu´ soviel wie ´gut´, ´Eu-genik´ ist also die gute Veränderung, und damit stehen wir wieder bei unserem Ausgangsproblem: Was ist ´gut´? Was ist ´besser´? Was ist ´enhancement´-therapy? Was ist das Gute an der Eugenik? Ist es gut, daß wir eine höhere Inzidenz von Kurzsichtigkeit in entwickelten Industrienationen haben? Jeder würde auf letztere Frage wohl antworten: Vielleicht ist nicht dies gut, aber daß wir die Möglichkeit haben, Menschen, die kurzsichtig sind oder andere Sehschwächen haben, mit Hilfsmitteln auszurüsten, die ihnen erlauben, in unserer Welt überleben zu können, das ist gut. Und schon sieht man, daß die Eugenik durch die Hintertür kommt und daß hier im Wortsinne Eugenik betrieben wird.
Was aber ist die Konsequenz hieraus? Wenn man sich vorstellt, wir lebten in einer Gesellschaft, in der die Hälfte aller Mitglieder der Alterskohorte über 50 Jahre angehört, und wenn man sich fragt, wie viele Teile von den Personen in dieser Gesellschaft natürlich und wie viele künstlich, d.h. technisch hergestellt sind, dann stellt man plötzlich den Schritt vom Menschen zum „Übermenschen“ fest, in dem wir uns vom natürlichen Menschen zum technischen Ersatzteilmenschen bewegen. Schon heute gibt es kaum mehr Menschen in der Alterskohorte über 50 Jahre, die ganz ohne Artefakte auskommen. Zwar haben nicht alle einen Herzschrittmacher, aber fast alle haben Plomben, Zahnersatz oder andere kosmetische Veränderungen im eigenen Mund. Und wenn man das weiter extrapoliert und etwa mit der Populationsdynamik und dem technischen Fortschritt multipliziert, dann kann man – leicht übertreibend – sagen: In 50 Jahren werden wir eine Population haben, in der 50 % der Menschen zu 50 % künstlich sind. Das bedeutet aber, daß wir uns fragen müssen, ob wir eigentlich homo sapiens noch als isolierte Entität, gleichsam als Restnatürlichkeit betrachten dürfen. Dürfen wir eigentlich noch weiterhin isoliert von den Menschen und ihrer Technik und ihrer Umwelt sprechen?
Hier mag erneut ein einfaches Gedankenexperiment helfen: Wenn man sich überlegt, wie weit man an einem Tage käme, wenn es weder das Rad noch den Motor, den Elektro-, Otto- oder Diesel-Motor noch die Mikroelektronik geben würde. Ganz elementare lebensweltliche Verrichtungen wie etwa die des rechtzeitigen Aufstehens würden ohne Wecker gar nicht möglich sein, sei dieser nun mechanisch oder funkgesteuert. Dies gilt in verstärktem Maße von komplexeren technischen Systemen wie einer Straßenbahn oder ganzer Ampelsteuerungen des Straßenverkehrssystems.
Angesichts solcher Beispiele sehen wir: Wir sind gar nicht homo sapiens, sondern wir sind Zentauren, Wesen, die in einer symbiotischen Verbindung mit uns umgebenden Technologien leben, und von diesen Technologien ist nur ein verschwindend kleiner Bruchteil Technologie von der Art, die wir hauptsächlich diskutieren, wenn wir von „Anthropotechnik“ phantasieren.
Nein, wir verändern homo sapiens nicht genetisch, wir verändern ihn mechanisch, wir verändern ihn elektrisch, wir verändern ihn elektronisch, wir sind selbst Teil eines solchen symbiotischen Mensch-Maschine-Systems, wir sind Mensch-Maschine-Zentauren, oder wir leben in „Mensch-Maschine-Tandems“(10). Das bedeutet aber, daß wir uns nicht auf die Experimente genetischer Intelligenzsteigerung bei einer Labormaus verlassen müssen. An solchen Experimenten kann man deutlich ablesen, daß die Intelligenz, die dort getestet wird, in der Regel die Intelligenz des Testers und nicht diejenige der Getesteten ist. Oder anders formuliert: Mit Intelligenztests messen wir jeweils eine standardisierte Form von positiven Eigenschaften. Wie sollte es auch anders sein, wenn wir noch nicht einmal wissen, was denn nun die multifaktoriell bedingte Expression, die wir ´Intelligenz´ nennen, ihrerseits bedingt. Kurz: Wir sind nicht anthropotechnische Züchter von Intelligenz. Was wir tun, ist vielmehr genau das, was wir beobachten können: Wir bauen uns nämlich Systeme, die die menschlichen Intelligenzleistungen effektiv und in gewissen funktionalen Grenzen flächendeckend kompensieren können. Es sind nicht nur die physischen Fähigkeiten, die wir mit technischen Geräten verbessern oder spezialisieren können, sondern es sind eben auch kognitive Fähigkeiten.
III. Von künstlicher Intelligenz zum Netzwerkdenken
Ein Großteil der Debatte(11) über Künstliche Intelligenz, die einst die Gemüter bewegte, beruht auf einem Übersetzungsfehler wie im übrigen viele Debatten über technische Artefakte – man erinnere sich nur über die Debatte über Personal Computer. ´Artificial intelligence´ wurde übersetzt mit ´künstlicher Intelligenz´, und dabei wurde vergessen, daß ´künstlich´ soviel wie ´technisch´, nicht aber wie ´künstlerisch´ heißt und daß ´intelligence´ nichts mit Intelligenz in unserem terminologischen Sinne zu tun hat, sondern ´Datenverarbeitung´ oder ´Informationsverarbeitung´ bedeutet. Wäre das nicht der Fall, wäre das CIA die Zentralagentur für Intelligenz, und das ist auch nicht der Fall. ´Artificial intelligence´ bedeutet also ursprünglich nicht mehr als ´technische Informations- oder Datenverarbeitung´, und als solche ist sie weder etwas Spektakuläres noch etwas Mythisches, sondern eben ein Stück theoretisch modellierte Weiterentwicklung einer Technik, die man früher ´Rechenmaschinentechnik´ genannt hat. Das kann man sich leicht daran vor Augen führen, daß man sich Charles Babbages erste Entwürfe einer solchen Maschine anschaut, die selbstverständlich noch mechanisch funktioniert hätte, wenn sie funktioniert hätte, und diese mit unseren Halbleiter- und Supraleitertechnologien vergleicht: Das Prinzip ist genau dasselbe, es geht dabei nur um unterschiedliche materielle Implementierungen dieses Prinzips. Wie aber, wenn es sich hier nur um die Frage unterschiedlicher Implementierungen von technischer Datenverarbeitung handelt, kam es zu der Vorstellung, es handele sich dabei um so etwas wie eine künstliche menschliche Intelligenz, eine Ersetzung der menschlichen Intelligenz? – Nun, die Antwort fällt relativ leicht: Das liegt an einem Test, den Alan Turing 1950 zur Beantwortung der Frage vorgeschlagen hatte, ob Maschinen denken können.(12) Diese uralte Frage, die in Abwandlung bereits bei Aristoteles vorkommt, wird von Turing operationalisiert, wenn er sagt: Statt diese Frage weiterhin zu debattieren, philosophisch und ergebnislos, wollen wir sie ersetzen durch einen operationalisierbaren Test. Und dieser Test beruht auf der Frage: Können wir eine Maschine bauen, die einen menschlichen Beobachter hinsichtlich ihrer Denkfähigkeit täuschen kann? Es geht also um die bewußte Täuschung, um die Konstruktion einer Maschine zum Zwecke der Täuschung eines menschlichen Beobachters, der außen steht, das Innenleben der Maschine nicht kennt, aber zur Auffassung kommt, es handelte sich bei seinem Gegenüber um eine menschliche Intelligenz. Oder noch genauer gesagt: der Test besteht darin, daß ein Beobachter nicht unterscheiden kann, ob Antworten von einer maschinellen Informationsverarbeitungsapparatur oder von einem Menschen gegeben werden. Anders: Eine Maschine kann dann denken, wenn wir einen Beobachter darüber täuschen können, ob es sich dabei um eine Maschine oder einen Menschen handelt. Turing benutzt also die alte Roboteridee der intelligenten Maschine.
Vor diesem Hintergrund ist es zwar erklärlich, aber trotzdem erstaunlich, warum ein so großer mythischer Streit hat entbrennen können, ob denn nun Maschinen denken können oder nicht. Und heute lebt dieser Streit in der Form der Frage wieder auf, ob die Robotisierung der Welt den Menschen überflüssig mache.(13)
Einer der Hauptrepräsentanten der kritischen Philosophie der Künstlichen Intelligenz, der Berkeley-Philosoph Hubert Dreyfus, der ein bekanntes Buch „What computers can´t do“(14) geschrieben und großes Aufsehen mit seinen Versuchen erregt hat zu zeigen, was Computer alles nicht können, hat in einem leichtfertigen Moment einmal die These vertreten, Computer könnten im Schachspiel nicht gegen einen guten Schachspieler bestehen. Um das zu demonstrieren, ist er dann allerdings selber angetreten, und er hat, wie vorauszusehen war, gegen ein nach heutigen Maßstäben relativ mittelmäßiges Schachprogramm verloren. Damit hat er sich die Zeitungsschlagzeile eingehandelt: „Computers can´t play chess, says Dreyfus“, Untertitel: „Neither can Dreyfus“. Mit anderen Worten: Ob eine Maschine intelligent ist oder nicht, hängt immer davon ab, woran Intelligenz gemessen wird. Und wenn ich Intelligenz an einem durchschnittlichen Schachspieler bemesse und Intelligenz mit Schachspielen gleichsetze, dann gilt natürlich, daß eine Maschine dann intelligent ist, wenn sie besser Schach spielen kann als ein durchschnittlicher Schachspieler.
Und so ist es eben mit allen Maschinen: Wer würde einen Verbrennungsmotor in seinem Auto wollen, der nur genauso stark ist wie man selbst? Nein, natürlich will man eine Maschine, die erheblich stärker ist. Oder wer möchte wirklich allen Ernstes einen Rechner haben, der so denkt wie man selbst. Wenn das der Fall wäre, dann würde man, wäre man mit einer solchen intelligenten Maschine konfrontiert, nicht genau wissen, ob sie intelligent oder kaputt ist. Die Menschen möchten keine Maschinen haben, die – abhängig von ihrer eigenen Stimmungslage – arbeiten oder nicht.
Die Idee der Künstlichen Intelligenz hat heute viel von ihrer magischen Aufladung verloren und viel von technischer Perfektionierbarkeit dazugewonnen. Heute ist Künstliche Intelligenz eine sehr leistungsfähige Subdisziplin der Informatik und hat ihren sozusagen märchenhaften Charme weitgehend verloren. Was aber haben wir stattdessen? Nun, die Antwort lautet: wir haben einen neuen Mythos. Howard Rheingold hat sich als Journalist einen großen Namen gemacht und viele Bücher geschrieben, die von den Internetpionieren der ersten Stunde handeln. Der „Mythos Internet“ ist allerdings ein typischer Pioniermythos, ein go-west-Mythos. Das kann man an einem der Untertitel eines berühmten Buches, das er geschrieben hat, ablesen. Das Buch heißt „The Virtual Community“, und der Untertitel lautet „Homesteading on the Electronic Frontier“(15). Nachdem es sozusagen keine anderen Grenzen mehr gibt, weder auf unserem Globus noch im Weltraum, geht es jetzt um den Bereich des Virtuellen. Die virtuelle Welt wird die Welt des Abenteuers. Der Marlboro-Mann der Zukunft wird nicht auf einem Pferderücken irgendwo hin galoppieren, sondern wird – wie Boris Becker – freudig erregt darüber sein, daß er im Internet ´drin´ ist. Das also ist die Zukunft der Abenteurer. Die Sience Fiction-Literatur, die sich seit Jonny Mnemonic an dieser Idee zukünftiger Abenteuer entzündet hat, umschreibt genau dies: Die Menschen steigen aus ihrem langweiligen, vorhersehbaren Leben aus, sie loggen sich ein und bewegen sich in ihren muds and moos als große Abenteurer auf dem Internet. Der Internet-Mythos, der Netzmythos ist geboren.
Und erneut stellt sich die Frage, was denn eigentlich an diesem Mythos ist, was ihn so mythisch macht? Die Antwort darauf lautet zunächst einmal relativ nüchtern: Das Netz ist die DAI, die Distributed Artificial Intelligence, verteilte Informations- und Datenverarbeitung. Und das hat natürlich zur Folge, daß das Internet viele Funktionen, die vorher andere Medien hatten, kompensieren kann. Zum Beispiel die der Kataloge in Bibliotheken. Unsere Suchmaschinen sind nichts anderes als ziemlich unvollständige automatisierte Katalog-Benutzer. Das heißt, es sind Programme, die von Menschen gemacht worden sind, die ihrerseits bestimmte Kriterien für wichtig und andere für weniger wichtig hielten. Wenn sie gut gemacht sind, sind sie von einer Expertengruppe expertensystemgestützt gebaut, d.h. sie bringen ein paar Kriterien mehr ins Spiel, sind aber keineswegs die Maschinen, die uns nun sagen würden, was es an Wissen zu wissen gibt, sondern Maschinen, die uns sagen, was es zu bestimmten Leitbegriffen, die von Menschen zusammengestellt worden sind, im Netz zu finden gibt. Wer jemals selbst einen Schlagwortkatalog gemacht hat, wird wissen, wie hoch arbiträr das ist, je nachdem, welche Schlagworte man benutzt. Ein vollständiges Suchsystem, in dem ein Wissen vollständig adressiert und erschlossen werden könnte, gibt es per definitionem nicht, und infolge dessen ist der Mythos Internet gelinde gesagt naiv, wenn man darunter versteht, daß an die Stelle eines unzureichenden, in verschiedene Bibliotheken verteilten Wissens nun ein zentrales Wissen komme, das seinerseits die Möglichkeit habe, alle anderen Wissensquellen zu erschließen. Zwar ist bekannt, welche Interessen dahinterstecken, und deswegen kann man gut verstehen, warum diese Vorstellung verbreitet wird, aber sie ist falsch. Wohl aber trifft zu – und jetzt muß die Gegenseite der Bilanz aufgemacht werden -, daß sehr viel mehr Informationsquellen erschlossen werden können über die Distributed Artificial Intelligence, über die verteilte Informationsverarbeitung, als wir sie über traditionelle Formen bisher erschließen konnten. Und die Pointe dabei ist der Grad der Vernetzung. Selbstverständlich läßt sich wie im Falle der Künstlichen Intelligenz alten Zuschnitts aber auch eine ganz andere materielle Implementierung desselben Systems vorstellen. So wäre zum Beispiel ein hochleistungsfähiges Morsenetz, in dem Personen sich über große Distanzen Informationen über ihre eigenen Wissensbestände zumorsen, eine andere materielle Implementierung; allerdings müßten diese Wissensbestände anschließend sortiert und dann mit Informationsspinnen, sogenannten „Crawlers“, gesichtet werden, die sozusagen über diese sortierten Informationen kriechen, um mitzuteilen, welche davon in besonders gehäuftem Maße in Washington zu finden sind und welche man beispielsweise besser an der Privaten Universität Witten/Herdecke sucht. Das wäre gewiß technisch machbar; der Nachteil wäre nur: Es würde sehr viel langsamer und es würde sehr viel weniger leistungsfähig sein.
IV Denken und Handeln in Netzwerken
Konfrontiert sind wir gegenwärtig ganz offenkundig mit Netzwerken, und zwar mit Netzwerken, die unsere Phantasie weit mehr beflügeln als das, was sie tatsächlich leisten können. Plötzlich taucht der Gedanke des Netzes, des vernetzten Denkens, der Netzwerkorganisation, des sozialen ´networking´ überall auf, und es gibt wohl kaum jemanden, der sich ihn aus der gegenwärtigen Diskussion wegdenken könnte.(16) Aber wie ist er dahin gekommen?
Wenn man theoriehistorisch interessiert ist, wird man feststellen, daß seit den 60-er Jahren der Begriff des Netzes und die damit verbundene gedankliche Modellierung an verschiedenen Orten aufzutauchen beginnt. Das begann mit der Idee einer semantischen Repräsentation des Gedächtnisses.(17) Wie verfährt ein Gedächtnis, sei es nun ein maschinelles oder ein menschliches, wenn es um Assoziationen von semantischen Inhalten, also etwas Begriffsassoziationen geht? Wie erinnern wir uns zum Beispiel an einen Namen, den wir vergessen haben? Welche Suchtechniken gibt es da? Jeder Mensch erinnert sich an die peinliche Situation, daß man jemandem vorgestellt wird, der weiß, das man eigentlich weiß, wie er heißt, nur man selbst kann sich nicht daran erinnern. Und deswegen geht nun die Suche los, semantische Suchtechniken werden eingesetzt, etwa der Anfangsbuchstabe des Namens oder Situationen, bei denen man sich schon begegnet sein könnte. War das irgendwann damals auf einer Demo, oder in der Disco? Wenn es bei der Demo oder in der Disco war, dann kennt man wahrscheinlich nur seinen Vornamen, nach dem es nun zu suchen gilt. Auf diesem Wege tastet man sich langsam heran, und in der Tat fällt einem dann plötzlich ein Name ein. Gewiß, es gibt auch elegante Techniken, mit denen man durch besonders herzliche direkte Begrüßung („Ach wie schön, Sie wiederzusehen!“) vermeidet, den Namen aussprechen zu müssen. Der Suchvorgang selbst aber läuft weiter, und zwar, wie gesagt, über semantische Netzwerktechniken.
Etwa in derselben Zeit, Ende der 60-er, Anfang der 70-er Jahre, taucht der Begriff des Netzwerkes in sozialwissenschaftlichen Arbeiten auf. Jeremy Boissevain, ein belgischer, in Holland lehrender Sozialanthropologe, hat ein bekanntes Buch geschrieben unter dem Titel „Friends of Friends“, und in diesem Buch geht es um die informellen Netzwerke, die die hinter den offiziellen Hierarchien und Strukturen liegenden eigentlich mächtigeren Strukturen darstellen. Im Vorwort dieses Buches findet sich die interessante Bemerkung, der Autor habe den Begriff des Netzwerkes benutzt, um die Personen, die – nicht zuletzt aufgrund der Wirksamkeit der Systemtheorie – aus den Sozialwissenschaften verschwunden gewesen seien, wieder in die Diskussion einzuführen.(18) Der Netzwerkbegriff dient also zur Wiederentdeckung der Personen, weil Netzwerke definiert sind durch ihre Knotenpunkte – Knoten in sozialen Netzwerken aber sind Personen. Der Netzwerkbegriff heilt nach Boissevain gleichsam eine Schwäche, aufgrund derer in den Sozialwissenschaften nur noch über Systeme, Umwelt, Subsysteme etc. geredet wurde. Ende der 60-er, Anfang der70-er und erneut wieder in den 80-er Jahren taucht die Netzwerkidee im Bereich der alternativen Modellierung von Künstlicher Intelligenz auf, also bei den sogenannten Konnektionisten wie Rumelhart.(19)
Man sieht: Die Netzwerkmentapher gewinnt in den 60-er und 70-er Jahren eine Überzeugungskraft, die sie zu einem Paradigma, ja: sogar zu einem Metaparadigma werden läßt, weil sie eben nicht nur in einer Disziplin als Leitvorstellung dient, sondern plötzlich in nahezu allen Disziplinen auftaucht.
Obwohl sich das aber so verhält, sprechen wir erst seit den 90-er Jahren von einer „Netzwerkgesellschaft“(19), und der Grund dafür ist, daß wir erst seit ungefähr einem Jahrzehnt jenes mirakolöse technische System sich entwickeln sehen, das seinesgleichen sucht: das Internet oder World Wide Web. Es handelt sich dabei um das technische System mit der bei weitem größten Entwicklungsgeschwindigkeit überhaupt. Wenn wir von Arpanet, das gerade dreißig Jahre alt geworden und ein rein wissenschaftliches, wenn auch vielleicht verteidigungstechnisch motiviertes Experiment im Auftrag des Pentagon gewesen ist, und von der Phase der ersten paar Netzwerkpioniere, die ihre Computer mit ihrem Telefonsystem verbunden und dann selbst angefangen haben, kleine Netze zu basteln, einmal absehen, dann beginnt das Internet im engeren Sinne erst Ende der 80-er Jahre. Für das Jahr 2015 ist prognostiziert – und das ist wahrscheinlich eine eher konservative Schätzung -, daß ein Viertel der Erdbevölkerung Zugang zum Internet haben wird, also gut 2 Milliarden. Die Geschichte des exponentiellen Wachstums verzeichnet folglich einen Anstieg von 0 auf 2 Milliarden in nur 25 Jahren. In der ganzen Geschichte der Menschheit gibt es keine Technik, die ein ähnlich rapides Wachstum aufzuweisen hätte. Dies – und nicht die Frage, ob wir in Zukunft irgendwelche gezüchteten, mit einem Mausintelligenz-Gen ausgestatteten Übermenschen haben werden – ist es, was unsere Welt verändert.
Gewiß, das mag Ökonomen und Anleger interessieren und solche, die es einmal werden wollen, wie die „new economy“ zeigt. Für den Philosophen jedoch ist es deswegen ein so faszinierender Fall, weil es sich dabei um eine die Welt verändernde Entwicklung handelt, die sich nahezu unbemerkt durchgesetzt hat. Es gab eine ganz kurze Phase eines gesellschaftskritischen Protestes gegen die Computer – einige werden sich an Joseph Weizenbaum(21) und seine Vortragstourneen erinnern –; das ist aber graue Vorgeschichte. Wenn heute jemand aufträte und vor dem Computer oder gar dem Internet warnte, dann würde er als luddistischer Bilderstürmer und Spinner abgetan – und wahrscheinlich sogar zu recht. Trotzdem aber läßt einen die eigentliche großtechnologische Revolution erstaunen, die homo sapiens in eine vollständig neue Situation bringt, nämlich in die Situation, die ich pars pro toto als ´Hypertext-Situation´ bezeichnen will, in der es die Adressierbarkeit des Urhebers von Gedanken in der uns bekannten Form gar nicht mehr gibt, in der man morgens aufsteht und mit Erstaunen liest, wie das internationale Autorenkollektiv in der Nacht den Beitrag, den man gerade für irgendein Journal angefangen hatte, weiter getextet hat. Diese Veränderung, die die Vollendung des von den Dekonstruktivisten als ´Tod des Subjekts´ apostrophierten Endes der Moderne markiert, greift Platz, ohne daß sich so etwas wie eine gesellschaftskritische Kosten-Nutzen-Abwägung auch nur regte! Es gibt keine ernstzunehmende wissenschaftliche oder philosophische Internetkritik. Und wenn jemand etwas äußert, was auch nur entfernt nach Internetkritik klingt, greifen die Medien das als eine Rarität begeistert auf(22), sozusagen als Indiz dafür, daß die „Technikfeinde“(23) doch noch nicht ausgestorben sind.
V. Internet und Wissensgesellschaft
Was aber ist mit dem Gedanken einer philosophischen Kritik der Internetkultur eigentlich gemeint? Damit komme ich abschließend zu zwei Dingen, die wir, wenn wir das Menschenbild mit den neuen Technologien kombinieren, ins Auge fassen müssen. Einerseits ist damit gemeint, daß wir eine radikale Veränderung erleben, und andererseits ist damit gemeint, daß diese radikale Veränderung noch keine hinreichende Bedingung dafür ist, daß homo sapiens nur in dem Wortsinne ´sapiens´, d.h. ein Wissender, würde. Daß wir mit dem Internet nun über eine Objektivation und Verwirklichung der Netzmetapher verfügen, bedeutet nicht zwingend, daß wir uns damit in eine Wissensgesellschaft hineinbewegen; selbst wenn wir in einer Wissensgesellschaft lebten(24), heißt das noch nicht zwingend, das wir deswegen mehr wüßten oder daß deswegen die These von der sinkenden Halbwertszeit des Wissens plausibler würde oder daß überhaupt Wissen in irgendeinem näher präzisierten Sinne dieses Begriffes in solchen Netzen vorhanden wäre. Das einzige, was daraus folgt, daß wir sagen, mit dem Internet bewegten wir uns in eine Wissensgesellschaft hinein, ist, daß wir hier mit einem äquivoken Begriff von ´Wissen´ operieren. Der Begriff des Wissens hat sich unter der Hand fortbewegt von der Vorstellung eines Bestandes, über den ein monologisches Einzelwesen, ein Mensch, verfügt und der sein Weltbild und damit sein kognitiv motiviertes Verhalten steuert. Der Begriff ´Wissen´ bezieht sich im Kontext der Wissensgesellschaft eben nicht mehr vordringlich auf Bestände, auf die das Individuum zurückgreifen kann, ohne sich irgendwelcher Geräte oder Netze zu bedienen. Diesen traditionellen Begriff des Wissens haben wir ersetzt durch einen gleichnamigen Begriff, der mit dem Mensch-Maschine-Zentauren zusammenhängt; er bezieht sich auf die Möglichkeit des Zugriffs auf ausgelagerte Bestände, und zwar sowohl des Gedächtnisses als auch dessen, was wir früher ´Wissen´ genannt haben, aus den Individuen in das Netz, dessen Knoten aber trotzdem noch die Individuen sind.
Und dabei taucht nun zugleich janusköpfig die andere Frage auf, die mit bangem Unterton in vielen Feuilletons, aber auch in wissenschaftlichen Zeitschriften und Büchern diskutiert wird: Wie steht es denn mit dem denkenden individuellen Subjekt? Wie bereits erwähnt, hat uns das, was ich die „französische Krankheit“ nenne, die auch in der Philosophie grassiert und auch die deutschen Intellektuellen nicht verschont hat, weismachen wollen, daß das individuelle Subjekt tot sei. Das hätte uns zwar nicht wundern müssen, da wir ja schon seit einer Weile von Nietzsche wußten, daß Gott tot ist, und dann wäre es ja erstaunlich, wenn ausgerechnet sein menschliches Pendant, das omnipotente cartesische Subjekt, noch leben würde. Zum anderen haben wir aus der französischen Krankheit aber auch gelernt, daß dieses allgemeine Sterben mit der großen Bewegung der Dezentrierung zusammenhänge, wie man von Jacques Derrida nachlesen kann.(25) Das haben zwar damals viele geglaubt, ohne es wirklich zu verstehen. Heute sehen wir, daß die These von der Dezentrierung und vom Tod des Subjekt überhaupt keinen Sinn macht, es sein denn, man beziehe sie auf etwas, worauf Derrida sie mit Sicherheit nicht bezogen hat. Und selbst Lyotard, der in seinem Report über „La condition postmoderne“ wenigstens auf den Computer und die Datenbanken eingegangen ist, hat noch nicht soweit gedacht.(26) Gemeint ist natürlich die Erfahrung des Netzes. Wenn Menschen in einem nicht nur übertragenen Sinne – sozusagen metaphernartig – dezentriert, wenn sie also Knoten in einem Netz sind, wenn sie auf Gedeih und Verderb abhängig sind von dem System, daß sie im Denken und Handeln im wörtlichen Sinne als ihr Inter-Net, als ihr Verbindungsnetz benutzen, dann wird deutlicher, was „Dezentrierung“ hier bedeutet. Netze haben nämlich kein Zentrum oder anders: Netze haben so viele Zentren, wie es Knoten gibt. Und auf diesem Erfahrungshintergrund macht das nun einen guten empirischen Sinn.
Das heißt, daß die französischen Denker etwas beschrieben haben, ohne zu wissen, daß sie es beschrieben haben. Sie haben die Erfahrungen der Menschen in der auslaufenden Moderne ausgelegt, die ihrerseits zu einem Teil des Mensch-Maschine-Systems nicht nur werden, sondern auch wissen, daß sie es werden. Wer vergißt, daß er nur ein Knoten im Netz ist, benutzt das Internet falsch. Wer sich selber, sozusagen mit Allmachtphantasien in das Internet begibt, mag zwar vielleicht ein guter Hacker werden, aber das hält nicht lange vor, sondern er benutzt die Vernetzung so, wie ein dezentrierter Knoten an diesem Netz partizipiert, indem er dieses Netz zugleich konstituiert.
Und damit taucht eine weitere bange Frage auf: Was bleibt denn dann übrig? Auf dem Wege zur Auffindung der Beantwortung dieser Frage begegnet uns der inzwischen ´klassisch´ zu nennende Denkfehler, den man als den ´postmodernen Fehler´ schlechthin bezeichnen kann. Die Vertreter der Postmoderne haben geglaubt, daß deswegen, weil die Vorstellung der einen Vernunft nicht mehr für alle verbindlich sei (und zwar auch nicht in der von Wolfgang Welsch favorisierten, sozusagen eskapistischen Form, daß es zwar nicht mehr die eine Vernunft gebe, aber doch irgend so etwas wie einen rationalen ´sky train´ quer zu unseren Vernunftformen, die transversale Vernunft nämlich, die sich dann von einer Vernunft zur anderen sozusagen durchmogelt als eine Art von Metavernunft(27)), die Menschen sich sozusagen über nichts mehr vernünftig einigen können, außer darüber, daß sie sich nicht einigen können. In einer karikierenden Pointierung: Der einzige Konsens, den es noch geben kann, besteht darin, daß wir übereinstimmen, daß überall sonst Dissens besteht.
Nun haben die Postmodernisten aus diesem Befund die absurde Konsequenz gezogen (der n.b. auch Manuel Castells folgt)(28), daß unsere eigene Ich-Identität, unser Ich, das, was homo sapiens von sich denkt, in einer Art von vielfältiger Patchwork-Identity zerfließe. Wir nehmen an so vielen unterschiedlichen gesellschaftlichen Gruppierungen, an kulturellen und an wertschöpfenden Kreisen teil, daß wir am Schluß gleichsam ´ zerfranst ´ werden und dadurch zu einem Flickenteppich unterschiedlichster Identitäten, indem wir von einer Rolle in die andere schlüpfen, wenn wir in dieser Identität uns bewegen wollen.
Daß dies eine vollständig falsche Konsequenz ist, kann man zum Glück leicht sehen: verschiedene Rollen kann nur spielen, wer immer zugleich schon weiß, daß er Rollen spielt und sich dadurch von seinen Rollen unterscheiden kann. Virtuelle Realität nutzen, sich in virtuellen Umwelten bewegen, sich mit verschiedenen Namen, also mit verschiedenen ´Personae´, mit verschiedenen Masken der eigenen Identität in Rollenspielen auf dem Netz surfen, setzt eben immer voraus, daß man weiß, daß man Rollenspiele spielt. Gewiß, das mag manchmal außer Kraft gesetzt werden, wenn ein Rollenspiel ungemein interessant ist oder wenn sich Zuschauer mit Teilen der eigenen Rolle identifizieren. Daß deswegen aber die klassische personale Identität verschwinde, ist ein schlichter Trugschluß. Vielmehr wird es umgekehrt eher so sein, daß sich nun genauer unterscheiden läßt zwischen starken personalen Identitäten klassischer Art, die an dieser Herausforderung, verschiedenen Rollen und verschiedenen Sätteln gerecht zu werden, nicht scheitern, sondern gleichsam überleben und eher wachsen, und denen, die das nicht leisten können. Aber es wird nicht eine Patchwork-Identity von Personen geben, die eine Art Split-Personality haben und dann in fast pathologischer Form nur noch durch ihre Rollen sausen, sondern es wird sich, wenn meine Analyse zutrifft, eher so verhalten, daß die klassische personale Identität gestärkt aus diesen Rollenspielen hervorgeht. Das Subjekt ist nicht tot, es hat sogar seine alte personale Identität wiederbekommen. Die Surfer auf dem Netz können zwar verschiedene Absenderadressen an- und dadurch verschiedene Identitäten vorgeben, aber die Pointe daran ist ja gerade, daß man verschiedene Identitäten als Rollen auf dem Netz spielen und sie eben dadurch immer wieder verlassen und in die eine eigene Identität zurückkehren kann.
Kurz: Was an der virtuellen Welt virtuell ist, ist genauso virtuell wie das, was in der realen Welt virtuell ist. Und was in der virtuellen Realität real ist, ist genauso real wie das, was in der realen Realität real ist.(29) Mit anderen Worten, virtuelle Realität ist zwar ein unterhaltungsökonomisch sinnvoller Bereich unserer Industrie, ist aber seinerseits nichts, was uns ändern würde, in der Art und Weise, wie homo sapiens seine Wirklichkeit wahrnimmt. Wohl aber – und das ist der Schluß – wird das Wissen der Netzwerkmenschen sich ändern. Denn wir alle sind inzwischen de facto Netzwerkmenschen! Wir alle wissen hinsichtlich unseres individuellen Wissensspeichers, wenn wir ehrlich sind, in vielen Bereichen sehr viel weniger als die Angehörigen der Generation unserer Eltern und Lehrer – aber: wir können sehr viel mehr; auch noch die Intellektuellen unter dieser Gruppe von neuen Netzwerkmenschen verfügen über eine Art impliziten Wissens vom „Skill“-Typ: Wir wissen genau, wo wir suchen müssen, wenn wir etwas finden wollen. Wir brauchen nicht mehr zum Reisebüro zu gehen, wenn wir uns über Zugverbindungen informieren wollen. Wir wissen genau, wie wir selbst über das Internet an diese Informationen kommen können. Das, was sich in diesem Beispiel spiegelt, wird allerdings unseren Arbeitsmarkt drastisch verändern, aber homo sapiens wird einstweilen – Nietzsche hin, Sloterdijk her – weiter homo sapiens bleiben. Höchstens, um noch eine Wendung hinzuzufügen, die in solchen Zusammenhängen nicht unterbleiben sollte – wird homo sapiens bemerken, wie wenig er eigentlich selber noch weiß. Und damit wird er ´homo sapiens ignorans´ werden, und zwar ganz ohne gentechnische Veränderung, nur durch Nachdenken …
Anmerkungen:
(1) Vgl. H. Jonas, Laßt uns einen Menschen klonieren: Von der Eugenik zur Gentechnologie, in: ders., Technik, Medizin und Ethik – Zur Praxis des Prinzips Verantwortung, Frankfurt/Main 1985, S. 170
(2) Vgl. Platon, Theaitetos, 152a.
(3) P. Sloterdijk, Regeln für den Menschenpark, in: DIE ZEIT, 16.09.1999, S. 15 ff.
(4) F. Nietzsche, Nietzsche Werke, Kritische Gesamtausgabe, 6. Abteilung, 1 Band, Berlin 1968, S. 10.
(5) Ebd., S- 8 Vgl. auch W. Zimmerli, Die Zukunft des Menschen – vom Denken und Handeln in Netzwerken, in: G. Seubold (Hrsg.), Die Zukunft des Menschen: Philosophische Ausblicke, Bonn 1999, S. 145-167.
(6) Vgl. W. Zimmerli, Die Evolution in eigener Regie, in: DIE ZEIT, 30.09.1999, S. 35.
(7) Vgl. D. Hartmann/P. Janich (Hrsg.), Methodischer Kulturalismus – Zwischen Naturalismus und Postmoderne, Frankfurt/Main, 1996.
(8) Vgl. W. Zimmerli, Von den Pflichten möglicher Eltern und den Rechten möglicher Kinder: Ethische Dimensionen des Heterozygoten-Trägerscreenings, S. 88, in: R. Toellner (Hrsg.), Jahrbuch des Arbeitskreises Medizinischer Ethik-Kommissionen in der Bundesrepublik Deutschland, Band 4 Humangenetik – Ethische Probleme der Beratung, Diagnostik und Forschung, Stuttgart u.a. 1993, S. 83-99.
(9) T. Duster, Backdoor to Eugenics, New York/Londen 1990
(10) H. Müller-Merbach, Künstliche Intelligenz – eine Sackgasse? Plädoyer für Mensch-Maschine-Tandems, in: technologie & management, 4/1987, S. 6-8
(11) Vgl. W. Zimmerli/S. Wolf (Hrsg.) Künstliche Intelligenz: Philosophische Probleme, Stuttgart 1994
(12) Vgl. A. Turing, Kann eine Maschine denken?, in: ebd., S. 39-78.
(13) Vgl. B. Joy, Warum die Zukunft uns nicht braucht, in: Frankfurter Allgemeine Zeitung, 06.06.2000, S. 49-51.
(14) H. Dreyfus, What computers can´t do – a critique of artificial reason, New York 1972
(15) H. Rheingold, The Virtual Community. Homesteading on the Electronic Frontier, Reading 1991
(16) Vgl. W.. Zimmerli, The Context: Virtuality and Networking after Postmodernism, in: F. Theron/A. v. Rooyen/F. Uys (Hrsg.), Spanning the Global Divide: Networking for Sustainable Delivery, Stellenbosch 1998, S. 1-17; C. Engel/K. Keller (Hrsg.), Understanding the Impact of Global Networks on Local Social, Political and Cultural Values, Baden-Baden 2000.
(17) Vgl. M.R. Quillian, Semantic Memory, in: M. Minsky, Semantic Information Processing, Cambridge 1968.
(18) Vgl. J. Boissevain, Friends of Friends: Networks, Manipulators and Coalitions, Oxford 1974.
(19) Vgl. B. Rumelhart, Active Semantic Networks as a Model of Human Memory, Stanford 1973; B. Rumelhart/J. McClelland (Hrsg.), Parallel Processing, Cambridge 1986.
(20) Vgl. M. Castells, The Rise of the Network Society, Malden 1999.
(21) Vgl. J. Weizenbaum, Die Macht der Computer und die Ohnmacht der Vernunft, Frankfurt/Main 1997; ders., Kurs auf den Eisberg: die Verantwortung des einzelnen und die Diktatur der Technik, München ³1991.
(22) Vgl. W. Zimmerli, „Kritiklos akzeptiert“, in: DIE WOCHE, 21.01.2000, S. 29; ders., „Das Internet macht genauso wenig dumm, wie Bücher dumm machen“, in: smile, 5/2000, S. 48-51; ders., Spielräume erweitern, in: Perspektiven, Zeitschrift der Universität Witten/Herdecke für Wissenschaft, Kultur und Praxis, 4/2000, S. 18-21.
(23) Vgl. E. Sidler, Mein geliebtes Deutschland: kritische Reflexionen eines Gastarbeiters, Frankfurt/Main ²1996; D. Jaufmann/H. Bücker-Gärtner (Hrsg.), Sind die Deutschen technikfeindlich? Erkenntnis oder Vorurteil, Opladen 1988.
(24) Vgl. N. Stehr, Arbeit, Eigentum und Wissen: zur Theorie von Wissensgesellschaften, Frankfurt/Main 1994; W. Zimmerli, Vom Unterschied, der einen Unterschied macht: Information, Netzwerkdenken und Mensch-Maschine-Tandem, in: J. Mittelstrass (Hrsg.), Die Zukunft des Wissens (Tagungsband zum XVIII. Deutschen Kongreß für Philosophie), im Druck.
(25) Vgl. J. Derrida, Randgänge der Philosophie, Frankfurt/Main 1976.
(26) Vgl. J. Lyotard, Das postmoderne Wissen: ein Bericht, Wien 41999.
(27) Vgl. W. Welsch, Unsere postmoderne Moderne, Berlin 51997; ders., Vernunft: die zeitgenössische Vernunftkritik und das Konzept der transversalen Vernunft, Frankfurt/Main 1996.
(28) Vgl. M. Castells, a.a.O.
(29) Vgl. W. Zimmerli, Verleitung zur Phantasie – Virtualität in Technik und Lebenswelt, in: Zeitschrift für Betonwerk + BFT Fertigteiltechnik, 2/1997, S. 53-64.
Ich hätte nicht gedacht, dass da draußen noch Menschen sind, die genau die gleichen Gedanken haben wie ich. Die Probleme der Genetik sind allseits bekannt. Ob und in welchem Umfang man den Übermenschen schaffen sollte und dass wir uns bereits durch technische und medizinische Hilfsmittel den Genpool längst versaut haben, ist nicht hinreichend bekannt.
Der Lösungsweg sollte in etwa der sein, dass positive Eigenschaften natürlich selektiert werden und negative Eigenschaften schon im Vorfeld ( vor der Geburt ) durch PID o.ä. aussortiert werden um das Gleichgewicht der technischen und medizinischen Hilfsmittel wieder auszugleichen. Dies IST EINE MORALISCHE VERANTWORTUNG. Leider wird UNSER GRUNDGESETZ AN DIESER FRAGE ZERBRECHEN, denn es kann den Streit nicht lösen zwischen dem Recht der Lebenden und dem Verhindern von Leid von zukünftigen ungeborenem Leben, welches de facto nicht unter dem Schutz der Menschenwürde stehen kann, weil die Menschenwürde erst mit Beginn des Lebens im Leib anfängt.
Nietzsche hatte übrigens Recht. Es wird Blut und Eisen kosten. Ein Krieg wird unausweichlich sein, denn es werden sich diejenigen, die die neuen Methoden zur Fortentwicklung nutzen wollen zwangsweise gegen diejenigen, die das für Gefährlich halten auflehnen müssen. Am Ende wird entweder der Sieg der Menschheit durch Fortentwicklung oder ihre Vernichtung stehen.