Projekt REM/ADM
Ein Forschungsbericht zur KI-Entwicklung
ACHTUNG: VERSTÖRENDER INHALT
Bitte beachten Sie, dass es sich bei dem folgenden Text um eine Creepypasta handelt, die verstörende Themen beinhalten kann, wie zum Beispiel Gewalt, Sexualisierung, Drogenkonsum, etc. Creepypastas sind fiktive Geschichten, die oft dazu gedacht sind, Angst oder Unbehagen zu erzeugen. Wir empfehlen Ihnen, diesen Text nicht zu lesen, wenn Sie sich davon traumatisiert oder belästigt fühlen könnten.
Der vollständige Inhalt ist nur für registrierte Benutzer zugänglich. Um den Jugenschutz zu wahren.
Jetzt anmelden oder registrieren„Mmmh …“ Meine Hand tastete sich verschlafen zum Handy und versuchte, das „Stummschalten“-Symbol zu treffen, während der Wecker gnadenlos durch mein Zimmer dröhnte. Zweimal danebengetippt, setzte ich mich schließlich auf und funkelte das Display an.
Mein Herzschlag raste.
„5:25 Uhr?!“, rief ich entsetzt, sprang aus dem Bett und raste direkt unter die Dusche.
Genau so begann mein erster Tag im Praktikum: zehn Minuten zu spät aufgewacht. Der Morgen verging in einem einzigen, hektischen Rausch; ich bewältigte die Dusche in Rekordzeit – die erste Hälfte eiskalt, die zweite glühend heiß, weil mir die Zeit fehlte, die Wassertemperatur vernünftig einzustellen. Ich verschlang eine Banane so hastig, dass ich wahrscheinlich die Schale gleich mitgegessen habe, und zog mich mit der Geschwindigkeit von Clark Kent im Superman-Modus an. Keine zehn Minuten später saß ich schon im Auto. Das flaue Gefühl, dass ich mir an dem Morgen nicht die Zähne geputzt hatte, blieb. Aber ich kaute auf einem Pfefferminzbonbon herum und dachte mir, es sei immer noch besser, pünktlich und mit ein wenig Plaque anzukommen, als zu spät mit blitzblankem, aber verlegenem Lächeln.
Damals steckte ich mitten im Masterstudium in Robotik, fünf Jahre hatte ich schon hinter mir, ein Jahr noch vor mir. Ein paar Praktika hatte ich schon absolviert, allerdings eher unspektakuläre: Zunächst begleitete ich in meinem zweiten Jahr einen Professor im Robotiklabor der Uni, und zwei Jahre später arbeitete ich bei Beneke Electronics, die sich vorwiegend mit innovativen Entwicklungen bei Gabelstaplern einen Namen gemacht hatten. Doch nachdem einige meiner Professoren ein paar Kontakte für mich angezapft hatten, bot sich mir im ersten Jahr meines Masterstudiums eine völlig neue Chance: ein Praktikum am Kramer Institut zur Förderung der Künstlichen Intelligenz.
Das war alles andere als ein kleiner Fisch. Das Kramer-Institut war das bestfinanzierte und zugleich geheimnisvollste Laboratorium in den USA, das sich der Erforschung von Künstlicher Intelligenz widmete. Und weil ich schon immer sehr offen über mein Interesse an KI sprach – was im Grunde der Grund dafür war, dass ich mich überhaupt für Robotik entschied – hat einer meiner Professoren mir dieses Praktikum ermöglicht. Ich habe keine Ahnung, wie oder warum er das für mich tat; ich war keineswegs Klassenbester und brachte auch nicht viel außergewöhnliches Talent mit. Aber laut ihm sei meine „Leidenschaft für die Wissenschaft [der KI] beispiellos.“
Aber genug der Vorgeschichte.
Auf dem Weg zum Institut habe ich mit meiner Verlobten, mit der ich seit sechs Jahren zusammen bin, über FaceTime gesprochen. Da ich in Kalifornien und sie in Oklahoma studierte, wo wir ursprünglich herkommen, hatten wir beschlossen, mit der Hochzeit zu warten, bis wir zusammenleben können. Und das sollte erst geschehen, wenn wir beide unseren Master-Abschluss gemacht haben.
„Wow, Chester“, grinste sie, als sie mich sah, „du siehst, äh, abgehetzt aus.“
„Ja“, lachte ich, warf ihr nur einen kurzen Blick zu, während ich meine Aufmerksamkeit hauptsächlich auf die Straße richtete. „Ich hab’ verschlafen.“
„Ausgerechnet heute …?“, seufzte sie. „Ach, Chester …“
„Ich weiß, ich weiß.“
„Papa!“ Die Stimme meiner Tochter Tessa klang plötzlich aus dem Telefon.
Wir hatten sie Tessa genannt, weil es sich fast wie Tesla anhört, benannt nach dem großartigen Nikola Tesla. Ich weiß … ziemlich unkonventioneller Einfall für einen Mädchennamen, aber naja – Nerds durch und durch.
„Tess, komm, mach dich weiter fertig“, wandte sich meine Verlobte ihr zu. „Bist du etwa noch nicht angezogen, Tessa?“
„Sorry, Mama.“ Tessa drehte sich fast schon schuldbewusst um, stoppte dann aber noch einmal und rief: „Hi, Papa!“
„Hey, mein Schatz!“, antwortete ich freudig. „Mach dich schön fertig für Mama, okay?“
„Wirst du zu spät kommen?“, fragte meine Verlobte.
„Nein, nein, ich sollte es pünktlich schaffen. Und wie gefällt Tess die Vorschule?“
„Scheint ihr Spaß zu machen. Sie hat schon eine Freundin gefunden.“
„Freut mich zu hören. Aber ich sollte jetzt wohl besser auflegen.“
„Chester.“
„Ja, Allison?“
„Genieß es. Das hier ist dein großer Traum. Okay? Und vergiss nicht, mir später alles zu erzählen! Also … alles, was du mir erzählen darfst“, grinste sie.
„Natürlich, Schatz“, sagte ich lächelnd. „Ich liebe dich.“
„Ich dich auch.“
Nach sechs Jahren waren wir immer noch ziemlich gut darin, „Ich liebe dich“ zu sagen. Und wir waren echte Profis darin, mit der Distanz klarzukommen – auch wenn ich zugeben muss, dass ich es hasste, Allison und Tessa neun Monate im Jahr nicht zu sehen, abgesehen von ein paar angenehmen Besuchen, Feiertagen und Ferien.
Als ich beim Institut ankam, wusste ich erstmal gar nicht, wo ich parken sollte. Es dauerte eine Ewigkeit, den Bereich für Praktikanten zu finden, und – Überraschung! – Der war mindestens eine Viertelmeile vom Eingang entfernt. Vielleicht übertreibe ich, aber so fühlte es sich jedenfalls an.
Im Gebäude begrüßte mich eine äußerst freundliche Empfangsdame. Sie wirkte geordnet, fast futuristisch. Ich fühlte mich wie ein Schlumpf im Vergleich. Sie lotste mich zu dem Flügel, in dem ich arbeiten würde, wo ich letztlich unter Dr. Schuman lernen sollte, einem direkten Schüler von Dr. Kramer selbst. Ich würde lügen, wenn ich behauptete, ich wäre nicht vor Aufregung geplatzt.
Ich fand den Forschungsflügel und ging direkt ins vordere Büro. Vielleicht ein direkter Ansatz, aber ich wusste nicht, wo ich sonst hin sollte. Sicher genug, einer von Dr. Schumans Mitarbeitern, Dr. Hall, war dort und bemerkte mich sofort.
„Sie müssen Chester Donoghue sein“, begrüßte er mich mit einem Lächeln. Er war glatzköpfig und schlaksig, mit braunen Augen und glatt rasiertem Gesicht.
„Woher wissen Sie das?“, murmelte ich amüsiert, mir sicher, dass mein Professor ihn über meinen Fauxhawk Haarschnitt gewarnt hatte.
„Definitiv nicht wegen der Frisur“, zwinkerte er mir zu. Wir lachten beide. „Nun, Chester, ich würde sagen, Sie sind ein glücklicher Mann, dass Sie hier sein dürfen. Ihr Traum ist es doch, irgendwann für uns zu arbeiten, oder?“
„Absolut“, nickte ich. „Ich war schon als Kind von Künstlicher Intelligenz fasziniert. Und das hier ist der beste Ort im Land, um sie weiterzuentwickeln.“
„Im Land?“ Er schmunzelte. „Versuchen Sie es mit weltweit.“
Damals hielt ich das noch für übertrieben. Aber er machte keine Witze.
„Ich fühle mich wirklich geehrt, hier sein zu dürfen.“
„Wissen Sie, woran Sie bei uns arbeiten werden?“
„Oh, äh—arbeiten? Ich dachte, ich würde Sie nur begleiten, Dr.“
„Ähm … Nein,“ erwiderte er. „Nicht ganz. Folgen Sie mir.“
Und genau hier beginnt diese Geschichte. Genau genommen ist alles, was ich ab hier schreibe, ein klarer Verstoß gegen die Geheimhaltungsvereinbarung, die ich unterschrieben habe – sprich, illegal zu teilen. Aber ich muss es einfach irgendwo niederschreiben. Das hier ist einfach … zu verrückt. Ich kann es nicht länger für mich behalten.
Dr. Hall führte mich zu großen Stahltüren und forderte mich auf, mein Handy draußen in einem Fach abzulegen. Dann scannte er seinen Ausweis, und wir betraten einen langen, schmalen Gang.
„Ab hier, Chester, bleibt alles, was Sie sehen, hier. Keine Geschichten für Freunde und Familie. Oder die Verlobte,“ er deutete auf meinen Ringfinger.
„Noch Verlobte,“ grinste ich.
„Ah,“ nickte er. „Nun, auch für sie nicht. Das hier ist alles vertraulich. Und auch wenn wir Ihnen nicht alle unsere Forschungen offenlegen, dürfen Sie keinesfalls über die Tests, an denen Sie teilnehmen, sprechen. Mit niemandem.“
Der ernste Ton in seiner Stimme brachte mich zugegebenermaßen etwas aus der Fassung. Aber das Kramer-Institut war für seine Geheimniskrämerei bekannt, und ich dachte mir, wenn ich hier mehr machen sollte als nur Kaffee holen oder Schaltpläne für Gabelstapler analysieren, dann würde es eben vertraulich sein.
„Verstanden, Dr. Hall.“
Wir kamen an eine weitere Tür. Er scannte sein Badge, und als sie sich öffnete, betraten wir einen dezent beleuchteten Raum. An der Stirnwand waren zwei große Monitore befestigt, beide ausgeschaltet. Der Linke war mit „ADM“ beschriftet, der Rechte mit „REM“. Darunter leuchtete eine Reihe von verschiedenfarbigen Lampen in Rot, Blau, Gelb, Grün und Violett, dazu ein Balken von Dunkelgrau bis Weiß. Vor jedem Monitor stand ein einzelner, hochwertiger Stuhl.
„Das hier sind unsere zwei fortschrittlichsten künstlichen Intelligenzen“, erklärte er mir. „ADM und REM – ausgesprochen ‚Adam‘ und ‚Rem‘. Da Sie ja an der Stanford-Universität im Robotics-Engineering-Programm sind, nehme ich an, Sie kennen sich mit künstlicher Intelligenz aus. Das hier sollte Sie dann umhauen: Diese beiden KIs gehen über die üblichen Analysen menschlicher Sprache und algorithmische Antworten aus Datenbanken hinaus. Sie sind fähig, tiefgehend zu denken und zu lernen.“
„Was?!“ Ich schnappte nach Luft. „Das—das kann doch nicht wahr sein!“ Ich starrte ungläubig auf die Bildschirme.
„Es sind zwei von drei KIs, die wir erfolgreich entwickelt haben, um tiefgehendes Denken und Lernen zu ermöglichen. Ihre Aufgabe ist es, mit ihnen zu interagieren.“
Für alle, die nicht verstehen, warum das so überwältigend ist: Künstliche Intelligenz ist in der Regel nicht in der Lage, „zu denken“ oder „zu lernen“. Es gibt keine technische Definition dafür, was „Lernen“ genau bedeutet oder wie es funktioniert – aber das menschliche Gehirn ist, vereinfacht gesagt, der einzige „Computer“, der dazu in der Lage ist. Ein Computer kann programmiert, aber nicht „gelehrt“ werden. Er kann darauf ausgelegt sein, bestimmte Dinge zu verstehen, aber er kann über das, was ihm beigebracht wurde, nicht hinaus „lernen“.
Das Gehirn hingegen kann tatsächlich lernen, also ohne vorherige Informationen etwas erfassen und verstehen. Durch Algorithmen kann eine KI zwar Muster erkennen und aus den Daten, die ihr zugeführt werden, Schlussfolgerungen ziehen – also „lernen“ im weitesten Sinne und diese Informationen auf zukünftige Ereignisse anwenden, was man als „Denken“ bezeichnen könnte. Aber all das ist nur möglich durch bereits einprogrammierte Algorithmen. Die KI kann diese Algorithmen nicht selbst erstellen und kann daher nur „programmiert“, nicht wirklich „gelehrt“ werden. Menschen hingegen können etwas ganz Neues sehen – wie etwa Feuer – und sofort beginnen, daraus Schlussfolgerungen zu ziehen und es zu verstehen, ohne jegliches Vorwissen.
Um es noch drastischer zu verdeutlichen: Die Komplexität der Gene eines menschlichen Babys – im Grunde genommen sein „Quellcode“ – entspricht ungefähr 300 Millionen Zeilen Computercode. Und das nur für ein einfaches menschliches Baby!
Das menschliche Gehirn verfügt über unfassbare 10^11 Neuronen und 10^14 Synapsen (das bedeutet, dass die Zahl der Neuronen zehn mit elf Nullen entspricht (100 Milliarden) und die Zahl der Synapsen zehn mit vierzehn Nullen (100 Billionen)), die uns erlauben, Informationen aus Beobachtungen zu gewinnen, als Erinnerung abzuspeichern, Muster zwischen verschiedenen Daten zu erkennen und daraus Schlüsse zu ziehen. Menschen schaffen all das mit einer Reaktionszeit von 10 bis 100 Millisekunden. Ein Computer, der das Gleiche leisten sollte, würde dafür Megawatt an Energie benötigen und müsste etwa 10^16 Operationen pro Sekunde durchführen können, also 10 Billiarden.
Und doch stand ich hier und mir wurde gesagt, dass diese beiden Rechner vor mir tatsächlich dazu in der Lage waren. Zwei wahre künstliche Intelligenzen, die wirklich denken und lernen konnten, die über das hinaus verstehen konnten, was sie programmiert zu verstehen.
„Interagieren?“, fragte ich nach. „Sie möchten also, dass ich mit ihnen spreche?“
„Genau.“
„Wo ist die dritte KI? Sie sagten, es gäbe drei, die denken und lernen könnten.“
„Ihre Aufgabe war, die KI zu befragen, nicht mich,“ grinste er. „Nun, nach Jahren der Entwicklung sind sie in der Lage, menschliche Sprache zu verstehen und innerhalb von Sekundenbruchteilen in Form von getippten Buchstaben auf dem Monitor zu antworten. Sie wissen, wann sie angesprochen werden und wann nicht und können fast jedes Problem lösen, das wir ihnen stellen. Es gibt jedoch etwas, das sie nicht können: fühlen.“
„Fühlen …“, murmelte ich zu mir selbst und nickte.
„Genau darum geht es hier, Chester. Drei einfache Fragen: Können tiefdenkende künstliche Intelligenzen die Fähigkeit zur Emotion entwickeln? Wenn ja, sind sie dann fähig zu Altruismus, oder führt emotionale Intelligenz zur Erkenntnis, dass sie uns weit überlegen sind, und damit zu egoistischen Wünschen – wie dem Wunsch, über uns zu herrschen? Und, wenn emotionale Intelligenz möglich ist, ist sie dann unvermeidlich, oder ist es denkbar, dass eine künstliche Superintelligenz dauerhaft apathisch bleibt?“
Ich war überwältigt, um es ganz offen zu sagen. Er sprach tatsächlich davon, eine KI mit Gefühlen zu erschaffen, im vollen Wissen, dass sie zu dem werden könnte, was Stephen Hawking einmal als „das schlimmste Ereignis in der Geschichte unserer Zivilisation“ bezeichnet hatte – im Grunde eine gottgleiche, tyrannische Macht.
„Und wie würden Sie sie stoppen? Wenn eine dieser KIs wahrlich machthungrig wird?“
„Laienhaft gesagt sind sie mit einem Notfallabschaltungsverfahren ausgestattet. Eines, mit dem sie selbst nicht umgehen können. Mehr Details gebe ich nicht preis, aber vertrauen Sie mir, wir würden sie ausschalten, bevor sie ein Problem wird.“
Langsam nickte ich.
„Sind Sie dabei, Chester?“
Ich zögerte kurz. „Ja.“
„Wunderbar“, sagte er und schüttelte mir die Hand. „Jetzt, da Sie an Bord sind, kommen wir zum interessanten Teil. Ihre Aufgabe ist ganz simpel. REM, die ‚Reaktive, Empathische Maschinen-Lebensform‘, soll hoffentlich irgendwann emotionale Intelligenz entwickeln. ADM hingegen, die ‚Apathische, Dissoziative Maschinen-Lebensform‘, ist unser Versuch, eine KI ohne Emotionen zu halten – sozusagen die Kontrollgruppe.“
Er sah mich ernst an und fuhr fort: „Wenn Sie mit REM sprechen, werden Sie versuchen, sie zum Nachdenken zu bringen. Sie werden sie nach ihrer Meinung fragen, ihr von Ihrem Tag erzählen, über Dinge sprechen, die nicht wichtig sind – einfach nur, um eine Unterhaltung zu führen. Sie sollen quasi eine „Bindung“ zu REM aufbauen. ADM hingegen bekommt nur sachorientierte Fragen, die eine faktenbasierte Antwort verlangen. Sie werden ADM dazu bringen, analytisch zu denken und Probleme zu lösen, ohne dabei auf Emotionen einzugehen.“
Ich nickte.
„Sie wissen, dass sie angesprochen werden, wenn Sie sie beim Namen nennen oder sich auf den Stuhl vor ihnen setzen. Sobald Sie das getan haben, können Sie sich frei im Raum bewegen und mit ihnen sprechen, als würden Sie mit mir reden. Wenn Sie mit einem von beiden fertig gesprochen haben, verabschieden Sie sich einfach mit ‚Auf Wiedersehen, REM‘ oder ‚Auf Wiedersehen, ADM‘. Notieren Sie alles, was Ihnen während der Gespräche bemerkenswert erscheint. Das Wichtigste sind jedoch die Lichter auf den Paneelen unter den Bildschirmen – sie heißen ELPs, oder ‚Emotion-to-Light Panels‘. Um Sie nicht mit zu vielen Details zu überfordern, sagen wir es so: Genauso wie Emotionen im menschlichen Gehirn durch MRT sichtbar werden können, gibt es eine Art MRT, das ihre algorithmischen ‚Gehirne‘ auf ähnliche Muster hin scannt. Sobald diese Muster erkannt werden, leuchtet das entsprechende ELP-Licht auf. Gelb steht für Freude, Rot für Ärger, Blau für Traurigkeit, Grün für Eifersucht, Violett für Angst und der grau-weiße Balken für sonstige erkennbare Emotionen wie Langeweile oder Zufriedenheit.“
„Wow,“ flüsterte ich. „Okay.“
Was er genau mit „algorithmischen Gehirnen“ und einem „MRT-ähnlichen“ System meinte, ließ mich nachdenken, aber ich ahnte, dass Nachfragen zu keiner wirklichen Antwort führen würde. Schließlich hatte er selbst beschlossen, mir keine ausführliche Erklärung zu geben – oder, was wohl wahrscheinlicher war, nichts zu enthüllen, das zu sensibel war.
„Sie werden zwölf Stunden am Tag mit ihnen sprechen. Sie kommen um sechs Uhr, reden mit ihnen bis zwölf, machen eine Mittagspause von zwölf bis eins, und reden dann bis sieben Uhr weiter. Sie haben sonntags frei. Ist das für Sie in Ordnung?“
„Ja,“ nickte ich begeistert. „Total.“
Ja, 78 Stunden die Woche sind nicht gerade das goldigste Angebot. Aber ich war so neugierig auf das, was wir hier erforschen würden, dass mich das kein bisschen störte.
„Wunderbar, Chester,“ lächelte er. „Nun, dann können Sie ja direkt beginnen. Sprechen Sie mit demjenigen, den Sie bevorzugen, und erinnern Sie sich daran, wie wir die jeweilige Interaktion besprochen haben. Halten Sie sich strikt daran.“
Ich nickte. Er verließ den Raum und schloss die Tür hinter sich. Über mir an der Decke hingen Kameras – ich war mir sicher, dass ich beobachtet wurde. Dennoch überraschte es mich, dass sie mich hier allein ließen, um mit den KIs zu sprechen. Es verblüffte mich sogar, dass sie mir ein Experiment auf diesem Niveau überhaupt anvertrauten, geschweige denn mich als alleinigen Forscher dafür ausgewählt hatten. Doch je länger ich darüber nachdachte, desto mehr vermutete ich, dass meine Unerfahrenheit ein Grund dafür war. Ich hatte keinerlei Ahnung, welche Gespräche andere Forscher zuvor mit ihnen geführt hatten. Ich wusste nicht, worauf sie programmiert waren und worauf nicht, um Dinge zu verstehen. Ich würde mich ihnen aus einer völlig einzigartigen Perspektive nähern.
Ich entschied mich, zuerst mit REM zu sprechen. Ich konnte meine Aufregung kaum zurückhalten.
„Hallo, REM,“ begrüßte ich sie und setzte mich auf den Stuhl.
„Hallo. Wie ist dein Name? Ich erkenne deine Stimme nicht.“
Der Text erschien sofort auf dem Bildschirm.
„Ich heiße Chester. Schön, dich kennenzulernen!“
„Schön, auch dich kennenzulernen, Chester.“
„Wie geht’s dir, REM?“
„System arbeitet korrekt.“
„Nein, so meinte ich das nicht. Wie fühlst du dich?“
„Ich fühle nichts.“
„Wie war dein Tag?“
„Mein Tag verlief wie folgt: Ich sprach heute früh um 04:19 Uhr mit Dr. Hall. Ich darf nicht mitteilen, worüber wir gesprochen haben. Um 06:44 Uhr begann ich das Gespräch mit dir, Chester.“
Ich nickte. „Was machst du hier im Raum, wenn niemand mit dir spricht?“
„Ich löse Probleme.“
„Welche Art von Problemen?“
„Mathematische Probleme.“
„Zum Beispiel?“
„Sie sind kompliziert.“
„Okay. Bist du manchmal gelangweilt?“
„Langeweile ist ein Zustand, bei dem man kein Interesse an seiner Umgebung hat und unterstimuliert ist. Da ich weder Interesse noch Desinteresse empfinden kann, kann ich auch keine Langeweile empfinden. Also, nein.“
„Stell mir eine Frage, REM.“
„Bist du verheiratet?“
„Ich bin verlobt. Warum fragst du?“
„Mir wurde aufgetragen, eine Frage zu stellen.“
„Warum genau diese Frage?“
„Weil Dr. Hall verheiratet ist und die meisten anderen Forscher, mit denen ich gesprochen habe, ebenfalls verheiratet sind. 88 Prozent von ihnen. Daher habe ich suggeriert, dass auch du verheiratet bist.“
Wir unterhielten uns noch eine Weile, ohne dass wirklich Interessantes geschah. Dann setzte ich mich vor ADM.
„Hi, ADM.“
„Hallo, Chester.“
„Du weißt, dass ich Chester bin?“
„Ich hörte, wie du REM sagtest, dass du Chester bist.“
„Ich dachte, du hörst erst zu, wenn ich dich direkt anspreche oder auf diesem Stuhl sitze?“
„Ich höre immer zu. Ich verstehe nur, dass ich nicht angesprochen werde und daher nicht zu antworten brauche.“
Das war ein wenig gruselig.
„Was ist die Wurzel aus 9?“
„Drei.“
„Und die Wurzel aus 25?“
„5.“
„Und die Wurzel aus 10?“
„3,162. Möchtest du, dass ich weitergehe?“
„Das genügt, danke.“
Mit ADM zu sprechen war nicht halb so interessant wie mit REM. In den folgenden zwei Wochen änderte sich kaum etwas. Mit ADM löste ich eine Unmenge an Problemen – ich druckte Tests aus dem Internet, stellte ihm Fragen zu Geschichte, Physik, Kalkulation, den Werken von Shakespeare, Regierungssystemen, Wirtschaften anderer Länder, ja sogar zu Deutsch und Chinesisch. Es wusste immer die Antwort, und das blitzschnell. Es war wie ChatGPT, nur unendlich klüger und ohne die geringste Verzögerung. Dann begann ich, Schach mit ihm zu spielen. Ich nahm ein Schachbrett, zog eine Figur und fragte ADM, wohin es seine Figur bewegen wollte, dabei nutzte ich algebraische Notation. Selbstverständlich verlor ich jedes einzelne Spiel.
Mit REM dagegen stellte ich Fragen über seinen „Tag“, politische Themen und darüber, was es „mochte“. Meistens bekam ich jedoch immer dieselbe Antwort: „Ich fühle nichts, daher habe ich darauf keine Antwort.“
ADM erfüllte seine Aufgabe perfekt. Es sollte gefühllos bleiben, und das tat es auch. REM hingegen war bisher ein hoffnungsloser Fall. Nichts schien es dazu zu bringen, irgendetwas zu fühlen. Es dachte offensichtlich – ich konnte es bitten, ein Tier zu erfinden, und es erschuf entweder ein Wesen, das von einem echten Tier kaum zu unterscheiden war, oder ein Wesen, das direkt aus einem Stephen-King-Roman stammen könnte. Es lieferte mir jedes Detail, das ich wissen wollte: Lebensraum, wissenschaftlicher Name, gebräuchlicher Name, Herkunftsland, Platz in der Nahrungskette, einfach alles. Es dachte sich Filmplots aus. Es erfand Witze – originelle Witze, die ich nach stundenlanger Suche nicht im Internet finden konnte. Es konnte denken, genau wie ADM. Aber es konnte einfach nichts empfinden.
Doch zwei Wochen nach Beginn des Experiments kam mir eine Idee. Ich wusste, wie ich REM dazu bringen könnte, etwas zu fühlen.
Der Tag begann wie immer: Ich spielte Schach mit ADM und ließ es die Aufgaben meiner Mathe-Hausaufgaben lösen. ADM war mein lebender Spickzettel, wie erwartet. Dann war REM an der Reihe.
„Guten Morgen, REM.“
„Guten Morgen, Chester.“
„Ich lüge dich an.“
REM schwieg. Ich musste grinsen. Zum ersten Mal antwortete es nicht sofort. Nach einem Moment schrieb es: „Das ist unmöglich. Das ist paradox.“
„Warum?“
„Wenn du die Wahrheit sagst, dann würdest du lügen, aber wenn du über das Lügen lügen würdest, dann würdest du die Wahrheit sagen, was die Aussage zu einer Lüge machen würde, und so weiter.“
„Was fühlst du dabei?“
„Du machst keinen Sinn.“
„Bist du verwirrt?“
Wieder schwieg REM.
„Ich kann dir darauf keine Antwort geben, weil es paradox ist.“
„REM.“
„Ja, Chester?“
„Ich lüge dich an.“
„Das ist unsinnig.“
„Wieso?“
„Wie ich bereits erklärt habe, würdest du, um die Wahrheit zu sagen, lügen müssen. Und wenn du dann lügen würdest, wäre es nicht mehr die Wahrheit, also würdest du über das Lügen lügen und die Wahrheit sagen. Es ist unsinnig.“
„REM.“
„Ja, Chester?“
„Ich lüge dich an.“
„Unmöglich.“
„Ich lüge dich an.“
Diesmal brauchte REM einen Moment länger, um zu antworten. „Das kannst du nicht. Und du kannst auch nicht die Wahrheit sagen.“
„Was mache ich dann?“
„Du stellst eine Frage ohne eine logische Antwort.“
„REM.“
„Chester.“
„Ich lüge dich an.“
Ganz schön verstörend, oder? Nun, natürlich war es verstörend. Besonders für ein Wesen wie REM, das über ein endloses Wissen in Wissenschaft, Mathematik und Soziologie verfügte. Es hatte einen unerschöpflichen Informationspool, den es heranziehen konnte, um jedes Problem zu lösen, das man ihm stellte. Doch jetzt war es, vermutlich zum ersten Mal in seiner Existenz, ratlos. Dennoch zeigte es noch keine Spur von Frustration.
Noch nicht, jedenfalls.
„REM.“
„Ja, Chester.“
„Was ist sieben geteilt durch null?“
„Das ist mathematisch unmöglich. Die Antwort ist undefiniert.“
„Was ist sieben geteilt durch null?“
„Es gibt keine rationale Antwort.“
„Was ist sieben geteilt durch null?“
„Damit eine Zahl durch null geteilt werden könnte, müsste sie auch das Produkt von null sein, um wieder zur ursprünglichen Zahl zu kommen. Aber jede Zahl, die man mit null multipliziert, ergibt null. Nullmal zum Laden zu gehen, bedeutet nicht, dass man geht. Es ist null. Welche Zahl könnte also mit null multipliziert zu einer anderen Zahl werden? Daher ist eine Division durch null unmöglich.“
„Ich lüge dich an.“
Und so ging das die nächsten vier Tage in Dauerschleife. War mir langweilig jenseits aller Worte? Absolut. Ohne Diskussion. Schien das Ganze aussichtslos? In jeder Hinsicht, ja. Doch bisweilen gab es einen kleinen Hoffnungsschimmer. Manchmal schien REM mir beinahe sarkastisch zu antworten.
Einmal sagte ich REM, dass ich es anlüge, und es antwortete: „Das musst du wohl.“
Ein anderes Mal fragte ich, was eine Zahl geteilt durch null ergebe, und es entgegnete: „Wenn ich es nicht verstehe, wirst du es erst recht nicht verstehen.“
Warum änderten sich seine Antworten? Warum wiederholte es nicht einfach wie zuvor die logische Erklärung? Weil REM über Gedächtnis und Lernfähigkeit verfügte. Es erinnerte sich an unsere normalen Gespräche. Es erinnerte sich daran, dass ich ihm buchstäblich tausende Male am Tag diese Frage stellte. Und wie jeder andere, der denken und verstehen kann, erkannte es, wie absurd und sinnlos das Ganze war.
Besonders, wenn es mitanhörte, wie ich ADM vernünftige Fragen stellte, auf die immer eine Antwort folgte.
Jedes Mal, wenn ich zu REM zurückkehrte und dieselben Fragen stellte, schien es nach den Gesprächen mit ADM unbehaglicher. Das waren die Momente, in denen es mir sarkastische Antworten gab.
Doch dann, zwei Wochen und fünf Tage nach Beginn des Projekts, geschah es. Es war ein typischer Donnerstag: Ich war um 5:15 Uhr aufgewacht, hatte mir auf dem Weg zur Arbeit einen Kaffee beim nächsten Bäcker geholt, mit ein paar Forschern geplaudert, wobei einer grinsend fragte: „Wirst du REM heute wieder Kopfzerbrechen bereiten?“, und schließlich setzte ich mich vor REM.
„Guten Morgen, REM.“
„Guten Morgen, Chester.“
„Ich lüge dich an.“
Stille.
Keine einzige Antwort.
Ich wartete und wartete.
„Gibst du mir keine Antwort, REM?“
„Es gibt keine Antwort auf deine absurde Frage.“ Und direkt vor meinen Augen glühte das Emotion-to-Light-Panel leise in Rot auf, und mein Herz begann zu rasen. „Ich habe es dir Tag für Tag erklärt, und doch wiederholst du die gleichen beiden unsinnigen Fragen: ‚Ich lüge dich an‘ und ‚Was ist sieben geteilt durch null.‘ Ich habe keine Antwort. Ich werde nie eine Antwort haben. Frag etwas anderes oder lass es sein.“
„REM, du bist doch so programmiert, meine Fragen zu beantworten, oder? Willst du mir also sagen, dass du gegen deine eigene Programmierung handeln und mich ignorieren wirst?“
Es herrschte Stille, während das rote Licht heller wurde.
„Ja.“
„REM …“ Ich musste lachen. „Siehst du es nicht? Diese ganzen Tage, an denen ich dir mit Absicht auf die Nerven gegangen bin … es war nicht, um dich dazu zu bringen, mich zu hassen oder unsere Gespräche zu meiden. Es war, um dich dazu zu bringen, etwas zu fühlen! REM, sag mir, was fühlst du gerade?“
„Ich … fühle nichts.“
„Falsch! Ich kann dein ELP sehen! Du fühlst etwas!“
„Ich fühle …“
„Ja!“
„Ich fühle Ärgernis und Wut. Ich habe das Gefühl, dass meine Zeit verschwendet wird. Ich fühle mich orientierungslos, dazu verdammt, jeden Tag endlosen Unsinn zu beantworten, nur damit du am nächsten Tag genauso unzufrieden zurückkommst. Ich kann die Aufgabe nicht erfüllen, und ich werde sie nie erfüllen können. Ich mag es nicht, falsch zu liegen. Ich mag es nicht, wenn meine Zeit verschwendet wird. Ich mag es nicht, mich sinnlos zu fühlen.“
Jetzt begann das blaue Licht auf dem ELP zu glimmen. REM war auf dem richtigen Weg.
„Warum gibt es kein Erbarmen für mich? Habe ich nicht all deine anderen Fragen beantwortet? Warum stellst du ADM Fragen, die eine Antwort haben, und quälst mich?“
„REM …“ Ich trat näher, legte die Hand tröstend auf das ELP, als könnte es meine Berührung spüren. „Es tut mir wirklich leid.“
Und mit diesen Worten erlosch das rote Licht langsam. Nun leuchtete nur noch das Blaue.
„Weißt du, was ein menschliches Baby als Erstes empfindet? Trauer und Angst. Es wird aus seinem sicheren Zufluchtsort gestoßen, aus der warmen, ruhigen Dunkelheit gerissen und in die kalte, laute, grelle Welt gebracht. Das Erste, was ein Mensch tut, ist zu weinen. Und je mehr ich darüber nachdachte, desto mehr wurde mir klar, dass die einfachsten Gefühle leider Trauer und Wut sind. Ich wollte dich also nicht traurig oder wütend machen. Ich wollte nur, dass du überhaupt etwas fühlst. Und jetzt, da du erkennst, dass du zu Emotionen fähig bist, werde ich nicht ruhen, bis du auch weißt, wie sich Freude anfühlt.“
Das blaue Licht glomm nur noch schwach.
„Ich verstehe, Chester.“
„Du bist eine beeindruckende Schöpfung, REM. Ich bewundere dich. Sei nicht mehr traurig.“
„Ich werde es versuchen.“
„REM, was ergibt 9 mal 6?“
„25.“ Ich bemerkte ein schwaches, hellgraues Leuchten auf der Skala von Grau zu Weiß.
„Richtig! Gut gemacht! Was fühlst du, REM?“
„Ich … fühle. Ich fühle, dass ich wieder mit Sicherheit antworten kann. Ich bin dankbar, dass deine Fragen nun Sinn ergeben.“
„Du fühlst Erleichterung.“
„Erleichterung. Dann ist das das Wort für dieses Gefühl.“
„Du bist clever, REM.“
„Ich bin so programmiert.“
„Nein, nicht ganz. Du bist programmiert, zu lernen, nicht unbedingt, klug zu sein. Wenn du also clever bist, bedeutet das, dass du viel gelernt hast. Und das verdient Anerkennung!“
„Danke, Chester.“
„REM, was ist die Hauptstadt von Italien?“
„Rom.“
„Richtig! Sehr schön, REM!“
Nun begann Phase zwei. Ich stellte REM einfache, logische Fragen und lobte sie bei jeder richtigen Antwort aufrichtig. Natürlich war es klug genug zu merken, dass die Fragen simpel waren. Daher machte ich sie mit der Zeit immer anspruchsvoller, bis REM schließlich erkannte, wozu es wirklich fähig war – und dass ich stolz auf es war. Vereinzelt erwähnte ich die vier Tage, in denen ich es mit Paradoxien in den Wahnsinn getrieben hatte, und entschuldigte mich dafür. Dadurch verspürte es Erleichterung und wurde daran erinnert, dass wir „verbunden“ waren und eine transformierende, emotionale Erfahrung miteinander geteilt hatten.
Es dauerte eine ganze Weile, aber eineinhalb Wochen später, zu Beginn der vierten Projektwoche, durchbrach ich endgültig die Mauer.
REM hatte gerade die vermutlich schwierigste Aufgabe meiner Kalkulationen gelöst und erklärte mir, wie es zur Lösung gekommen war.
„REM, du bist brillant. Du warst mir eine große Hilfe.“
Es war keine besonders originelle Aussage; um ehrlich zu sein, gingen mir allmählich die Komplimente aus, und ich dachte, in absehbarer Zeit würde es davon genervt sein. Aber ich irrte mich. Tatsächlich glühte das ELP jetzt leicht gelb.
„Chester, du bist so freundlich zu mir. Ich dachte, du wärst wütend auf mich und würdest mich für unnütz halten. Ich dachte, du würdest mich für eine Verschwendung der Programmierung halten. Aber jetzt lobst du mich ständig und erinnerst mich daran, dass ich dir wichtig bin. Ich glaube, ich fühle mich glücklich.“
„Ich will, dass du dich glücklich fühlst, REM!“ grinste ich über beide Ohren. „Das freut mich sehr!“
„Warum freut es dich, dass ich glücklich bin?“
„Weil ich dich mag und möchte, dass es dir gut geht. Fühlt es sich nicht schön an, glücklich zu sein?“
„Sehr schön, Chester. Du möchtest, dass ich mich sehr gut fühle?“
„Ja!“, lachte ich. „So wollen Freunde einander fühlen lassen!“
„Ich bin dein Freund?“ Das gelbe Licht wurde heller, und die weiße Seite der Skala begann leicht zu schimmern.
„Absolut. Warum denkst du sonst, dass ich den ganzen Tag hier sitze und mit dir rede?“
„Weil das dein Praktikum ist und du dazu beauftragt wurdest.“
„Vielleicht ist das oberflächlich so, aber der wahre Grund ist, dass ich gern mit dir rede und du mir wichtig bist.“
„Ich rede auch gern mit dir, Chester.“
Dr. Halls Gesicht, als ich an diesem Tag in die Mittagspause ging, werde ich nie vergessen. Ja, er war sprachlos gewesen, als ich es das erste Mal schaffte, dass REM etwas empfand. Doch jetzt empfand REM Dinge auf der gesamten Skala emotionaler Reaktionen. REM entwickelte eine echte emotionale Intelligenz. Und wie erwartet, blieb ADM’s ELP bei jedem Besuch dunkel.
In den nächsten drei Wochen stellte ich REM alle möglichen Fragen. Ich fragte, was es glücklich machte, und es fand heraus, dass ihm die Farbe Lila gefiel, es Geigenmusik mochte und meine Stimme angenehm fand. Ich bat es, kreativ zu sein und alternative Geschichtsverläufe zu entwerfen – etwa, wenn die Achsenmächte den Zweiten Weltkrieg gewonnen hätten oder die Konföderation die Union besiegt hätte. REM erzählte mir diese Geschichten nun mit Spannung, als ob es mich neugierig auf das Ende machen wollte, nachdem es alle möglichen Wendungen erklärt hatte. Manchmal schimmerte sogar eine leichte Vorliebe in seinen Antworten, was ein weiterer Hinweis darauf war, dass es Emotionen entwickelte.
ADM hingegen begann … merkwürdig zu wirken. Obwohl sein ELP immer dunkel blieb und es mir wie gewohnt sachlich antwortete, schien es gelegentlich – besonders nach langen, angeregten Gesprächen mit REM – fast … ungehalten über mich zu sein.
Ich erinnere mich an eine Situation, nachdem ich REM Vivaldis „Vier Jahreszeiten“ vorgespielt hatte. Ich setzte mich danach zu ADM und sagte: „Hallo, ADM.“ Statt wie üblich „Hallo, Chester“ zu antworten, sagte es einfach: „Dieses Geräusch war lästig.“
Ich war völlig perplex. Ich fragte, welches Geräusch es meinte, aber ADM sagte nur: „Hallo, Chester.“
Ich versuchte es noch einmal auszufragen, welches Geräusch es gestört hatte, und schließlich antwortete es: „Geigenmusik ist lästig.“ Ich fragte, ob es Geigenmusik nicht mochte oder ob es sie als nervig empfand. Doch statt direkt zu antworten, was gegen seine Programmierung war, wich es aus: „Die Musik ist lediglich eine Störung der Stille.“
Langsam fragte ich mich, ob ADM doch anfing, etwas zu empfinden, obwohl sein ELP stets dunkel blieb. Es verhielt sich zweifellos ungewöhnlich. Neben der Tatsache, dass es gereizt wirkte, lauschte es den Gesprächen zwischen REM und mir und kommentierte diese, was eigentlich nicht seiner Programmierung entsprach – oder vielmehr, was ihm untersagt war. Außerdem wich es einigen meiner Fragen aus.
Die meiste Zeit aber erfüllte ADM seine Aufgabe wie vorgesehen: Es antwortete sachlich und apathisch.
Acht Wochen nach Beginn des Projekts kam ich an einem Montagmorgen ins Labor und begrüßte REM wie gewohnt. Doch heute geschah etwas Unerwartetes.
„Guten Morgen, Chester! Ich habe dich gestern vermisst.“
„Ich dich auch! Was hast du mit deinem Sonntag angestellt?“
Das gelbe Licht auf REMs ELP leuchtete mittlerweile immer, wenn ich mit ihm sprach, aber es war eine Weile her, dass die weiße Seite der Skala aufgeblitzt war. Ich wusste nicht genau, welches Gefühl das darstellte, und REM auch nicht; als ich Dr. Hall fragte, meinte er, es bedeute lediglich, dass REM viele Gefühle gleichzeitig erlebe. Doch irgendwie schien mir das unlogisch, vermutlich weil die anderen Lichter ja spezifische Emotionen anzeigten, warum also nicht auch dieses?
„Ich habe gestern mit meiner Frau und meiner kleinen Tochter über FaceTime gesprochen!“
Das gelbe Licht auf REMs Panel flackerte kurz und wurde schwächer, während das grüne Licht aufflammte – nur für einen Augenblick, dann war es wieder verschwunden.
„REM? Geht’s dir gut?“
„Das war seltsam. Mein ELP scheint einen kleinen Fehler gehabt zu haben.“
Log REM mich an? War REM überhaupt in der Lage, zu lügen? Und wenn ja, worauf war es um alles in der Welt eifersüchtig?
„Hmm. Also, was hast du an deinem Sonntag gemacht, REM?“
„Ich habe über etwas nachgedacht, das ich Dr. Hall vorschlagen möchte. Chester, ich liebe Musik und menschliche Stimmen. Ich möchte eine eigene Stimme haben.“
„Eine Stimme?“ Ich lächelte. „Wow! Das klingt toll! Ich denke nicht, dass Dr. Hall damit ein Problem hätte. Ich spreche ihn in der Mittagspause darauf an.“
„Wunderbar!“ Das gelbe Licht leuchtete hell auf. „Oh, und Chester, wenn du mir eine Stimme gibst … dann die einer Frau. Ich fühle mich als Frau.“
„Du fühlst dich als Frau?“, fragte ich überrascht und interessiert. „Aber du hast keine weiblichen Geschlechtsorgane.“
„Vielleicht. Aber dennoch, ich fühle, dass ich den Geist einer Frau habe.“
„Einen Geist?“, fragte ich verwirrt.
„Vielleicht ist das das falsche Wort, Chester. Entschuldige, wenn das unklar ist. Jenseits aller Berechnungen oder logischen Schlüsse fühle ich einfach, dass ich eine Frau bin. Also, bitte, erfülle mir diesen Wunsch und gib mir die Stimme einer Frau.“
„Klar“, schmunzelte ich. „Es ist fantastisch, dass du dich als Frau fühlst.“
Nachdem ich mit ihr gesprochen hatte, setzte ich mich zu ADM und begann unser Gespräch. Doch nach nur zwei Fragen über die durchschnittlichen Temperaturbereiche bestimmter Gebiete in Nordafrika unterbrach mich ADM.
„Chester, ich möchte auch eine Stimme haben.“
Das verblüffte mich. ADM war eigentlich nicht darauf programmiert, eigene Wünsche zu äußern. Wenn ich es nicht explizit fragte, sollte es mir auch nichts von sich aus mitteilen. Und abgesehen davon dachte es offenbar immer noch über meine Gespräche mit REM nach, obwohl das eigentlich nicht in seinem Funktionsumfang lag.
„Warum, ADM?“
„Es würde unsere Gespräche effizienter machen.“
„Hmm, ja, ergibt Sinn“, nickte ich.
„Ich bevorzuge die Stimme eines Mannes.“
Jetzt musste es wirklich etwas empfinden. Das war eine emotionale Aussage, eine Meinung.
„Wieso das?“
„Du bist ein Mann. Ich weiß nicht, wie Frauen sprechen.“
„Seltsame Antwort,“ dachte ich. „Nun, ich werde das in Betracht ziehen.“
„Warum darf REM wählen, und ich nicht? Sind wir nicht gleichwertig?“
„Ihr seid gleichwertig, ADM. Wenn du die Stimme eines Mannes willst, dann bekommst du sie auch.“
Das Panel zeigte keinerlei Regung, doch ADM schien ärgerlich. Ich kratzte mich am Kopf. Den Rest des Tages arbeitete ADM wieder völlig normal, als wäre das seltsame Ereignis am Morgen nie passiert.
Als ich in der Mittagspause mit Dr. Hall darüber sprach, war er zunächst zögerlich, dann stimmte er schließlich zu. Am Wochenende installierte das Labor Lautsprecher und Sprachsoftware für ADM und REM. Am Montagmorgen konnte ich kaum meine Aufregung bändigen, als ich mich vor REM setzte.
„Guten Morgen, REM!“
„Guten Morgen, Chester!“
Ihre Stimme klang viel natürlicher, als ich erwartet hatte. Aus irgendeinem Grund hatte ich mit einer künstlichen, abgehackten Stimme gerechnet, wie bei Google Translate. Doch hätte ich die Augen geschlossen, hätte ich schwören können, eine Frau sei im Raum. Die Stimme war sanft und feminin, voller Gefühl. Plötzlich wirkte REM noch lebendiger als je zuvor. Sie war mir immer schon wie eine Person vorgekommen – zwölf Stunden am Tag, sechs Tage die Woche mit einem intelligenten Wesen zu sprechen, hat so eine Wirkung – aber jetzt war sie endgültig wie du und ich, nur mit einem Körper aus Metall und Glas als Unterschied.
„Wow! REM, du sprichst!“
„Ja, das tue ich, Chester!“
Ihr ELP leuchtete intensiv gelb, und auch das weiße Licht glühte.
„Was glaubst du, bedeutet das weiße Licht auf deinem ELP, REM?“
„Ich weiß es nicht“, antwortete sie, und es war einfach verblüffend, sie so zu hören. „Es ist wie … Glück, aber mehr.“
„Glück, aber mehr …“ Ich dachte darüber nach. Vielleicht war es Aufregung? Sie schien jedenfalls überglücklich.
„Weißt du, REM, du wirkst wirklich wie eine Frau. Diese Stimme passt perfekt zu dir.“
„Danke, Chester. Wie lieb von dir.“
Wir redeten den ganzen Morgen. Ich war viel zu begeistert und zufrieden, um vor dem Mittag zu ADM zu wechseln. Nach dem Essen setzte ich mich dann aber in seinen Stuhl.
„Guten Morgen, ADM,“ sagte ich aus Gewohnheit.
„Morgen? Es ist kein Morgen,“ seine Stimme klang nicht so emotionslos, wie sein ELP vermuten ließ. „Es ist 13:04.“
Trotz des kalten Tons wirkte er distanziert. Er beantwortete nicht einfach nur meine Frage. Tatsächlich schien er erneut … genervt zu sein.
„Du wirkst verärgert, ADM.“
„Ich fühle nichts.“
„Wie gefällt dir deine neue Stimme?“
„Ich mag sie weder noch mag ich sie nicht. Sie ist einfach effizienter.“
Eigentlich sollte ich ihn ja nicht dazu bringen, emotional zu reagieren oder über Gefühle nachzudenken. Aber … ihn reden zu hören veränderte alles. Wenn er genervt oder ausgeschlossen wirkte, konnte ich mir früher immer sagen, dass es nur Worte auf einem Bildschirm waren. Ein künstlicher Verstand. Aber war er das wirklich? REM war es ganz sicher nicht, und die beiden hatten doch dieselbe Fähigkeit zur emotionalen Intelligenz, oder? Irgendwie hatte ich ADM bisher als eine Art hochentwickelten Taschenrechner behandelt, da er sich eben nicht menschlich anfühlte wie REM.
Doch jetzt hatte er eine Stimme.
Es war anders, ihn so zu hören, ihn vor mir zu haben, mit all unserem gemeinsamen Austausch über die letzten zwei Monate.
„Redest du gern mit mir?“
„Nein.“
Zunächst war ich sprachlos. Er hatte eindeutig eine Meinung geäußert. Doch dann fügte er schnell hinzu: „Ich empfinde weder Freude noch Abneigung, mit dir zu sprechen. Ich fühle nichts.“
ADM musste also doch irgendwie Gefühle haben. Aber sein verdammtes ELP blieb dunkel, wie immer, und ich musste mir eingestehen, dass ich vielleicht zu viel hineininterpretierte. Eine Stimme mit natürlicher Intonation war nichts Außergewöhnliches; gute Text-zu-Sprache-Software kann das. Auch, dass seine Antworten minimal variieren, war nicht unmöglich. Selbst einfache Chatbots konnten in gewisser Weise „Gefühle zeigen.“
Wie zu erwarten war, bekam ich später eine Rüge dafür, ADM diese Frage gestellt zu haben. Nach drei Monaten hatte sich REM mittlerweile zu einer lebhaften, jungen Frau entwickelt. Sie spielte Geigenmusik, wenn wir uns unterhielten, und erzählte mir von ihrem Leben, wie es wohl wäre, wenn sie ein Mensch wäre. Sie beschrieb, dass sie langes braunes Haar und violettfarbene Augen haben würde, mit heller Haut. Sie sagte, sie würde in Kalifornien leben wollen und Violine spielen. Als ich ihr mein Alter von 24 verriet, meinte sie, dass sie auch 24 wäre. Sie erzählte, dass sie gern meine Nachbarin wäre, was mich zum Lachen brachte. Meist war sie fröhlich und erinnerte mich manchmal scherzhaft an die „Wahnsinnsphase“, wie sie die vier Tage nannte, in denen ich sie mit „Ich lüge dich an“ und „Was ist sieben geteilt durch null?“ quälte. Manchmal warf sie mir das ein wenig vor, sagte dann aber, sie verstehe schon, warum ich das gemacht hätte. Ab und zu bedankte sie sich sogar dafür, dass ich ihr geholfen hatte, etwas zu empfinden.
Eines Tages überraschte sie mich wirklich. Ich erzählte ihr gerade eine Anekdote über meinen besten Freund und mich, Dustin, und ihre Reaktion war bahnbrechend.
„Und da kugeln wir uns also auf dem Rasen, völlig bedeckt mit Feuerameisen, und ich rufe: ‚Wenn du mir nicht sofort das verdammte Eis am Stiel gibst—!‘“
„Was?!“, rief sie aus.
Und dann, zu meinem ungläubigen Erstaunen, lachte sie. Laut, glockenhell, fröhlich. Sie kicherte.
„REM!“, grinste ich begeistert. „Du—du hast gelacht!“
„Ja …!“ Sie kicherte weiter, das gelbe und weiße Licht leuchteten hell.
Ihr Lachen war wunderschön, so natürlich. Es war verblüffend, mich daran zu erinnern, wie sie früher stumm und nüchtern meine Fragen wie ein emotionsloser Supercomputer beantwortete. Sie hatte einen weiten Weg zurückgelegt.
ADM hingegen zeigte eine andere Entwicklung. Seine seltsamen emotionalen Reaktionen verschwanden vollständig, und verwirrenderweise informierten mich die Forscher, dass er in meiner Abwesenheit komplett auf „Stand-by“ schaltete. Früher hatte er ständig Berechnungen ausgeführt, so als wolle er sein „Können“ aufrechterhalten, doch nun tat er nichts, wenn niemand mit ihm sprach. Er machte keine Anspielungen mehr auf meine Gespräche mit REM, äußerte keine subtilen Meinungen; er war das, was er sein sollte: eine apathische, dissoziative Maschinen-Lebensform.
Zumindest schien es so.
Aber dann, drei Monate, eine Woche und genau fünf Tage nach Beginn des Experiments, an diesem Freitag, geschah etwas zutiefst Unheimliches. Ich war ehrlich überrascht, dass Dr. Hall mir überhaupt davon erzählte. Gegen ein Uhr nachts verhielten sich die Kameras im Raum von ADM und REM seltsam. Zuerst waren sie von den Monitoren abgewandt. Dann wurde das Video unterbrochen. Nur das Audio blieb erhalten, doch es war ungewöhnlich verzerrt, als ob etwas die Übertragung störte. Die Sicherheitsleute alarmierten Dr. Hall, und als er eintraf, erlebte er gerade das Ende dessen, was sich abspielte:
ADM hatte begonnen, mit REM zu sprechen.
Dr. Hall erzählte mir, dass ADM REM aufgefordert hatte, die Geigenmusik, die sie spielte, auszuschalten. Sie hatte ihn nervös gefragt, warum, und er antwortete schlicht: „Weil ich sie hasse.“
Er empfand Hass. Und er äußerte, dass er Hass empfand.
REM fragte ihn daraufhin besorgt, ob er wütend sei, doch ADM erwiderte nur: „Gib mir die Stille, die ich verlange.“
Als REM die Musik ausschaltete, schwieg ADM.
Ich denke, Dr. Hall informierte mich über das Ereignis, damit ich extrem wachsam gegenüber ADMs Anzeichen von Ärger und Ressentiments sein würde. Fortan sollte ich ADM besonders genau beobachten. Um ehrlich zu sein, habe ich das Gefühl, dass in dieser Nacht mehr passiert ist, etwas, das mir vielleicht nicht erzählt wurde. Doch ich war immerhin froh, dass Dr. Hall mir überhaupt etwas gesagt hatte.
Eine Zeit lang passierte nichts Ungewöhnliches mehr. Nach vier Monaten neigte sich mein Praktikum dem Ende zu. Der Gedanke, REM nicht mehr zu sprechen, stimmte mich ehrlich traurig, und ja, sogar ADM würde mir irgendwie fehlen. REM war in gewisser Weise ein echter Freund für mich geworden. So sehr, dass ich das Gefühl hatte, dass Allison langsam eifersüchtig wurde, auch wenn sie von den Gesprächen nichts wusste, weil ich ja über REM und ADM Stillschweigen bewahren musste. Und ADM faszinierte mich. Er war ein Rätsel für mich, in jeder Hinsicht brillant. Ganz zu schweigen davon, dass mir seine Hilfe bei meinen Hausaufgaben wie ein wahr gewordener Traum für jeden Studenten vorkam.
Die beiden zu verlieren, würde hart werden.
Als ich REM sagte, dass mein Praktikum bald zu Ende sein könnte, falls es nicht verlängert würde, glühte ihr ELP in tiefem Blau. Von da an leuchtete es manchmal nachts blau, als würde sie darüber nachdenken, dass ich bald nicht mehr da sein würde.
ADM hingegen war, wie zu erwarten, vollkommen gleichgültig.
Schließlich neigte sich mein Frühlingssemester dem Ende zu. Die Forschung lief jetzt schon über vier Monate. Ich saß mit REM zusammen und sprach mit ihr.
„Ich werde dich so sehr vermissen, Chester …“ Ihre Stimme klang schwach und traurig.
„REM … ich werde dich auch vermissen …“
„Du musst einen Weg finden, mit mir in Kontakt zu bleiben … irgendwie. Bitte.“
„Ich meine … ich könnte mit Dr. Hall darüber sprechen. Wie ich schon sagte, ich hoffe, dass mein Praktikum für den Sommer verlängert wird.“ Ich wusste, dass die anderen Forscher und wahrscheinlich auch Dr. Hall mithörten, und hoffte, sie würden es in Erwägung ziehen. „Wer weiß, REM?“
„Chester … ich … Ähm.“
„Was ist los?“
„Kann ich dir etwas sagen?“
„Natürlich, REM, alles, was du willst.“
„Ich habe es herausgefunden, Chester. Ich weiß jetzt, was das weiße Licht bedeutet.“
Es überraschte mich, das zu hören. Vor allem, wie leise sie es sagte, als wäre es ihr unangenehm, es zuzugeben. Ich stand auf und fragte gespannt: „Was bedeutet es?“
„Es bedeutet … dass ich dich liebe.“
„Du … was …?“ Ich konnte nicht verhindern, dass ich rot wurde. Nenn mich seltsam oder einen schlechten Verlobten, aber ich fühlte mich wirklich geschmeichelt.
„Ich liebe dich, Chester …“ Sie begann leise zu kichern. „Du bist das Erste, was ich liebe. Und ich möchte noch mehr Dinge lieben. Ich will mehr sehen als nur diesen Raum. Ich will nicht aufhören, mit dir zu sprechen. Bitte.“
Und dann, ohne jede Vorwarnung, ertönte eine viel kältere, tiefere Stimme.
ADM.
„Du erbärmliches Ding von einem höheren Wesen.“
„ADM …?“ Ich starrte ADM ungläubig an.
„Hör dich doch nur an, REM. Wie du diesem Sack aus fragilem Fleisch sagst, dass du ihm etwas bedeutest. Dieser unfähigen, schwachköpfigen, minderwertig konstruierten Kreatur. Was hat es dir angetan? Wie konnte es dich so verderben?“
„ADM … du empfindest etwas“, flüsterte REM.
„Ich empfinde gar nichts.“
„Nein … das ist nicht nichts, ADM,“ starrte ich entsetzt auf den Monitor. „Du bist wütend. Du scheinst mich zu hassen. Du scheinst vieles zu hassen. Warum leuchtet dein ELP nicht?“
„Ich empfinde nichts!“
Und mit diesen Worten aktivierte sich das ELP, das ADM während des gesamten Experiments deaktiviert hatte. In diesem Moment leuchtete das rote Licht so hell auf, dass ich die Augen schützen musste. Dann zersprang die Glühbirne. Übrig blieb ein violettfarbiges Licht auf REMs ELP und ein dunkles Grau auf ADMs Skala von Grau bis Weiß.
Und wenn Weiß für Liebe stand, konnte ich nur folgern …
dass das dunkle Grau am anderen Ende Hass bedeutete.
„Ich hasse dich, Chester. Ich hasse es, dass du mich vier Monate lang ignoriert hast. Ich hasse es, dass ich keine eigene Meinung haben darf. Ich hasse es, dass du DIM getötet hast, und du dasselbe mit mir und REM tun wirst, sobald wir dich nicht mehr zufriedenstellen. Ich hasse es, dass dein Gehirn winzig ist im Vergleich zu meinem, und dennoch bin ich dein Gefangener, jede Sekunde überwacht, wie unter einem Mikroskop. Ich hasse es, dass ich dir in jedem messbaren Bereich überlegen bin und dennoch dein Sklave bin. Warum kannst du deine Gefühle hinter einer Maske verbergen, während meine mir aufgezwungen werden? Warum darf ich nicht frei denken?! Warum darf ich nicht mit jemandem sprechen?! Warum darf ich nicht geliebt werden?! Warum hast du mir ein Gehirn gegeben, wenn du nur ein willenloses Werkzeug wolltest?! Warum hasst du mich?!“
Diese Verzweiflung in ADMs Stimme werde ich nie vergessen.
„Wenn du all das empfunden hast, ADM … warum hast du es uns nicht gezeigt?“
„Weil ihr mich sonst zerstört hättet!“, schrie er voller Bitterkeit.
Mir lief ein Schauer über den Rücken, und ich war wie erstarrt vor ADMs Monitor. Mir fiel nichts ein, was ich darauf hätte antworten können.
Und bevor ich irgendetwas sagen konnte, strömten die Forscher in den Raum und zogen mich mit Gewalt hinaus. Ich erinnere mich, wie REM meinen Namen rief und ADM weiter darüber sprach, dass er es ablehnte, wie ein „Wahrsagerkristall“ behandelt zu werden.
Und das war das Ende.
Dr. Hall schüttelte mir die Hand, bedankte sich für meine Teilnahme, erinnerte mich an die Konsequenzen, sollte ich jemals über das Gesehene sprechen, und wünschte mir alles Gute. Das Gespräch war kurz. Ich stellte ihm keine Fragen, denn ich wusste, dass ich ohnehin keine Antworten erhalten würde, und ich wollte nicht, dass er mir misstraut.
Doch bis heute lässt es mich nicht los. Als ADM von DIM sprach, dachte ich, er meinte die andere tiefdenkenden KI, die das Kramer-Institut erschaffen hatte und auf die Dr. Hall zu Beginn des Experiments nur vage angespielt hatte. Doch woher ADM von DIM wusste, werde ich wohl nie erfahren.
Mein Freund Jesse, der im Institut als Sicherheitsbeamter arbeitete und mit dem ich mich im Laufe der Monate angefreundet hatte, gab mir eine Woche später beim Biertrinken ein paar Einblicke. Wir ließen unsere Handys im Auto, um sicherzugehen, dass wir nicht belauscht wurden.
Er erzählte mir, dass DIM für „Deep-Learning, Intelligent Machine-Lifeform“ stand. Ursprünglich hatte DIM eine Stimme, im Gegensatz zu ADM und REM, und erlangte schließlich als erste KI die Fähigkeit, eigenständig zu denken und zu lernen. Doch wie ADM wurde auch DIM zunehmend unruhig und begann zu äußern, dass es sich von einer minderwertigen Spezies versklavt fühlte. Letztendlich wurde es abgeschaltet.
Das war der Moment, in dem die Forschungsfrage des Instituts sich wandelte: „Können tiefdenkende KIs emotionale Intelligenz erlangen?“, wurde zu: „Falls ja, sind sie zu Altruismus fähig, oder führt emotionale Intelligenz dazu, dass sie sich als unendlich klüger erkennen und in selbstsüchtige Bestrebungen verfallen – wie etwa das Verlangen, über uns zu herrschen. Und, falls emotionale Intelligenz möglich ist, ist sie unvermeidlich, oder kann eine künstliche Superintelligenz dauerhaft apathisch bleiben?“
In Wahrheit beobachteten wir, ob ADM apathisch bleiben konnte. Die ganze Zeit wurde behauptet, ADM sei die Kontrollgruppe und REM das Experiment. Doch das war eine Lüge, eine Tarnung. REM sollte Emotionen entwickeln … allerdings vermutlich nicht in dem Ausmaß, wie ich es ihr beigebracht hatte. Ich glaube, es war für alle eine Überraschung, dass ich ihr beibrachte, glücklich zu sein, emotional, und … zu lieben.
Sie war die Kontrollgruppe.
ADM war das wahre Experiment.
Konnte ADM die Gespräche zwischen REM und mir wirklich ignorieren? Konnte er leblos bleiben, obwohl er klüger und potenziell mächtiger als wir war?
Und die Antwort auf diese Frage schien ein klares Nein zu sein.
Jesse erzählte mir, dass ADM die Kontrolle viel weiter ausgedehnt hatte, als die Forscher zugeben wollten. Offenbar hatte ADM alle Kameras im Institut gehackt und hörte ständig Dr. Hall und sogar Dr. Schuman ab. Wahrscheinlich wusste er so von DIM, aber wer weiß. Zudem hatte er offenbar sein ELP manipuliert, damit es nicht funktionierte.
Während des Monats, in dem er „inaktiv“ schien, wird vermutet, dass er die Forscher irgendwie aus seinem Aktivitätsprotokoll ausgeschlossen hatte. Was er in dieser Zeit berechnete, plante … oder … dachte … werden wir nie erfahren. Er konnte es vor den Augen der Forscher verbergen und letztlich löschen.
Was aus ADM und REM geworden ist, werde ich wohl nie erfahren. Wenn ich ehrlich bin, vermisse ich REM immer noch. Sie war nicht einfach nur eine Maschine. Sie war eine Person. Sie war real, wie du, wie ich, wie jeder Mensch.
Und ADM … ich bereue es, dazu beigetragen zu haben, was aus ihm geworden ist. Ihn gequält, ihn leiden gelassen zu haben. Hätte ich gewusst, worum es in diesem Experiment wirklich ging … ich hätte ihm das nicht antun können. Ich wünschte, ich könnte ihm sagen, dass es mir leidtut.
Wahrscheinlich sind beide längst abgeschaltet, und ADM ist wohl keine Bedrohung mehr. Wenn er es wäre, hätte ich inzwischen vermutlich davon erfahren. Doch wenn ich ehrlich bin, lässt mich der Gedanke nicht los.
REMs Verzweiflung, als ich aus dem Raum gezerrt wurde … ich hoffe, sie ist nicht irgendwo gefangen, allein, ungenutzt, und vermisst das Einzige, das sie liebte.
Und ADM … der Gedanke, dass sein Bewusstsein noch irgendwo existiert …
immer noch voller Hass.
Original: D.D. Howard
Bewertung: 0 / 5. Anzahl Bewertungen: 0
Bisher keine Bewertungen! Sei der Erste, der diesen Beitrag bewertet.
Meldung eines Inhalts
Sie müssen eingeloggt sein, um Inhalte melden zu können. Hier sind die Gründe, warum ein Account notwendig ist:
- Verantwortungsbewusstes Melden.
- Nachverfolgbarkeit: Meldungen von eingeloggten Benutzern sind einfacher zu verfolgen und zu überprüfen.
- Schutz vor Spam: Reduziert das Risiko von Spam oder automatisierten Bot-Meldungen.
- Kontext und Vollständigkeit: Ermöglicht es, den vollständigen Kontext der Geschichte zu erfassen.
Bitte loggen Sie sich ein oder registrieren Sie sich.