Interview mit Karl Olsberg
Während der Jugendbuchtage 2019, las Karl Olsberg aus seinem Buch "Boy in a white room". Wir haben die Chance genutzt um ihn zu interviewen.
Blaue Seite: Auf Ihrer Internetseite haben Sie alle Ihre Bücher aufgelistet. Dort findet sich alles von Fantasy über Minecraft-Romane bis hin zu Thrillern für Erwachsene ... Woher nehmen Sie die Inspiration für diese Vielfalt an Büchern?
Karl Olsberg: Da gibt es verschiedene Quellen. Das Erste und Wichtigste ist natürlich: Ich lese sehr viele verschiedene Bücher. Ich habe zu Hause im Bücherregal sehr viele Fantasy-Bücher, aber auch Science Fiction, die auf wissenschaftlichen Tatsachen beruht. Dann ganz normale Thriller, Krimis, auch viele Sachbücher.
Ich liebe es also, über die Dinge zu schreiben, die ich lese. Und dann gibt es ganz viele Dinge im Alltag, die mich inspirieren. Einmal bin ich durch die Straßen von Karlsruhe gegangen und hatte den Gedankenblitz: Was wäre, wenn hier plötzlich eine Atombombe explodieren würde? Ich habe keine Ahnung, wo der Gedanke herkam. Aber er war ziemlich spektakulär, wie man sich vorstellen kann, und daraus habe ich ein Buch gemacht. Oft sind es aber viel banalere Dinge. Fragen, die mich schon lange beschäftigen, wie: Was ist eigentlich Realität?
Blaue Seite: Welches Genre schreiben Sie am liebsten?
Karl Olsberg: Ich schreibe hauptsächlich Thriller für Erwachsene und für Jugendliche. Ich schreibe gerne spannende Geschichten. Ich habe mich auch schon an Liebesromanen versucht, aber das war nicht meins. Ich lege mich da nicht fest.
Blaue Seite: Sie haben letztens ein neues Buch veröffentlicht: „Girl in a Strange Land“. Das Coverdesign ist dem von „Boy in a White Room“ sehr ähnlich. Uns ist aufgefallen, dass die beiden Gesichter auf den Covern zu einander passen, wenn man die Bücher nebeneinanderlegt: Hat das einen Sinn?
Karl Olsberg: Ja, erst mal ist das eine tolle Idee, die nicht von mir ist, sondern von dem Grafiker, der diesen Bucheinband gestaltet hat. Ich finde das super, weil es zeigt, dass diese beiden Bücher zusammengehören. Beide Geschichten, die auf den ersten Blick sehr unterschiedlich sind, haben doch ein gemeinsames Thema: die Frage, was Wirklichkeit ist und wie man diese Wirklichkeit verzerren kann. Nämlich durch falsche Geschichten oder eben durch virtuelle Realität. Insofern erleben sie beide das gleiche aus einer unterschiedlichen Perspektive.
Blaue Seite: Könnten Sie sich vorstellen, dass die Situationen in diesen Büchern irgendwann Realität sein werden?
Karl Olsberg: Ja, leider kann ich mir das vorstellen. Natürlich nicht wörtlich, ich bin kein Prophet. Und meistens kommt es doch anders, als man denkt.
Aber Szenarien, in denen wir nicht mehr unterscheiden können, was Wirklichkeit ist und was nicht, erleben wir jetzt ja schon. Das wird natürlich, je weiter sich die Technik entwickelt, umso „schlimmer“. Es wird immer schwieriger für die Menschen werden, zwischen Fake und Wahrheit zu unterscheiden. Wir müssen immer aufmerksamer werden und immer mehr über die Welt lernen. Und das ist ein bisschen gegenläufig. Eigentlich müssten wir viel mehr lesen, viel mehr uns selber bilden – deswegen finde ich eure Organisation auch so toll.
Tatsächlich passiert aber genau das Gegenteil: Gerade junge Leute lesen leider weniger Bücher.
Blaue Seite: Sie haben vor vielen Jahren über künstliche Intelligenz promoviert. Was gab es damals für Hoffnungen und Ängste bei diesem Thema?
Karl Olsberg: Was wir damals unter künstlicher Intelligenz verstanden haben, hat mit dem heutigen Verständnis relativ wenig zu tun. Das war im Prinzip der Versuch, menschliche Methoden der Problemlösung in eine Maschine zu übertragen – ein sehr großer manueller Aufwand.
Ich habe mich mit Expertensystemen beschäftigt. Ein Beispiel: Wenn man ein System zur Identifizierung von Krankheiten entwickelt hat, wurde alles, was der Arzt im Kopf macht, „Bei den Symptomen liegt möglicherweise folgende Krankheit vor und dann ...“, in harten Regeln codiert. Man sich damals davon versprochen, dass viele Dinge automatisiert werden können, die zu dem damaligen Zeitpunkt nur wenige Spezialisten konnten. Das hat auch funktioniert. Heute haben wir Expertensysteme in millionenfacher Form: von Fotokameras bis hin zu Autos oder Alexa. Niemand nennt es Expertensysteme oder künstliche Intelligenz, aber es ist de facto genau das.
Insofern haben sich die Hoffnungen einerseits erfüllt. Andererseits gibt es immer auch die Schattenseite: dass diese Systeme Dinge können, die nicht so vorteilhaft sind, zum Beispiel manipulieren. Das ist noch verhältnismäßig leicht zu überblicken, wenn alle Handlungen eines solchen Expertensystems per Regel vordefiniert sind. Dann kann man relativ gut überprüfen, wie es in einer bestimmten Situation reagiert. Aber heute haben wir künstliche Intelligenz, die selber lernt. Das ist total faszinierend, wenn man sich das jetzt anschaut – ich hoffe, ich rede jetzt nicht zu lange ...
B: Nein, das ist sehr interessant.
Karl Olsberg: Es gibt das Spiel „Go“, das als extrem schwieriges Spiel gilt. Von dem hat man lange Zeit geglaubt, dass es noch Jahrzehnte dauert, bis Computer das beherrschen. Weil es eben nicht mit simplem Vorausberechnen der Züge erfolgreich gespielt werden kann, sondern man so etwas wie Intuition und Kreativität braucht. Ich selber kann das nicht spielen, aber das bestätigt mir jeder, der gut „Go“ spielt. Man weiß intuitiv, wo man jetzt einen Stein hinsetzten muss, kann aber nicht erklären, warum. Dieses Spiel dann von einer Maschine beherrschen zu lassen, schien erst mal wie eine fast unlösbare Aufgabe.
Aber wie wir alle wissen, hat 2016 eine Maschine, nämlich Alpha Go, den weltbesten Spieler in „Go“ geschlagen. Wie war das möglich? Alpha Go hat sich ganz viele menschliche Go-Partien angeguckt und gelernt, wie Menschen „Go“ spielen. Dieses Wissen hat das System dann weiterentwickelt und war am Ende besser als der beste Spieler der Welt. Und das eigentlich Krasse daran ist, dass es von der gleichen Firma etwa ein Jahr später AlphaGo Zero gab. Dieses AlphaGo Zero hat AlphaGo in 100 von 100 Spielen geschlagen. Und das, obwohl man AlphaGo Zero überhaupt nichts über „Go“ beigebracht hat. Das System hatte keine einzige menschliche Go-Partie als Vorlage. Es kannte nur die Go-Regeln, also wo es einen Stein hinlegen darf und wo nicht und was passiert, wenn Steine umkreist sind und so weiter. Und nachdem es sich mit Versuch und Irrtum selber verschiedene Strategien zurechtgebastelt und gelernt hat, gegen sich selber zu spielen, ohne irgendeinen menschlichen Input, war es besser als sein Vorgänger, der den weltbesten Go-Spieler geschlagen hatte. Und der Knaller ist, wie lange es dafür gebraucht hat: drei Tage.
B: (lachen beeindruckt)
Karl Olsberg: Innerhalb von drei Tagen hat dieses Programm besser „Go“ spielen gelernt als das Programm, das den weltbesten Go-Spieler geschlagen hat. Dafür hat die Menschheit zweieinhalb tausend Jahre gebraucht, denn so lange gibt es dieses Spiel schon. Dabei ist natürlich ganz viel Wissen von Generation zu Generation weitergegeben worden, das dieses Programm alles komplett ignoriert hat. Erst einmal ist es natürlich toll, dass eine Maschine ganz von alleine so etwas lernen kann. Das Problem dabei ist aber, dass niemand weiß, warum AlphaGo Zero einen Stein an eine bestimmte Stelle setzt.
Genau das ist auch passiert bei dem Match gegen Lee Sedol, dem weltbesten Go-Spieler. Da gibt es eine Szene, ich glaube im dritten Spiel, da setzt das Programm einen Stein mitten in die Wildnis, also in eine ganz leere Fläche. Jeder Go-Experte schlägt die Hände über dem Kopf zusammen und sagt: „Das macht man doch nicht!“ Natürlich hat das Programm am Ende gewonnen.
Aber Lee Sedol hat minutenlang dagesessen und nicht gewusst, was er machen soll. Weil er überhaupt nicht verstanden hat, was dieser Zug bedeuten soll. Und die Gefahr heute ist, dass wir künstliche Intelligenzen, die wir heute bauen und denen wir Entscheidungen übertragen, nicht mehr verstehen. Wir haben keine Ahnung, wie die funktionieren – auch die Entwickler wissen das nicht. Sie kennen zwar die grundlegenden technischen Prinzipien, aber warum diese Intelligenzen bestimmte Entscheidungen treffen, ist völlig unklar.
Das führt natürlich dazu, dass diese Programme manchmal Dinge tun, die nicht gut sind. Zum Beispiel sollte ein Programm entscheiden, ob Straftäter in den USA auf Bewährung vorzeitig aus dem Gefängnis entlassen werden sollten. Dieses Programm wurde trainiert anhand von Fällen und Rückfallgeschichten und so weiter und so fort. Und dieses Programm hat am Ende dann Entscheidungen getroffen wie: „Ja, darf gehen“, „Darf nicht gehen“. Als man das am Ende analysiert hat, hat man festgestellt, dass das Hauptkriterium Hautfarbe war.
B: Oh!
Karl Olsberg: Das Programm war rassistisch. Das Programm wusste gar nicht, was Rassismus ist, also war das gar keine böse Absicht. Sondern es ist rassistisch geworden. Denn wenn man gewisse Statistiken betrachtet, stellt man Zusammenhänge zwischen der Hautfarbe und der Rückfallwahrscheinlichkeit fest – die natürlich überhaupt nichts mit der Hautfarbe zu tun haben, sondern mit dem Sozialmilieu, in dem viele Schwarze in den USA leben. Und trotzdem hat dieses Programm die Hautfarbe als Kriterium genommen.
Genau das ist die Gefahr: Wir wissen nicht, wieso diese Programme so entscheiden, wir überlassen ihnen aber Entscheidungen, die das Schicksal der Menschen beeinflussen. Und wenn die Chinesen sich rühmen, weltweit führend zu sein in künstlicher Intelligenz ...
B: Oh ja.
Karl Olsberg: … ist das natürlich einerseits eindrucksvoll. Dann bauen sie eines Tages so ein Punktesystem, wo eine künstliche Intelligenz im Zweifel entscheidet, ob du einen Punktabzug bekommst, nur weil du irgendetwas gemacht hast, was der KI nicht gefällt. Du weißt nicht mal warum, du kannst nicht mal dagegen klagen. Das wird einfach entschieden. Dann haben wir ein Problem.
B: Wie gehen Sie denn privat mit künstlichen Intelligenzen um – benutzen Sie so etwas? Benutzen Sie Alexa?
Karl Olsberg: Ich benutze nicht nur Alexa, ich entwickle auch Skills für Alexa. Ich stehe dem also gar nicht ablehnend gegenüber. Alexa ist im Übrigen ein viel geringeres Problem im Vergleich zu anderen Dingen, die wir so mit uns herumschleppen. Unser Smartphone ist viel gefährlicher.
Trotzdem kann man durchaus Einwände haben. Aber ich stehe eher auf dem Standpunkt, dass es keinen Sinn macht, zu sagen: „Die Technik ist schlecht, ich benutze sie nicht.“ Man muss sich mit der Technik auseinandersetzen und das kann man nur, wenn man sie aktiv nutzt. Man muss versuchen, die Technik besser zu machen.
Ein weiterer Weg, besser mit Technik umzugehen, liegt meiner Meinung nach in der Technik selber. Technik kann uns helfen, zu erkennen, was gut und was schlecht ist. Da gibt es jetzt schon erste Bestrebungen. Twitter versucht zum Beispiel Systeme einzubauen, mit denen ich erkennen kann, wo ein bestimmter Kommentar herkommt. Ist das eigentlich ein richtiger Twitter-User gewesen? Oder doch nicht? Ich finde es zum Beispiel einen Skandal, dass man auf Facebook eine Nachricht von einem Bot bekommen kann und Facebook mir nicht sagt, dass es ein Bot ist. Das müssen die doch wissen und da müsste doch eigentlich drunter stehen: „Das ist ein Bot.“. Dann würde natürlich kein Mensch mehr diese Nachricht ernst nehmen, aber das ist ja genau die Idee dabei.
Das heißt, Technik selber kann uns auch helfen, mit der Technik umzugehen. Autos helfen uns ja auch dabei, Auto zu fahren. Darauf freue ich mich übrigens sehr: wenn irgendwann diese Raserei aufhört und nur noch automatische Fahrzeuge auf den Autobahnen herumfahren.
B: (lachen)
Karl Olsberg: Das ist ganz toll. Maschinen können viel besser Auto fahren als Menschen, weil sie keine Gefühle haben. Gut, das ist jetzt auch wieder falsch – aber Maschinen müssen nicht unbedingt Gefühle haben und schon gar nicht beim Autofahren. Daran sieht man schon, dass künstliche Intelligenz überhaupt nicht negativ ist, sondern sie uns an ganz vielen Stellen helfen kann und wird.
B: Sie haben gerade die Emotionalität von Maschinen, also künstlichen Intelligenzen angesprochen. Also, ich persönlich kann mir jetzt vorstellen dass zukünftig Maschinen oder irgendwelche künstlichen Intelligenzen Emotionalität vorgaukeln können. Was halten Sie denn davon?
Karl Olsberg: Die können sie nicht nur vorgaukeln, sondern ich bin davon überzeugt, dass sie auch wirklich Gefühle empfinden können. Aber was sind denn das für Gefühle? Wenn man sich das beim Menschen mal logisch anschaut, dann heißt das, dass gewisse Neuronen im Gehirn feuern.
Das ist nichts anderes als 0 und 1, nur ein bisschen abgestufter. Wobei das natürlich eine materialistische Weltsicht ist, die man als religiöser Mensch nicht teilen muss. Wenn ich in der Lage bin, das zu simulieren, dann ist die große Frage: „Wenn ich Gefühle simulieren und zum Beispiel eine künstliche Intelligenz dazu bringen kann, zu leiden, also Schmerz zu empfinden: Wer sagt mir dann, dass das nicht wirklich echte Gefühle sind und dass dieses Wesen nicht wirklich leidet und dass es nicht eigentlich auch geschützt werden müsste?“ In anderen Worten, wir werden in absehbarer Zeit eine Diskussion führen, ob nicht Computerprogramme, die entsprechend komplex sind, Rechte brauchen.
B: (lachen)
Karl Olsberg: Und darüber schreibe ich gerade eine Geschichte. Ich glaube, dass diese Frage, ähnlich wie wir heute über Tierschutzrechte reden, in Zukunft hoch relevant sein wird. Ich meine, vor 200 Jahren hatten Schwarze keine Rechte. Dann haben wir irgendwann eingesehen, dass das auch Menschen sind, und haben mit diesem Quatsch aufgehört. Dann haben wir gemerkt: „Mensch, Tiere sind nicht nur Nutzlebewesen!“ Vielleicht haben wir irgendwann dieselbe Situation mit Maschinen. Das halte ich nicht nur für nicht ausgeschlossen, sondern für sehr wahrscheinlich. Wie die Diskussion dann ausgeht, ist eine andere Frage.
Blaue Seite: Sie haben angesprochen, dass Maschinen viele Sachen jetzt schon besser machen können als Menschen, zum Beispiel Auto fahren oder leichte Entscheidungen treffen und natürlich Zahlen zusammenrechnen. Irgendwann wird es wahrscheinlich die Möglichkeit geben, dass Maschinen höhere Führungspositionen einnehmen und Entscheidungen über Menschen treffen können, auch über große Menschenmengen. Sollte man da Ihrer Meinung nach eine Grenze ziehen, sollte man auch zwischen Maschine und Mensch auswählen, wer diese Position bekommt, oder ist das nicht notwendig?
Karl Olsberg: Das ist eine sehr schwierige Frage, denn natürlich ist die naheliegende Antwort einfach: Eine Maschine darf nie ein Gerichtsurteil fällen oder nie entscheiden, ob ein Mensch am Leben gelassen wird oder nicht. All solche Entscheidungen müssen von Menschen getroffen werden. Aber das sagt sich leicht.
Was ist denn, wenn ich Richter bin und zehn Fälle am Tag habe, die ich bearbeiten muss. Dann sagt mir eine künstliche Intelligenz: Der ist schuldig! Dann kann ich viel Zeit investieren, um herauszufinden, warum die das denkt und mich in den Fall hereinsteigern. Oder ich kann sagen, dass sie die letzten 30 Male richtiggelegen hat, also vertraue ich ihr jetzt. Wer trifft dann die Entscheidung, der Mensch oder die Maschine? Der Richter sagt genau das, was die Maschine ihm vorgibt.
Das ist heute schon in ganz viele Bereichen so. Zum Beispiel gibt es Maschinen, die in der Börse handeln, die sind viel schneller als Menschen. Schnelligkeit ist da ein wichtiger Erfolgsfaktor, also machen die Dinger, was sie wollen. Und das führt dann manchmal auch zu Kapriolen an der Börse mit dramatischen Einbrüchen, weil die Maschinen plötzlich alle gleichzeitig irgendwie beschlossen haben, aus dem Markt rauszugehen und dann ist die Börse zusammengebrochen.
Das sind natürlich Dinge, die man noch mitbekommt. Aber in ganz vielen Fällen ist einem das gar nicht mehr klar.
Einer meiner Erwachsenenromane, „Mirror“, beschäftigt sich genau damit. Was ist eigentlich, wenn wir einen kleinen Knopf im Ohr haben, der uns immer Vorschläge macht? Ich stelle fest, dass es jedes Mal cool und toll ist, wenn ich den Vorschlägen folge. Also richte ich mich immer mehr nach der Maschine. Aber was ist, wenn ich eines Tages feststelle, dass diese Maschine nicht das will, was ich eigentlich will? Wenn ich anfange, mich dagegen aufzulehnen? Und was, wenn die Maschine dann entscheidet, mein Lebensglück optimieren zu müssen? Eine Maßnahme könnte dann sein, mich von allen Leuten fernzuhalten, die diese Technik nicht nutzen. Genau das passiert in dem Roman und das hat natürlich keine schönen Folgen.
Solche Effekte basieren nicht darauf, dass die künstliche Intelligenz, wie in Terminator, dann beschließt, die Weltherrschaft zu ergreifen und Menschen zu erschießen. Das ist Quatsch. Das wird nicht passieren.
Eine viel größere Gefahr ist, dass wir selber sagen: „Maschine, du hast schon recht, du machst das schon.“ So wie bei Google: Wenn ich heute nach Lübeck fahre, denke ich ja nicht mehr nach. Und wenn Google sagt: „Fahr nach links“, dann fahre ich nach links. Das funktioniert auch super, bis es dann irgendwann mal schiefgeht. Leute wollen in ein Parkhaus fahren, landen aber im U-Bahneingang auf der Treppe, weil sie blind dem Navi vertrauen. Das passiert hin und wieder tatsächlich. Genau da liegt die Gefahr. Wir hören auf zu denken, weil die Maschinen es uns schön bequem machen.
Blaue Seite: Wie können wir als Menschen dafür sorgen, dass wir nicht aufhören, selbst zu denken, dass wir uns eine Meinung bilden, dass wir uns nicht beeinflussen lassen? Auch jetzt gerade?
Karl Olsberg: Ich glaube, der wichtigste Schritt dazu ist genau die Erkenntnis, dass wir dieses Problem haben. Dazu müssen wir hinter die Fassade schauen, und das wird immer schwieriger. Da gibt es verschiedenste Dinge, die man machen kann. Mit am wichtigsten ist, dass man nicht blind auf die Technik vertraut und sich auch mit alternativen Informationsquellen beschäftigt.
Ein ganz naheliegendes Beispiel: Wenn ich bei Twitter eine Sensationsnachricht bekomme, schaue ich vielleicht erst auf einer offiziellen Nachrichtenseite, ob das auch dort berichtet wird. Wenn ja, stimmt die Nachricht wahrscheinlich. Wenn nein, dann eher nicht. Außerdem gibt es spezielle Seiten, die ehrenamtlich betrieben werden, die genau solche Fake News überprüfen.
Es gab gerade ein sehr witziges Youtubevideo, einen Ausschnitt aus einer Westernserie aus den Fünfzigerjahren, in der ein Betrüger namens Trump den Leuten irgendwo in Texas eine Mauer verkaufen will. Man könnte glauben, da hat jemand Trump vorweggenommen, man könnte aber auch auf die Idee kommen, dass es ein Fake sein könnte. Tatsächlich ist es kein Fake. Es gab in den fünfziger Jahren wirklich diese Serie – und der Typ hieß auch wirklich Trump.
Blaue Seite: (lacht)
Karl Olsberg: Das Überprüfen kostet natürlich Zeit. Wenn man etwa drei Quellen vergleicht, dauert das eben länger, als wenn man nur auf Twitter reagiert.
Blaue Seite: Und jetzt unsere Abschlussfrage: Was stellen Sie sich unter einer blauen Seite vor?
Karl Olsberg: Ein leeres Blatt Papier, auf das man ganz viele tolle Sachen schreiben kann, denn ich habe gerade einen Brief auf blauem Papier geschrieben. Und das sogar mit der Hand, was selten passiert. Deswegen ist das für mich eindeutig ein Zeichen der Kreativität.
Blaue Seite: Sehr schön, danke für das Interview!
Karl Olsberg: Gerne!