Interview mit Karl Olsberg

Interview

Während der Jugendbuchtage 2019, las Karl Olsberg aus seinem Buch "Boy in a white room". Wir haben die Chance genutzt um ihn zu interviewen.

Blaue Seite: Auf Ihrer Internetseite haben Sie alle Ihre Bücher aufgelistet. Dort findet sich alles von Fantasy über Minecraft-Romane bis hin zu Thrillern für Erwachsene ... Woher nehmen Sie die Inspiration für diese Vielfalt an Büchern?


Karl Olsberg: Da gibt es verschiedene Quellen. Das Erste und Wichtigste ist natürlich: Ich lese sehr viele verschiedene Bücher. Ich habe zu Hause im Bücherregal sehr viele Fantasy-Bücher, aber auch Science Fiction, die auf wissenschaftlichen Tatsachen beruht. Dann ganz normale Thriller, Krimis, auch viele Sachbücher.

Ich liebe es also, über die Dinge zu schreiben, die ich lese. Und dann gibt es ganz viele Dinge im Alltag, die mich inspirieren. Einmal bin ich durch die Straßen von Karlsruhe gegangen und hatte den Gedankenblitz: Was wäre, wenn hier plötzlich eine Atombombe explodieren würde? Ich habe keine Ahnung, wo der Gedanke herkam. Aber er war ziemlich spektakulär, wie man sich vorstellen kann, und daraus habe ich ein Buch gemacht. Oft sind es aber viel banalere Dinge. Fragen, die mich schon lange beschäftigen, wie: Was ist eigentlich Realität?


Karl Olsberg: Ja, erst mal ist das eine tolle Idee, die nicht von mir ist, sondern von dem Grafiker, der diesen Bucheinband gestaltet hat. Ich finde das super, weil es zeigt, dass diese beiden Bücher zusammengehören. Beide Geschichten, die auf den ersten Blick sehr unterschiedlich sind, haben doch ein gemeinsames Thema: die Frage, was Wirklichkeit ist und wie man diese Wirklichkeit verzerren kann. Nämlich durch falsche Geschichten oder eben durch virtuelle Realität. Insofern erleben sie beide das gleiche aus einer unterschiedlichen Perspektive.


Blaue Seite: Könnten Sie sich vorstellen, dass die Situationen in diesen Büchern irgendwann Realität sein werden?


Karl Olsberg: Ja, leider kann ich mir das vorstellen. Natürlich nicht wörtlich, ich bin kein Prophet. Und meistens kommt es doch anders, als man denkt.

Aber Szenarien, in denen wir nicht mehr unterscheiden können, was Wirklichkeit ist und was nicht, erleben wir jetzt ja schon. Das wird natürlich, je weiter sich die Technik entwickelt, umso „schlimmer“. Es wird immer schwieriger für die Menschen werden, zwischen Fake und Wahrheit zu unterscheiden. Wir müssen immer aufmerksamer werden und immer mehr über die Welt lernen. Und das ist ein bisschen gegenläufig. Eigentlich müssten wir viel mehr lesen, viel mehr uns selber bilden – deswegen finde ich eure Organisation auch so toll.

Tatsächlich passiert aber genau das Gegenteil: Gerade junge Leute lesen leider weniger Bücher.   

Insofern haben sich die Hoffnungen einerseits erfüllt. Andererseits gibt es immer auch die Schattenseite: dass diese Systeme Dinge können, die nicht so vorteilhaft sind, zum Beispiel manipulieren. Das ist noch verhältnismäßig leicht zu überblicken, wenn alle Handlungen eines solchen Expertensystems per Regel vordefiniert sind. Dann kann man relativ gut überprüfen, wie es in einer bestimmten Situation reagiert. Aber heute haben wir künstliche Intelligenz, die selber lernt. Das ist total faszinierend, wenn man sich das jetzt anschaut – ich hoffe, ich rede jetzt nicht zu lange ...


B: Nein, das ist sehr interessant.


Karl Olsberg: Es gibt das Spiel „Go“, das als extrem schwieriges Spiel gilt. Von dem hat man lange Zeit geglaubt, dass es noch Jahrzehnte dauert, bis Computer das beherrschen. Weil es eben nicht mit simplem Vorausberechnen der Züge erfolgreich gespielt werden kann, sondern man so etwas wie Intuition und Kreativität braucht. Ich selber kann das nicht spielen, aber das bestätigt mir jeder, der gut „Go“ spielt. Man weiß intuitiv, wo man jetzt einen Stein hinsetzten muss, kann aber nicht erklären, warum. Dieses Spiel dann von einer Maschine beherrschen zu lassen, schien erst mal wie eine fast unlösbare Aufgabe.

Aber wie wir alle wissen, hat 2016 eine Maschine, nämlich Alpha Go, den weltbesten Spieler in „Go“ geschlagen. Wie war das möglich? Alpha Go hat sich ganz viele menschliche Go-Partien angeguckt und gelernt, wie Menschen „Go“ spielen. Dieses Wissen hat das System dann weiterentwickelt und war am Ende besser als der beste Spieler der Welt. Und das eigentlich Krasse daran ist, dass es von der gleichen Firma etwa ein Jahr später AlphaGo Zero gab. Dieses AlphaGo Zero hat AlphaGo in 100 von 100 Spielen geschlagen. Und das, obwohl man AlphaGo Zero überhaupt nichts über „Go“ beigebracht hat. Das System hatte keine einzige menschliche Go-Partie als Vorlage. Es kannte nur die Go-Regeln, also wo es einen Stein hinlegen darf und wo nicht und was passiert, wenn Steine umkreist sind und so weiter. Und nachdem es sich mit Versuch und Irrtum selber verschiedene Strategien zurechtgebastelt und gelernt hat, gegen sich selber zu spielen, ohne irgendeinen menschlichen Input, war es besser als sein Vorgänger, der den weltbesten Go-Spieler geschlagen hatte. Und der Knaller ist, wie lange es dafür gebraucht hat: drei Tage.

Das führt natürlich dazu, dass diese Programme manchmal Dinge tun, die nicht gut sind. Zum Beispiel sollte ein Programm entscheiden, ob Straftäter in den USA auf Bewährung vorzeitig aus dem Gefängnis entlassen werden sollten. Dieses Programm wurde trainiert anhand von Fällen und Rückfallgeschichten und so weiter und so fort. Und dieses Programm hat am Ende dann Entscheidungen getroffen wie: „Ja, darf gehen“, „Darf nicht gehen“. Als man das am Ende analysiert hat, hat man festgestellt, dass das Hauptkriterium Hautfarbe war.


B: Oh!


Karl Olsberg: Das Programm war rassistisch. Das Programm wusste gar nicht, was Rassismus ist, also war das gar keine böse Absicht. Sondern es ist rassistisch geworden. Denn wenn man gewisse Statistiken betrachtet, stellt man Zusammenhänge zwischen der Hautfarbe und der Rückfallwahrscheinlichkeit fest – die natürlich überhaupt nichts mit der Hautfarbe zu tun haben, sondern mit dem Sozialmilieu, in dem viele Schwarze in den USA leben. Und trotzdem hat dieses Programm die Hautfarbe als Kriterium genommen.

Genau das ist die Gefahr: Wir wissen nicht, wieso diese Programme so entscheiden, wir überlassen ihnen aber Entscheidungen, die das Schicksal der Menschen beeinflussen. Und wenn die Chinesen sich rühmen, weltweit führend zu sein in künstlicher Intelligenz ...

B: (lachen)


Karl Olsberg: Das ist ganz toll. Maschinen können viel besser Auto fahren als Menschen, weil sie keine Gefühle haben. Gut, das ist jetzt auch wieder falsch – aber Maschinen müssen nicht unbedingt Gefühle haben und schon gar nicht beim Autofahren. Daran sieht man schon, dass künstliche Intelligenz überhaupt nicht negativ ist, sondern sie uns an ganz vielen Stellen helfen kann und wird.


B: Sie haben gerade die Emotionalität von Maschinen, also künstlichen Intelligenzen angesprochen. Also, ich persönlich kann mir jetzt vorstellen dass zukünftig Maschinen oder irgendwelche künstlichen Intelligenzen Emotionalität vorgaukeln können. Was halten Sie denn davon?

Karl Olsberg: Und darüber schreibe ich gerade eine Geschichte. Ich glaube, dass diese Frage, ähnlich wie wir heute über Tierschutzrechte reden, in Zukunft hoch relevant sein wird. Ich meine, vor 200 Jahren hatten Schwarze keine Rechte. Dann haben wir irgendwann eingesehen, dass das auch Menschen sind, und haben mit diesem Quatsch aufgehört. Dann haben wir gemerkt: „Mensch, Tiere sind nicht nur Nutzlebewesen!“ Vielleicht haben wir irgendwann dieselbe Situation mit Maschinen. Das halte ich nicht nur für nicht ausgeschlossen, sondern für sehr wahrscheinlich. Wie die Diskussion dann ausgeht, ist eine andere Frage.



Blaue Seite: Sie haben angesprochen, dass Maschinen viele Sachen jetzt schon besser machen können als Menschen, zum Beispiel Auto fahren oder leichte Entscheidungen treffen und natürlich Zahlen zusammenrechnen. Irgendwann wird es wahrscheinlich die Möglichkeit geben, dass Maschinen höhere Führungspositionen einnehmen und Entscheidungen über Menschen treffen können, auch über große Menschenmengen. Sollte man da Ihrer Meinung nach eine Grenze ziehen, sollte man auch zwischen Maschine und Mensch auswählen, wer diese Position bekommt, oder ist das nicht notwendig?

Einer meiner Erwachsenenromane, „Mirror“, beschäftigt sich genau damit. Was ist eigentlich, wenn wir einen kleinen Knopf im Ohr haben, der uns immer Vorschläge macht? Ich stelle fest, dass es jedes Mal cool und toll ist, wenn ich den Vorschlägen folge. Also richte ich mich immer mehr nach der Maschine. Aber was ist, wenn ich eines Tages feststelle, dass diese Maschine nicht das will, was ich eigentlich will? Wenn ich anfange, mich dagegen aufzulehnen? Und was, wenn die Maschine dann entscheidet, mein Lebensglück optimieren zu müssen? Eine Maßnahme könnte dann sein, mich von allen Leuten fernzuhalten, die diese Technik nicht nutzen. Genau das passiert in dem Roman und das hat natürlich keine schönen Folgen.

Solche Effekte basieren nicht darauf, dass die künstliche Intelligenz, wie in Terminator, dann beschließt, die Weltherrschaft zu ergreifen und Menschen zu erschießen. Das ist Quatsch. Das wird nicht passieren.

Eine viel größere Gefahr ist, dass wir selber sagen: „Maschine, du hast schon recht, du machst das schon.“ So wie bei Google: Wenn ich heute nach Lübeck fahre, denke ich ja nicht mehr nach. Und wenn Google sagt: „Fahr nach links“, dann fahre ich nach links. Das funktioniert auch super, bis es dann irgendwann mal schiefgeht. Leute wollen in ein Parkhaus fahren, landen aber im U-Bahneingang auf der Treppe, weil sie blind dem Navi vertrauen. Das passiert hin und wieder tatsächlich. Genau da liegt die Gefahr. Wir hören auf zu denken, weil die Maschinen es uns schön bequem machen.

Es gab gerade ein sehr witziges Youtubevideo, einen Ausschnitt aus einer Westernserie aus den Fünfzigerjahren, in der ein Betrüger namens Trump den Leuten irgendwo in Texas eine Mauer verkaufen will. Man könnte glauben, da hat jemand Trump vorweggenommen, man könnte aber auch auf die Idee kommen, dass es ein Fake sein könnte. Tatsächlich ist es kein Fake. Es gab in den fünfziger Jahren wirklich diese Serie – und der Typ hieß auch wirklich Trump.


Blaue Seite: (lacht)


Karl Olsberg: Das Überprüfen kostet natürlich Zeit. Wenn man etwa drei Quellen vergleicht, dauert das eben länger, als wenn man nur auf Twitter reagiert.

RedakteurRedakteur: Hangzhi
FotosFotos: Theo
Nach oben scrollen