Interview

Interview mit Karl Olsberg 2020

Blaue Seite: Wie kamen Sie damals darauf, sich so intensiv mit künstlicher Intelligenz zu beschäftigen?

Karl Olsberg: Das ist eine gute Frage, so genau weiß ich das gar nicht mehr. Das ist schon ziemlich lange her. Ich habe Ende der 1970er-Jahre meine ersten Kontakte mit Computern gehabt und fand die total faszinierend. Damals war das ja etwas ganz Neues. Ich habe mir 1981 meinen ersten Computer gekauft und war damit in Deutschland einer der wenigen, die so ein Ding selber zu Hause hatten. Ich wollte natürlich wissen, wie sie funktionieren, und damals gab es noch keine Programme als Download oder in Läden zu kaufen. Man musste sie wirklich von Hand aus Zeitschriften abtippen, alle Programmzeilen einzeln in den BASIC-Interpreter hineinschreiben. Da bin ich mit dem, was eigentlich hinter diesen Spielchen steckt, in Kontakt gekommen. Es waren natürlich sehr einfache Spiele, grafisch nicht so toll. Dann wollte ich Programmieren lernen und habe selber versucht, Computerspiele zu entwickeln. Später ging es um die Frage, wie ich mit Spielen leichter interagieren kann, sie intelligenter machen kann – zum Beispiel mit natürlicher Sprache. So habe ich dann gelernt, wie die Erkennung oder Interpretation natürlicher Sprache funktioniert. Später habe ich meine Doktorarbeit über Expertensysteme geschrieben, ein Teilgebiet der künstlichen Intelligenz. Ich habe zwar nicht Informatik studiert, sondern Betriebswirtschaft, aber ich habe mich viel damit beschäftigt, wie man bestimmte Dinge in der Betriebswirtschaft von einem Expertensystem automatisch entscheiden lassen kann. Seitdem hat mich dieses Thema nicht mehr losgelassen. Ich habe auch mehrere Start-Ups in dem Bereich gegründet und erst vor drei Wochen ein neues Blog gelauncht, das sich mit den Risiken der künstlichen Intelligenz beschäftigt. Einfach weil ich glaube, dass es wie bei jeder Technik Vor- und Nachteile gibt und wir zu wenig über die Nachteile reden, nicht weil ich KI pauschal für gefährlich oder schlecht halte.

Blaue Seite: Am Anfang sagt die Hauptfigur Manuel, dass die Menschen sich bis heute nicht einig sind, was Denken überhaupt ist. Was ist Ihrer Meinung nach Denken?

Karl Olsberg: Ja, das ist in der Tat eine gute Frage, bei der sich die Geister schon länger scheiden. Für mich ist die Frage „Was ist Denken?“ gar nicht so wichtig, denn künstliche Intelligenz hat in dem Sinne nichts mit Denken zu tun. Künstliche Intelligenz heißt automatisch entscheiden. Und eine Entscheidung treffen kann man auf verschiedene Art und Weise. Da muss man nicht denken können, was auch immer das jetzt sein soll. Man muss vielleicht keine Fantasie entwickeln können und kann trotzdem eine sehr gute Entscheidung treffen. Bei KI geht es einfach darum, Computer entscheiden zu lassen, wo früher Menschen die Entscheidung treffen mussten. Egal ob ich das beim Auto einsetze oder beim Schachspiel. Es geht immer darum: „Was mache ich als Nächstes?“ „Was ist die beste Wahl aus den Möglichkeiten, die ich habe?“ Und das können Computer auf ganz andere Art und Weise als Menschen. Deswegen geht es gar nicht darum, Computern das Denken beizubringen. Es geht darum, sie in möglichst vielen verschiedenen Feldern gut entscheiden zu lassen.

Blaue Seite: Es ist ja in dem Buch die Rede von Amazon Surprise, wo den Leuten automatisch Artikel zugeschickt werden, bevor sie sich diese wünschen können. Auch in „QualityLand“ ist die Rede von einem ähnlichen Dienst. Wie genau könnte das funktionieren? Woher könnte Amazon diese Informationen haben?


Karl Olsberg: Amazon hat diese Informationen schon. Amazon kennt uns unwahrscheinlich gut, einfach durch unser Verhalten. Das funktioniert nicht, weil Amazon über mich oder dich so wahnsinnig viele Details kennt. Die wissen nicht, was ich gernhabe oder denke. Aber sie wissen: Wenn ich bestimmte Dinge tue, und andere Menschen, die diese Dinge auch getan haben, bestimmte weitere Dinge tun, dann tue ich diese Dinge wahrscheinlich auch. Ich finde das bei Musik am deutlichsten zu erkennen: Ich staune immer wieder über den tollen Empfehlungsalgorithmus von „Apple Music“, der mir schon ganz viele Bands vorgeschlagen hat, die kaum einer kennt, die ich aber einfach genial finde – weil sie genau meinem Geschmack entsprechen. Weil sie davon ausgehen: „Wenn ich das gut finde, finde ich dieses wahrscheinlich auch gut.“ So ähnlich könnte Amazon Surprise auch funktionieren. Die wissen aus meinem Verhalten vieles über meine Bedürfnisse und Vorlieben. Schon jetzt funktioniert es übrigens so, dass Amazon im Vornherein bestimmte Waren in bestimmten Mengen in bestimmte Gebiete „vorliefert“. Weil sie anhand der Bevölkerungsgröße abschätzen können, wie viele Menschen diese Ware in der nächsten Zeit bestellen werden. Und das schon ziemlich genau. 

Blaue Seite: Wenn Sie unter einer Krankheit wie der von Manuel leiden würden oder ein Kind mit dieser Krankheit hätten, und Sie bekämen ein Angebot wie das von Henning Jaspers: Würden Sie es annehmen?

Karl Olsberg: Also, wenn mein Kind so alt wäre wie der Manuel aus der Geschichte, würde ich ihm die Entscheidung überlassen. Ich würde die Entscheidung unterstützen, die das Kind trifft. Aber ich wäre wahrscheinlich ähnlich skeptisch wie die Mutter von Manuel, ob das eine gute Idee ist oder ob das Ganze überhaupt funktionieren kann. Auch wenn ich nicht religiös bin, wie es die Mutter ist. Aber ich würde die Entscheidung akzeptieren. Manuel glaubt ja nicht, dass er dadurch unsterblich wird – er will die Wissenschaft voranbringen. Dann würde ich sagen: „Okay, wenn das dein Ziel ist, wenn du mit deinem Leben noch etwas erreichen möchtest, dann mach das.“

Blaue Seite: In dem Buch ist oft die Sprache von Hologrammen, Holobrillen, Holodisplays und auch Holoblogs. Wie genau kann man sich diese Technologie vorstellen?

Karl Olsberg: Das ist im Prinzip nur ein anderes Wort für 3-D. Es gibt z.B. die „HoloLens“ von Microsoft. Die benutzen diesen Begriff auch. Ich sehe also alles dreidimensional. Das ist heute wohl nichts Besonderes mehr. Aber sicherlich wird es in Zukunft noch eine größere Rolle spielen als jetzt.

Blaue Seite: Ganz am Ende scheint es so, als wäre der Gehirnscan erfolgreich. Dann wird Manuel gesagt, dass er nun seinen eigenen Weg gehen soll und dass er auf die Welt da draußen vorbereitet wurde – aber es ist doch eigentlich immer noch eine Computersimulation. Somit stellt sich die Frage, wie die Welt aussieht, in der Manuel sein Leben selbst gestalten soll?

Karl Olsberg: Das ist in der Tat eine sehr gute Frage, die nicht einfach vorstellbar ist.Wenn man einen Roman über eine künstliche Intelligenz schreibt, dann muss man die Geschichte natürlich immer ein bisschen vermenschlichen. Man muss die Figuren den Menschen ähnlich machen, weil sich der Leser das sonst gar nicht vorstellen kann. In Wirklichkeit ist eine künstliche Intelligenz so verschieden von uns, dass wir uns überhaupt nicht vorstellen können, wie sie die Welt wahrnimmt. Das kann man auch nicht wirklich überzeugend schreiben. Es gibt einen berühmten Aufsatz darüber, wie es ist, eine Fledermaus zu sein. Den hat ein Philosoph in den 1970er-Jahren geschrieben. Er hat aus seinen Überlegungen abgeleitet, dass es bestimmte Dinge gibt, die einfach nicht übertragbar sind – so ähnlich ist es hier auch. Allerdings gibt es den Unterschied, dass eine Simulation des menschlichen Gehirns in einem Computer durchaus ähnliche Gefühle wie ein realer Mensch hätte. Das passiert Manuel im ersten Teil auch: Er glaubt, er sei real, und am Ende stellt sich heraus, er ist nicht real. Aber die Simulation ist so gut, dass er seine ganze Wahrnehmung der Welt für real hält. Tatsächlich wissen wir nicht sicher, ob wir nicht vielleicht auch Simulationen sind. Es gibt sogar durchaus gute, quantitative Argumente dafür – aber das brauchen wir hier nicht auszuführen. 

Blaue Seite: Ist das Alpental, in dem das Mädchen aus „Girl in a Strange Land“ lebt und in das Manuel aus dieser Geschichte entführt wird, dasselbe?

Karl Olsberg: Ja. Das ist dieselbe Gegend. Bewusst wollte ich die Szenerie wieder aufgreifen und zeigen: Sie sind zwar religiöse Fanatiker, die ich in vielerlei Hinsicht sehr negativ dargestellt habe – aber das sind trotzdem Menschen mit Werten. Und es gibt ja auch gute Menschen in dem Tal. Das war mir wichtig, dass die nicht komplett verteufelt werden.Blaue Seite: Die Buchdesigns von „Boy in a White Room“, „Girl in a Strange Land“ und „Boy in a Dead End“ sind sich sehr ähnlich. Wie kommt das? Wollte der Verlag ein einheitliches Design für Karl Olsberg gestalten, oder ist das eine zusammenhängende Reihe?Karl Olsberg: Es sind Geschichten, die nicht nur ähnliche Themen behandeln, sondern die in derselben Welt spielen. Das heißt, es tauchen teilweise auch dieselben Figuren auf. Es sind eigenständige Geschichten, aber sie haben alle denselben Rahmen. Deshalb macht das einheitliche Design Sinn. Es ist keine klassische Trilogie. Aber trotzdem finde ich es richtig, dass man erkennt: „Aha, da ist wieder eine Geschichte, in der auch künstliche Intelligenz vorkommt und vermutlich auch dieser komische Manuel.“ Dann wissen die Leser, worauf sie sich einlassen. Ich habe jetzt auch bei LOEWE ein Buch namens „Galactic Gamers“ für eine ganz andere Zielgruppe veröffentlicht. Das sieht völlig anders aus, es ist illustriert, im Comicstil für Zehnjährige. Letztendlich entscheidet der Verlag über die Gestaltung des Buches. Aber die Entscheidung, diese drei Bücher ähnlich aussehen zu lassen, ist sehr vernünftig.

Blaue Seite: Wird es bei den drei Romanen bleiben?

Karl Olsberg: Das weiß ich noch nicht genau. Aktuell habe ich noch keine Idee, wie ich die Geschichte fortsetzen kann, oder ob ich sie überhaupt fortsetzen soll. Ich arbeite an nichts Konkretem. Aber es ist durchaus denkbar, dass da noch was nachkommt. Ideen gibt es, die Welt ist ja sehr offen. Alle Geschichten, die nach „Girl in a Strange Land“ kommen könnten, sind sehr vielfältig.

Blaue Seite: Wie kann es sein, das künstliche Intelligenzen selbstständig lernen und so außer Kontrolle geraten, wenn Menschen sie gebaut haben? Wie kann es sein, dass die Menschen sie irgendwann nicht mehr verstehen, weil sie sich so verselbstständigt haben?

Karl Olsberg: Das sind eigentlich zwei sehr verschiedene Fragen. Die erste lautet: „Wie geht das? Wie kommt es dazu? Wie kann überhaupt eine Maschine besser sein als der Mensch, der sie gebaut hat?“ Und es liegt an den simplen Zusammenhängen: Lernen ist eben eine Aggregation von Wissen. Ich kann eine Maschine dazu bringen, viel mehr über ein bestimmtes Thema zu lernen, als jeder Mensch lernen könnte. Beispielsweise über das Brettspiel Go. Es gibt eine Maschine, die sich ohne irgendwelche Anleitungen von Menschen in wenigen Tagen das Gospielen selber beigebracht hat – und zwar so gut, dass sie die besten Menschen mit links schlägt. Das geht also schon. Die Maschine kann allein dadurch, dass sie relativ einfache Algorithmen auf einen bestimmten Datensatz anwendet und immer wieder ausprobiert, Fähigkeiten in einem eng begrenzten Gebiet erlangen, die viel höher sind als die der Menschen. Das kennen wir auch von anderen Gebieten. Wir wissen, dass ein Bagger stärker ist als ein Mensch. Und so ähnlich kann ein Computer bessere Entscheidungen im Gospielen treffen. Das ist natürlich noch nicht dasselbe, wie generell besser als der Mensch zu sein. Aber grundsätzlich ist es so, dass unser Gehirn aus Atomen besteht. Da laufen bestimmte Prozesse ab, die den physikalischen Gesetzen gehorchen. Die kann man simulieren, wenn man genügend Rechenleistung hat und weiß, wie genau das Gehirn funktioniert. Das wissen wir noch nicht. 

Aber wenn man ein Gehirn in einem Computer abbilden kann, dann kann man dieses Gehirn auch besser, stärker machen. Zum Beispiel, indem wir einen Computer schneller laufen lassen und dann automatisch ein System geschaffen haben, was in gewisser Hinsicht besser ist als wir. Was das dann bedeutet, ist eine ganz andere Frage. Ob man dann von Bewusstsein sprechen kann, darüber können sich die Philosophen streiten. Aber grundsätzlich ist es nicht nur möglich, sondern es passiert fast zwangsläufig – weil wir uns auf einem exponentiellen Trend bewegen: Die Computertechnik wird immer besser, immer schneller, und mit dieser besseren Computertechnik wird noch bessere Computertechnik gebaut. Irgendwann wird sich dieser Prozess fast zwingend verselbstständigen. Und dann war ja die Frage: „Wieso können wir das dann nicht kontrollieren?“ Man muss sich das so vorstellen, dass wir quasi einen Geist schaffen, der uns so überlegen ist, wie wir einer Maus überlegen sind. Wie will eine Maus einen Menschen kontrollieren? Das ist chancenlos. Weil der Mensch immer in der Lage ist sich etwas auszudenken, um der Maus eine Falle zu stellen. Selbst wenn die Maus glaubt, den Menschen kontrollieren zu können, ist der Mensch viel cleverer und kann sie reinlegen. Und so ähnlich würde auch eine künstliche Intelligenz, die uns geistig weit überlegen ist und ein bestimmtes Ziel verfolgt, uns im Zweifel manipulieren und kontrollieren können. Das ist ein sehr ernstes Problem, an dem momentan auch sehr kluge Köpfe arbeiten. Wir sollten idealerweise keine so starke künstliche Intelligenz bauen, bevor wir dieses schwierige Problem gelöst haben. Man denkt zum Beispiel immer: „Naja, eine Maschine hat keinen eigenen Willen.“ Falsch! Natürlich hat die einen eigenen Willen. Wenn ich einer Maschine sage: „Hol mir ein Glas Bier“, dann hat sie den Willen, ein Bier zu holen. Wenn ich einer superintelligenten Maschine sage: „Hol mir ein Glas Bier“, dann kann Folgendes passieren: Die Maschine könnte sich überlegen: „Okay, ich will ein Bier holen, das ist das Wichtigste auf der Welt für mich. Aber was ist, wenn jetzt irgendjemand das letzte Bier kauft, das darf ich nicht zulassen. Ich muss dieses Ziel unbedingt erreichen. Aber was ist, wenn ein Terrorist die Kneipe angreift, wo ich das Bier holen soll, das muss ich verhindern ...“ Und diese Maschinen können mit ihrer Superintelligenz anfangen, die ganze Welt zu kontrollieren, damit ihr niemand ihr Ziel crasht. Und dann sagen die Menschen: „Halt mal, so dringend brauchen wir das Bier nicht, hör mal auf damit!“ Und die Maschine sagt: „Nein, ich habe aber das Ziel, das Bier zu holen!“ Die Menschen sagen: „Jetzt schalten wir dich ab!“ Die Maschine sagt: „Nein, wenn ich tot bin, kann ich kein Bier holen.“ Dann wird sie uns daran hindern. Eine Superintelligenz, die etwas Bestimmtes unbedingt will, ist ein Riesenproblem für uns. Und deswegen müssen wir das sogenannte „Alignment Problem“ also das Problem, wie wir eine Maschine dazu bringen, dauerhaft das zu wollen, was wir wollen, unbedingt lösen. 

Blaue Seite: Es ist sicher, dass das Buch nach 2027 spielt. Wann könnte der Zeitpunkt erreicht sein, an dem es technisch ungefähr so aussieht?

Karl Olsberg: Das weiß niemand. Es gibt dazu eine schöne Anekdote. Es gab 1933 einen berühmten Atomphysiker, Ernest Rutherford. Der hat in London einen Vortrag vor der Royal Society gehalten und erklärt, wieso es unmöglich ist, die Atomenergie zu nutzen. Darüber erschien am nächsten Tag ein Artikel in der Zeitung. Der wurde von einem jungen ungarischen Physiker namens Leo Szilard gelesen. Der dachte sich: „Vielleicht geht das ja doch irgendwie.“ Und dann hatte er am selben Tag die Idee der nuklearen Kettenreaktion auf Basis von Neutronen und hat quasi damit die Grundlage für die Atombombe gelegt. Zehn Jahre später ist es dann passiert, wie wir alle wissen. Wir hatten die Atombombe und viele Menschen mussten ihr Leben lassen. Das heißt mit anderen Worten: Es kann verdammt schnell gehen. Es kann auch sein, dass wir feststellen, das doch alles viel schwieriger als gedacht: Wir können zwar Maschinen bauen, die toll Auto fahren können – aber wir sind noch weit davon entfernt, dass sie umfassend Probleme lösen können. Oder es kann sein, dass jemand das vielleicht schon bei Google gelöst hat und eine Maschine baut, die nächstes Jahr wunderbare Dinge macht. Das weiß niemand. Das ist unmöglich zu prognostizieren – das tue ich auch nicht. Es gibt tatsächlich einen Versuch, da eine Zeitlinie zu erstellen, indem man die führenden Wissenschaftler befragt. Da kommt ein Mittelwert um 2050 heraus: der Zeitpunkt, wo wir vielleicht Maschinen haben werden, die so stark sind wie das menschliche Gehirn. Aber die Streuung ist wahnsinnig groß. Manche Wissenschaftler glauben, das wird schon in zehn Jahren der Fall sein, andere glauben, es passiert nie oder erst in 100 Jahren.

Blaue Seite: Was machen Sie in Ihrem Leben gerne außer Schreiben?

Karl Olsberg: Verschiedene Dinge. Zum einen habe ich ein neues Blog gestartet, das sich mit den Schattenseiten der künstlichen Intelligenz nicht fiktiv, sondern ganz konkret, ganz real, auseinandersetzt. Ich verfolge z.B. kritische Fragen wie: „Wie bringen wir der Maschine bei, das zu tun, was gut für uns ist?“ Ich schreibe darüber, weil ich es sehr wichtig finde, dass wir uns eben nicht nur in Fantasiegeschichten und Science-Fiction-Romanen mit dem Thema beschäftigen. Wir müssen jetzt was tun und nicht erst in 20 oder 30 Jahren. Denn wir spüren jetzt schon negative Auswirkungen, z.B. von Social Media, die immer mehr Filterblasen schaffen, die zur Spaltung der Gesellschaft führen – und zu solchen Phänomenen wie Trump. Das hat auch mit dem Klimawandel zu tun. Außerdem habe ich noch eine kleine Firma, die IT-Dienstleistungen anbietet. Das sind die Dinge, um die ich mich momentan kümmere. Eine Zeit lang habe ich nebenher noch Beratungsprojekte gemacht, das ist momentan nicht der Fall.


Blaue Seite: Sie zeigen ja gerade die Risiken von künstlicher Intelligenz. Können Sie die kurz zusammenfassen?

Karl Olsberg: Erfreulicherweise habe ich gerade einen Blogbeitrag dazu geschrieben, deswegen weiß ich Bescheid. Es gibt drei fundamentale Risiken von KI. Das erste ist das sogenannte Kompetenzproblem. Das bedeutet, dass die KI nicht das macht, was wir von ihr wollen. Das liegt aber daran, dass die KI nicht kompetent genug ist, nicht intelligent genug ist oder wir nicht verstehen, was sie tut, und deswegen die falschen Schlussfolgerungen ziehen. Dafür gibt es ganz viele Beispiele. Dieser Absturz der Boeing 737 800 Max ist z. B. eine Situation, wo die KI bestimmte Entscheidungen getroffen hat, die falsch waren. Der Pilot hat nicht verstanden, wo das Problem lag. Er hätte die KI einfach abschalten können, tat es aber nicht. Das Ergebnis war, dass die Maschine abgestürzt ist. Und das Problem wird viel häufiger auftreten, weil wir diese Maschinen nicht mehr verstehen. Wir wissen zwar, was sie tun, wir wissen aber nicht warum. Wir wissen: AlphaGo Zero kann Go spielen, setzt Steine an eine bestimmte Stelle – aber niemand, auch nicht die Entwickler, können erklären, warum sie diesen Zug macht. Das kann die Maschine selber auch nicht nachvollziehen. Wir wissen nicht, ob eine maschinelle Entscheidung gut oder schlecht ist, weil wir nicht den Grund für diese Entscheidung kennen. Und es gibt viele Beispiele, wo Maschinen schlechte Entscheidungen getroffen haben, z. B. rassistische Entscheidungen – weil sie aus den Daten irgendwelche Zusammenhänge gelesen haben. Das ist das erste Problem.

Das kann man mit Technik noch gerade so in den Griff bekommen, weil man die Maschine schlauer machen kann. Das zweite Problem ist schon schwieriger zu lösen, das ist nämlich das Ungleichheitsproblem. KI verteilt Macht um. Dadurch, dass ich Entscheidungen automatisiere, verlagere ich die Macht erst mal in die Maschine. Und dann von der Maschine auf denjenigen, der die Maschine kontrolliert. Das erleben wir z. B. bei Social Media: Da haben einige Giganten inzwischen Meinungsmonopole gebildet. Wenn die irgendwelche Verschwörungstheorien verbreiten, dann haben die einen Wahnsinnseinfluss auf die Weltmeinung. Das schafft Ungleichheit und natürlich kann man die auch missbrauchen. Was in China jetzt gerade passiert, wo dieses Punktesystem eingeführt wurde, in dem jede Bewegung jedes einzelnen Menschen von Computern aufgezeichnet wird, das ist ein absoluter Albtraum aus meiner Sicht. Weil der Staat so quasi allmächtig wird. Ich als Mensch verliere meine Individualität, meine Freiheit, solange ich mich zumindest nicht an die Regeln halten will oder vielleicht nicht mit ihnen einverstanden bin. Das dritte Problem ist das schlimmste Problem. Das nenne ich das Midas-Problem, angelehnt an den König Midas: Der hat sich gewünscht, dass alles, was er anfasst, zu Gold werden möge. Der Gott Dionysos hat ihm diesen Wunsch erfüllt, und das ist unser Problem: Maschinen, die eben exakt das tun, was wir uns von ihnen wünschen, die alles richtig machen, die auch keine Ungleichheit schaffen, sondern uns einfach nur unsere Wünsche erfüllen – und hinterher stellen wir fest: „Scheiße, hätten wir uns doch was anderes gewünscht!“ Weil wir die Nebenwirkungen nicht berücksichtigt haben. Der Klimawandel ist so ein klassisches Beispiel dafür. Uns geht es zwar gut, wir haben tolle Autos, wir können Wohnungen heizen, wir müssen nicht frieren, wir haben viel zu essen, wir können viel Fleisch essen und alles ist super – aber die Welt heizt sich auf. Ups, da hat keiner mit gerechnet, hat keiner drüber nachgedacht, als wir die Industrialisierung angefangen haben. Außerdem haben wir keinen blassen Schimmer, was da noch alles auf uns zukommt. Social Media führt z. B. schon zu Depressionen, zu Meinungsspaltung, zu Extremismus, zu Verschwörungstheorien. Nicht weil Instagram böse ist, sondern weil Social Media genau das macht, was wir davon erwarten. Das funktioniert perfekt. Aber genau das ruft diese Nebenwirkungen hervor. Wir lernen da quasi durch Trial-and-Error, dass es vielleicht doch nicht so gut ist, seine ganzen Daten Facebook zu geben, den ganzen Tag auf Instagram zu hängen und sein eigenes Selbstwertgefühl davon abhängig zu machen, wie viele Likes man bekommt. Aber das müssen wir erst lernen. Und wenn wir das gelernt haben, ist die Technik schon viel weiter. Dann gibt es kein Instagram mehr, sondern irgendwas anderes. Diese drei Probleme sind schwer zu lösen, weil sie mehr mit uns Menschen zu tun haben als mit der Maschine. Deswegen nenne ich mein Blog auch „Künstliche Intelligenz und menschliche Dummheit“. Weil die Dummheit das Problem ist und nicht die Intelligenz. Das Blog ist übrigens KI-Risiken.de, falls ihr das nochmal nachlesen wollt. 

Blaue Seite: Woher kommt der Name Karl Olsberg? Das ist ja nicht Ihr richtiger Name.

Karl Olsberg: Das ist sehr einfach: Ich komme aus einem kleinen Städtchen im Sauerland namens Olsberg. Ich fand den Namen gut, weil er ein wenig skandinavisch klingt – und wenn man Thriller schreibt, ist es gut, wenn man skandinavisch klingt.

Blaue Seite: Was ist für Sie eine blaue Seite?

Karl Olsberg: Ich weiß nicht, was ich letztes Mal zu der Frage gesagt habe, aber ich verbinde mit „Blauer Seite“ immer ein bisschen den blauen Himmel, also etwas sehr Offenes. Etwas, das sehr viele Möglichkeiten zulässt, um das Ganze von der schwarzen Seite abzugrenzen, die für mich eher geschlossen wäre und die düstere Zukunft zeigen würde. Blau ist für mich auch eine Farbe des Optimismus. Dementsprechend wäre eine blaue Seite für mich die positive Zukunftsseite. Ich bin per se kein Pessimist. Ich glaube, wir haben große Schwierigkeiten zu lösen, aber wir können die auch lösen. Und wenn wir sie lösen, dann wird die Welt, so wie in den letzten 100 Jahren auch, eher besser als schlechter werden.

RedakteurRedakteur: Anna
Nach oben scrollen