✨ Stille Nacht, dystere Macht: Die dunkle Seite von AI
Shownotes
News
- Perplexity AI verspricht Hardware – für unter 50 US-Dollar: https://www.heise.de/news/Perplexity-AI-verspricht-Hardware-fuer-unter-50-US-Dollar-10187209.html
- Sora in der Nutzung, ChatGPT kann sehen und Formulare (API) lesen: https://www.youtube.com/watch?v=LWa6OHeNK3s
- Scheiß auf Sora. Veo ist da: https://deepmind.google/technologies/veo/veo-2/
Tools
Storm: https://storm.genie.stanford.edu meshy.ai: http://meshy.ai
Disclaimer
Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: Der Anpakt Podcast von Sascha Diewald und Mike Klotz.
00:00:14: Herzlich willkommen zur 31.
00:00:23: Episode von AI in Finance, unserem Podcast über KI, Banking, Payment und Fintechs.
00:00:30: Wie letzte und ich glaube sogar vorletzte Folge von uns beiden anmoderiert, wollen wir
00:00:35: uns heute mal ausführlich mit den Absurditäten und mit den Risiken von künstlicher Intelligenz
00:00:40: beschäftigen.
00:00:41: Wir haben ja schon ganz viel in diesem Jahr immer mal über Doomsday-Szenarien von KI gesprochen.
00:00:46: Da hat man mal ein bisschen nachgeschaut, Mike.
00:00:48: Darunter waren so ein paar ganz spannende Themen wie die Manipulation von Straßenschildern
00:00:52: um selbstfahrene Autos in die Irre zu führen.
00:00:54: Wir haben ganz lange auf dem Enkeltrick 2.0 rumgeritten mit dem Thema mit den Synthesiten
00:00:59: Stimmen.
00:01:00: Und du hast in der letzten Folge ganz viel zu Roboter KK Laken erzählt.
00:01:05: Heute wollen wir uns neun Theorien und auch ein paar sehr düsteren Praxisbeispielen
00:01:10: widmen.
00:01:11: Und ich bin auch gespannt, was du später tolles für uns mitgebracht hast, lieber Mike.
00:01:15: Herzlich willkommen, dich erst mal.
00:01:17: Ja, hallo hier.
00:01:18: Hallo aus dem verregneten Siegerland.
00:01:20: Es ist die besinnliche Vorweihnachtszeit.
00:01:23: Und passend dazu habe ich natürlich besinnliche Themen mitgebracht.
00:01:26: Aber bevor wir allzu besinnlich werden und in unseren kleinen Deepdive gehen, hast du
00:01:31: noch ein kleines Update für uns.
00:01:33: Das hast du ja letzte Woche schon so ominös angekündigt.
00:01:36: Oh ja, stimmt.
00:01:37: Da hast du recht.
00:01:38: Es gibt großartige Neuigkeiten oder große Neuigkeiten für unseren Podcast, die Mike
00:01:42: und ich natürlich auch gerne mit euch teilen wollen.
00:01:44: Wir haben ja sehr viel Spaß gehabt in diesem Jahr mit unserem neuen Lieblingsprojekt AI
00:01:50: in Finance.
00:01:51: Weil vor ziemlich genau einem Jahr war es, glaube ich, da haben wir beide beschlossen,
00:01:55: einfach mal ein Podcast zu starten.
00:01:57: Seit Januar haben wir mittlerweile nun über 30 Folgen aufgenommen und uns jetzt in den
00:02:01: letzten Wochen immer mal wieder gefragt, wie können wir das noch besser machen?
00:02:04: Wie können wir mehr Strahlkraft auch auf diesen Podcast lenken?
00:02:07: Aber auch wie schaffen wir es, mehr Hörer*innen zu erreichen und uns einfach auch noch mehr
00:02:12: Finance Beispiele zu konzentrieren?
00:02:14: Dann haben wir so ein paar Gespräche geführt in der Industrie, können ja auch noch ein
00:02:18: paar andere Podcasts hosten und so Gesellschaften dafür.
00:02:21: Aber am Ende lag das Beste eigentlich schon direkt vor unseren Augen, so mal ganz erlaubt
00:02:26: gesagt.
00:02:27: Und deswegen können wir heute ganz stolz ernaunzen, dass wir ab Januar 2025 mit unserem Podcast
00:02:32: Teil des Netzwerks von Payment & Banking werden.
00:02:35: Also für alle, die Payment & Banking noch nicht kennen, dass so der führende Hub für
00:02:39: alles rund um Fintechs, Banking, Payment im deutschsprachigen Raum, tolle Events, tolle
00:02:44: Formate, tägliche Newsletter.
00:02:46: Aber was bedeutet das für euch jetzt ganz konkret?
00:02:50: Wir glauben vor allem spannende Inhalte und noch viel mehr spannende Inhalte.
00:02:54: Ich glaube auch, dass wir ab und zu ein paar hochkarätige Gäste hier begrüßen können.
00:02:59: Wir glauben auf jeden Fall an eine bessere Reichweite und ich persönlich auch an die
00:03:03: Möglichkeit, unser beider Hobby-Format hier einfach noch aufs nächste Level zu bringen.
00:03:07: Weil ich glaube gemeinsam mit Payment & Banking können wir euch künftig einfach nicht nur
00:03:12: die gewohnt tiefen Einblicke und Diskussionen bieten, sondern auch ein paar neue Features,
00:03:17: noch ein paar neue Coolic-Gemics.
00:03:18: Es gibt so ein paar Überraschungen, an denen wir jetzt schon gemeinsam arbeiten.
00:03:21: Und ich glaube, es ist auch eine Chance, noch viel mehr Hörer*innen zu erreichen, ohne
00:03:27: dabei auch unsere Unabhängigkeit und vermeintlich Kreativität auch aufzugeben.
00:03:32: Das heißt, wir bleiben die Gleichen einfach nur mit einem stärkeren und mit einem professionelleren
00:03:36: Team im Hintergrund.
00:03:37: Sprich, bleibt gespannt, was dafür 2025 alles passiert.
00:03:41: Wie immer auch natürlich danke an euch alle, dass ihr Teil unserer Reise wart und für
00:03:46: ein wirklich tolles 2024 für viel Feedback und natürlich auch, dass ihr uns gehört und
00:03:50: verfolgt habt.
00:03:51: Oder auch schon mal viele Grüße an die Macher*innen und Macher*in bei Payment & Banking.
00:03:54: Genau, auch von mir natürlich spannende Entwicklung.
00:03:58: Du hast einen Punkt oder den Mühe, würde ich gerne noch ergänzen, das Thema Kontinuität.
00:04:01: Also der Druck steigt bei uns beiden.
00:04:03: Wir haben das ja in der Tat als Hobbyprojekt gestartet.
00:04:07: Es bleibt immer noch ein Hobby.
00:04:09: Es geht aber jetzt glaube ich dadurch nochmal ein Stück in eine Professionalisierungsphase.
00:04:14: Und ja, darauf freuen wir uns und auch von meiner Seite natürlich herzlichen Dank an
00:04:19: alle Hörer*innen und Hörer*innen, dass ihr Teil der Reise wart.
00:04:22: Aber was noch viel wichtiger ist, dass ihr Teil der Reise bleiben werdet.
00:04:26: Also nur weil wir an dieser Stelle quasi der Weg sich etwas verändert, freuen wir uns
00:04:32: natürlich, wenn alle dann uns dann auch bei Payment & Banking weiter hören.
00:04:36: Wir wollen uns nochmal einem Thema widmen und vor allen Dingen ein Deep Dive geben,
00:04:41: nämlich einem Doomsday.
00:04:42: Das war ja zu den Anfängen unseres Podcasts, eine sehr beliebte Kategorie, die so ein
00:04:45: bisschen eingeschlafen ist.
00:04:46: Nicht weil es keine Doomsday*innen mehr in der Form gab, sondern weil sich das immer
00:04:54: so ein bisschen wiederholt hat.
00:04:55: Wir haben, du hast es eben in der Einleitung gesagt, wir haben viel über Fraud gesprochen,
00:04:58: Enkeltrick 2.0, Stimm-Syntilisierung.
00:05:00: Ehrlicherweise haben wir, glaube ich, auch im Wahlkampf jetzt in den amerikanischen Wahlkampf
00:05:05: und ehrlicherweise glaube ich auch jetzt in unserem Wahlkampf, der vor der Tür steht,
00:05:08: werden wir das erleben.
00:05:09: Fake-Nachrichten, Fake-Bilder, AI-generierte Bilder, die nicht der Wahrheit entsprechend
00:05:14: werden zunehmen.
00:05:15: Das ist kein alter Hut, das ist ja doch relativ neu, wenn man sich die Entwicklung anschaut,
00:05:19: aber etwas, was wir inzwischen, glaube ich, alle grüns gut kennen.
00:05:22: Nichtsdestotrotz wollen wir einfach mal schauen, was ist denn da am Braut sich da, am Himmelsfleisch
00:05:28: was zusammen, was vielleicht noch einen größeren Impact haben könnte.
00:05:31: Und der Anlass war ein Interview, was ich gesehen habe, nämlich dem Juval Noir Harari, jemand,
00:05:38: den ich implizit nur kannte, nämlich seine Bücher, der Spezialautor von Büchern, wie
00:05:42: zum Beispiel eine kurze Geschichte der Menschheit, ganz bekanntes Buch, 21 Lektionen für das
00:05:47: 21.
00:05:48: Jahrhundert, das ist das Buch, was ich habe, ich wusste gar nicht, was er geschrieben
00:05:51: hat.
00:05:52: Und jetzt hat er ein neues Buch veröffentlicht, dem Titel "Nextus, eine kurze Geschichte der
00:05:55: Informationsnetzwerke von der Steinzeit bis zur künstlichen Intelligenz".
00:05:59: Und er hat in diesem Interview genau, nämlich darüber gesprochen, über künstliche Intelligenz
00:06:05: und ehrlicherweise ist das, was er dort sagt, nicht ganz so optimistisch, wie wir die Nachrichten,
00:06:11: die wir sonst immer so transportieren, also soll heißen, wo Licht ist, ist auch Schatten
00:06:15: und er spricht eben genau über diesen Schatten.
00:06:17: Und ich würde, Sascha und Gretz, bitte schnell ein und Hark nach und gebe Kommentare, vielleicht
00:06:24: über eine kleine Definition von AI kurz sprechen, weil das ist auch etwas, wenn man darüber
00:06:30: nachdenkt, was auch in meinem Alltag immer wieder verloren geht.
00:06:33: AI ist ja heute etwas, was irgendwie gefühlt überall dran gehängt wird.
00:06:38: Also von den Mobiltelefonen, die jetzt alle mit AI kommen bis hin zu Schuhen, die irgendwie
00:06:43: AI können und Kaffeemaschine, AI ist halt ein Thema, was sich irgendwie marketingmäßig
00:06:48: recht gut verkauft.
00:06:50: Ehrlicherweise ist nicht überall AI drin, wo auch AI drauf steht.
00:06:54: Und wenn man sich die AI-Definition mal in den Nutshell anschaut, dann ist es ja im Prinzip
00:07:00: eine Technologie, die in der Lage ist, selbstständig, also zu lernen und sich selbstständig zu verändern,
00:07:07: eigene Entscheidungen zu treffen und eigene neue Ideen zu entwickeln.
00:07:11: Heißt, wenn wir jetzt mal die Kaffeemaschine nehmen, die AI als Zusatz hat, dann reicht
00:07:16: es eben nicht aus, wenn sie dir morgens um 6 Uhr einen Kaffee macht, sondern, und das
00:07:21: Beispiel hat auch ergebracht, eine Kaffeemaschine mit AI wäre es, wenn sie dein Verhalten
00:07:26: beobachtet und weiß, alles klar, der Sascha sieht müde aus und er braucht jetzt einen
00:07:31: Kaffee.
00:07:32: Und wenn man noch eine Schippe drauflegt, dann ist es nicht nur den Kaffee, den du
00:07:35: brauchst, sondern die Maschine kennt dich mittlerweile so gut, dass sich für dich einen neuen Kaffee
00:07:39: entwickelt, der dir besonders gut schmeckt und dich besonders irgendwie pimpt.
00:07:44: Also, selbstständig lernen, selbstständig entwickeln, neue Ideen generieren, das ist
00:07:49: eigentlich im Grunde AI.
00:07:51: Und das hört sich ja erstmal ganz cool an, also wenn wir so eine Kaffeemaschine hätten,
00:07:55: also ich fände es jetzt nicht so schlecht als Kaffee-Junkie, du glaube ich auch nicht.
00:07:59: Und wenn wir das überdrehen auf andere Bereiche, wie zum Beispiel Medizin, neue Werkstoff,
00:08:04: den Bereich Energie, vieles mehr, dann ist das ja was total Tolles, also Medizin, Krankheiten
00:08:09: werden nicht nur erkannt, sondern Heilung ist am Ende irgendwie sichtbar, also dass
00:08:15: man nicht mehr weiß, alles klar, da gibt es eine Krankheit, sondern AI kann dabei helfen,
00:08:19: auch die Krankheit zu heilen.
00:08:20: Aber es gibt halt auch die Down-Side.
00:08:23: Und die Down-Side ist im Prinzip, dass wir natürlich nicht nur Gutes tun können, sondern
00:08:27: halt auch eben schlimme Dinge tun können.
00:08:29: Also wir haben eine unglaublich große, nicht in Deutschland und auch nicht in Europa, aber
00:08:34: in anderen Ländern eine riesengroße Waffenindustrie.
00:08:36: Wir können völlig neue Waffensysteme entwickeln, die noch tödlicher sind, noch gemeiner sind
00:08:43: sozusagen bis hin zu Foltermethoden, die man nicht sieht, aber besonders effektiv und
00:08:48: schmerzhaft sind.
00:08:49: Das heißt, jede denkbare Grausamkeit ist ja eben jetzt tatsächlich nicht nur mehr denkbar,
00:08:56: sondern kann auch weiterentwickelt werden und AI kann halt dazu, ich will gar nicht
00:09:00: sagen missbraucht werden, sondern gebraucht werden, also aus welcher Perspektive ich darauf
00:09:04: schaue und den Einsatz rechtfertige das Wort fehlt in mir.
00:09:08: Das ist also erst einmal so ganz generell die Down-Side.
00:09:11: Und wenn man jetzt noch ein Stück weitergeht und sagen, okay, eigentlich ist Artificial
00:09:17: und das schreibt in seinem Interview eigentlich auch ganz cool, vielleicht sogar das falsche
00:09:21: Wort, weil Artificial, das englische Wort für künstlich, weckt ja so ein bisschen den
00:09:25: Eindruck, dass das, was gerade passiert oder was passieren könnte, ist ja konjunktiv
00:09:29: in irgendeiner Weise steuerbar ist und er benutzt eigentlich lieber den Begriff, dass
00:09:35: A nicht für Artificial und auch nicht wie Apple das macht für Apple, sondern in dem
00:09:40: Fall für Alien, weil er sagt im Grunde passiert hier gerade etwas wie eine neue Lebensform.
00:09:46: Und zwar in dem Moment, wo wir also etwas haben, die in der Lage ist, ja, Entscheidungen
00:09:52: zu treffen, sich weiterzuentwickeln, dann sind wir sehr stark an einer Lebensform, auch
00:09:56: wenn sie nicht wie wir Menschen organisch ist.
00:09:58: Und jetzt fängt es an wirklich spooky zu werden, wenn man mal genau darüber nachdenkt, Sascha.
00:10:03: Wir Menschen essen, trinken, schlafen, wir müssen uns ausruhen, wir werden krank, wir
00:10:09: sterben und wir sind an Ökosystemen, an Regeln gebunden.
00:10:13: Also die sind ja quasi vorgegeben, wir werden vielleicht maximal 80, 90, 100 Jahre alt, je
00:10:18: nachdem, wie gesagt, wir müssen schlafen, wir müssen uns ausruhen.
00:10:21: All das betrifft eine AI nicht mehr.
00:10:25: Das heißt, AI ist 24 Stunden, sieben Tage die Woche, also ja, rund um die Uhr in der
00:10:31: Lage zu lernen, sich weiterzuentwickeln, unabhängig von unserem Rhythmus.
00:10:35: Du hast ja gleich Beispiele mitgebracht.
00:10:37: Und wenn wir uns jetzt mal anschauen, die wir heute agieren, die Wall Street hat ja Öffnungszeiten.
00:10:42: Das ist mir immer nicht so 100 Prozent bewusst, also wenn man darüber nachdenkt, dann ist
00:10:46: das so.
00:10:47: Das heißt, die hat deshalb Öffnungszeiten, weil Menschen halt nur zu einem bestimmten
00:10:50: Zeitpunkt halt Traden.
00:10:52: Das heißt, Weihnachten ist diverse geschlossen an Feiertagen, ich glaube am Wochenende auch.
00:10:56: Und auch nicht 24 Stunden geöffnet, AI kann das alles tun und wahrscheinlich sogar heute
00:11:03: schon viel besser tun, als wir es tun.
00:11:06: Und das ist schon mal etwas, was man im Hinterkopf behalten muss.
00:11:09: Das heißt, wir haben ja eine Technologie, die nicht nur in der Lage ist, selbstständig
00:11:12: zu lernen, sondern sie ist halt auch völlig unabhängig von unserem Rhythmus, unserem
00:11:15: Lebenszyklus sozusagen.
00:11:17: Und wenn wir das jetzt mal uns auch anschauen, was der nächste Faktor ist, und auch das
00:11:23: finde ich total interessant, wenn man sich die Entwicklung der Menschheit anschaut, dann
00:11:27: haben wir uns deshalb ja so gut weiterentwickelt, weil wir in der Lage waren, Informationen
00:11:30: auszutauschen.
00:11:31: Also, also all das passiert auf Informationsfluss.
00:11:34: Und diese Informationsfluss, das ist auch ganz interessant, wenn wir uns anschauen, die
00:11:39: politischen Systeme, die wir haben, dann ist der Informationsfluss nie an einer Stelle
00:11:45: gebunden, wenn wir über demokratische Systeme sprechen.
00:11:48: Das heißt, in der Demokratie kann ich mich informieren, wo ich mich informieren möchte.
00:11:52: Das sieht doch nicht jeder da draußen so.
00:11:54: Wir haben so ein paar Schwurbler, die sehen das ein bisschen anders.
00:11:55: Aber im Grunde...
00:11:57: Grüße gehen raus.
00:11:58: Grüße gehen raus.
00:11:59: Im Großen und Ganzen ist es so, ob du jetzt Spiegel online, Bild.de oder was auch immer,
00:12:03: wir können uns informieren, wo wir uns informieren wollen.
00:12:06: Und das ist auch gut so.
00:12:07: Das heißt, wir können unterschiedliche Perspektiven lesen, wir nehmen unterschiedliche Strömungen
00:12:12: wahr und können im besten Falle darauf neue Entscheidungen treffen, neue Perspektiven
00:12:17: einnehmen, weil wir eben nicht diesen Single Point of Information haben.
00:12:20: In Diktaturen, Nordkorea, ist das ein bisschen anders.
00:12:24: Da gibt es eine Informationsquelle und da kann man sagen, vielleicht ist das Leben auch einfacher.
00:12:27: Weiß ich nicht, glaube nicht.
00:12:29: Aber da ist halt die Information einfach gebündelt an einer einzigen Stelle.
00:12:33: Und das ist natürlich in Zeiten, wo jetzt wir auch AIs entwickeln, natürlich super gefährlich.
00:12:41: Aber vor allen Dingen ist es gefährlich.
00:12:43: Und jetzt kommen wir zu einem zweiten oder ich glaube mit euch der dritte Faktor, nämlich
00:12:46: die Anzahl, also worauf basiert AI.
00:12:48: Das haben wir schon gesagt.
00:12:49: AI lebt letztendlich von Daten und Informationen.
00:12:51: Und jetzt fängt es an Tricky zu werden, weil Information bedeutet ja nicht gleichzeitig
00:12:58: Wahrheit.
00:12:59: Das heißt, AI bekommt nicht Wahrheiten zum Lernen, sondern Informationen.
00:13:03: Weil die Wahrheit in Nordkorea ist eine andere wie bei uns in Europa und ist eine andere wie
00:13:08: in den USA.
00:13:09: Und das macht es natürlich letztendlich total gefährlich, weil das haben wir auch schon
00:13:15: erlebt, dass in den Anfängen von AI, dass wir, dass sie befangen, weil das auf einmal
00:13:19: anfing, AI agen rassistisch zu werden.
00:13:22: Oder dieser berühmte Fotofilter von Samsung, der auf asiatische Bilder getrimmt ist und
00:13:26: einen anderen Turn, die es gibt bei der Optimierung des Bildes als ja in Europa.
00:13:31: Und all das jetzt mal zusammengefasst ist insofern gefährlich.
00:13:36: Wenn wir also anfangen, momentan ist das ja alles noch so closed.
00:13:39: Aber wenn AI anfängt draußen in der Welt, also in die Wildnis gelassen wird, und wir
00:13:44: sprechen ja auch wahrscheinlich über das Thema AGI, also über die allgemeine kürzlich
00:13:47: Intelligenz, die ja dann schon wirklich dieser Intelligenz fast schon Organismus sehr, sehr
00:13:55: nahe kommt, dann ist das super gefährlich.
00:13:57: Und zwar nicht insofern gefährlich.
00:13:59: Und auch das fand ich einen interessanten Punkt in dem Interview.
00:14:01: Und dann ist auch meine Einleitung sozusagen zu Ende.
00:14:04: Die Wahrscheinlichkeit, dass wir Angst haben müssen, dass uns Roboter überfallen und uns
00:14:10: den Strom abgestellt wird, die ist gar nicht so groß.
00:14:13: Also die Gefahr ist nicht so groß.
00:14:15: Also wir müssen keine Angst davor haben.
00:14:17: Aber wenn wir jetzt schon mal schauen, wo AI Entscheidungen trifft, nehmen wir zum Beispiel
00:14:24: die Kreditvergabe.
00:14:25: Die Kreditvergabe läuft meistens automatisiert schon seit vielen Jahren.
00:14:28: Und da ist ja kein Mensch, der die Entscheidung trifft oder nicht in der letzten Konsequenz
00:14:33: der Mensch, der die Entscheidung trifft, sondern eine AI.
00:14:36: AI entscheidet in Kriegen, wo Soldaten hingehen.
00:14:39: Also es werden Fronten analysiert, wo ist der beste Einsatz der Truppen?
00:14:44: AI entscheidet in der Medizin, wie man behandeln soll.
00:14:48: Oder beim Fahren, die berühmte Diskussion der Tesla, der Autopilot bremst er jetzt bei
00:14:53: der älteren Dame oder bei dem Kind, das wird von einer AI entschieden.
00:14:57: Und er hat das wunderbar zusammengefasst.
00:14:59: In einem Satz, die Weltherrschaft wird also nicht in Form von Robottern kommen.
00:15:04: Also dass wir so terminatormäßig überrannt werden, sondern er beschreibt das mit einer
00:15:09: Waffe.
00:15:10: Und das Ziel wird bestimmt durch AI.
00:15:14: Wir haben gerade die Beispiele genannt, wo AI wirklich Entscheidungen getroffen wird.
00:15:19: Und der Trigger, der wird von uns Menschen dann getroffen.
00:15:22: Das heißt, AI sagt uns quasi, was wir zu tun haben.
00:15:25: Wir laufen Gefahr, das dem Gesagten der Empfehlung blind zu folgen.
00:15:32: Also wir verlassen uns auf diese Aussagen.
00:15:34: Und das ist natürlich total gefährlich, wenn wir nicht mehr nachvollziehen können.
00:15:38: Und jetzt ist wirklich der letzte Satz, wenn wir nicht mehr nachvollziehen können, auf
00:15:41: welcher Grundlage die Entscheidungen getroffen wurden.
00:15:43: Und das ist ja jetzt schon so.
00:15:45: Wir wissen nicht mehr, warum beispielsweise Chat, GBT, das gibt es ja diese Beispiele
00:15:50: jetzt eine Antwort gegeben hat.
00:15:51: Das ist einfach nicht mehr nachvollziehbar.
00:15:52: Und das ist natürlich total gefährlich.
00:15:55: Und wenn wir das gleich noch mit deinen Beispielen, die du mitgebracht hast, auf die ich sehr
00:15:58: gespannt bin, einbetten, dann ist das so ein bisschen dieser Angstmoment.
00:16:03: Das muss alles gar nicht so kommen.
00:16:04: Aber das ist zumindest ein Thema, wo ich für mich selber feststelle, ich mich immer kritischer
00:16:09: mit beschäftige.
00:16:10: So, Einleitung zu Ende.
00:16:12: Also ich finde es ja schon mal erstmal erstaunlich, wie lange du durchgehend reden kannst.
00:16:18: Und das macht ja auch alles immer noch Sinn.
00:16:20: Ich habe dich jetzt im letzten Jahr, glaube ich, so oft oder brochene, dass ich dir nie
00:16:23: die Chance dazu gegeben habe in den letzten zwölf Monaten.
00:16:25: Das soll dich öfter machen.
00:16:26: Ich war lange auf Mut und habe irgendwie meinen Kaffee getroken.
00:16:29: Ich habe eine Träne im Auge jetzt so ein bisschen.
00:16:31: Es ist wunderschön, wie du das machst.
00:16:33: Liebster Mike.
00:16:34: Nee, aber es ist sehr viel Ware ist halt irgendwie drin.
00:16:38: Und ich habe das Buch selbst nicht gelesen.
00:16:39: Das ist noch auf meiner Liste.
00:16:41: Ich habe irgendwann mal als erst veröffentlicht, hat einen kleinen Handelsbatt Artikel darüber
00:16:45: gelesen, aber ich glaube auch nicht, nicht gefinischt.
00:16:47: Dieses Thema außer Kontrolle geratene Maschinen ist ja ein Thema.
00:16:51: Kann man dann überhaupt Nordinstecker ziehen.
00:16:53: Darf man, soll man, würden die KI davon abhalten?
00:16:56: Ich glaube, das kommen wir auch gleich nochmal bei den Beispielen drauf.
00:16:59: Aber ganz am Ende kommt immer wieder alles auf Regulierung, Regulierung, Regulierung
00:17:03: zurück.
00:17:04: Das heißt, wir können ja immer sagen, reguliert doch erst mal.
00:17:07: Die Tech-Menschen unter uns sagen, nee, weil dann haben wir wieder das gleiche Problem,
00:17:12: was wir ja jetzt schon haben, dass uns die anderen Staaten, vor allem natürlich irgendwie
00:17:15: ja in den Asien grundsätzlich, aber auch die USA aus dem unregulierten Sandkasten heraus
00:17:21: abhängen werden technologisch und dann irgendwann natürlich in der Folge auch wirtschaftlich.
00:17:26: Deswegen sagen ja auch immer die Vertreter der Technologieszene, lass uns die Technologie
00:17:30: erst mal entwickeln.
00:17:31: Regulieren können wir sie nachträglich immer noch.
00:17:33: Das stimmt für ganz viele Sachen wahrscheinlich, für AI und AGI stimmt das halt nicht.
00:17:39: Und eine Sache erinnere ich mich noch, was der, was der Autor Juval Harari gesagt hat
00:17:44: in diesem Interview war, das würde man ja in anderen Bereichen Ju auch nicht akzeptieren.
00:17:49: Das ist ja dieses, zum Beispiel Autoindustrie, das hat glaube ich auch irgendwann der Mercedes-CEO
00:17:55: mal gesagt.
00:17:56: Ich muss meine Autos ja auch so sicher machen, bevor ich sie auf die Straße schicken und
00:18:01: nicht erst, wenn sie auf der Straße sind, 100 Unfälle fabriziert haben, dass ich mir
00:18:05: dann überlege, wie kann ich dieses, Sie sind sicherheitsmechanismus irgendwie einbringen.
00:18:09: So und auch wenn man irgendwie Autofahren lernt, lernt man als erstes wie ein Bremspedal
00:18:13: funktioniert und wie die Mechanik des Autos funktioniert, bevor ich losgelassen werde
00:18:19: in den Straßenverkehr.
00:18:20: Und das argumentiert glaube ich dieser Auto und das finde ich so ganz spannend, auch auf
00:18:24: sich die Leben mal projiziert.
00:18:25: Ich finde das insofern ein ganz wichtiger Punkt und ich finde den Vergleich gut, wenn
00:18:31: gleich ich auch dann direkt im Kopf habe, die Auto, beim Autofahren ist alles so sehr
00:18:35: greifbar für die Menschen da draußen.
00:18:37: Also man weiß irgendwie so ein Auto, was alleine fährt, das ist irgendwie spooky und
00:18:41: da muss man sich ganz, ganz viele Gedanken machen.
00:18:43: Bei dem Thema AI erlebe ich gerade, wenn du mit Tech-Menschen darüber sprichst, das
00:18:49: ist sicherlich auch nochmal ein Unterschied, ob man jetzt mit der Familie, die vielleicht
00:18:52: keinen Tech-Background haben oder mit anderen Menschen mit Tech-Background darüber sprichst,
00:18:57: aber wenn du mit eben solchen sprichst, dann hörst du immer ganz viel Begeisterung.
00:19:01: Und ehrlicherweise, wenn wir drüber sprechen, wir sind ja auch begeistert.
00:19:03: Wir bringen immer wieder neue Tools mit und denken, oh geil, wieder eine Arbeitserleichterung
00:19:06: und noch ein Tool, was irgendwie das Leben leichter macht.
00:19:11: Aber die Gefahren, die wirklich irgendwie damit zusammenhängen können, ist ja konjunktiv.
00:19:16: Das ist etwas, was ich für mich immer wieder viel zu sehr ausblende und ich weiß nicht,
00:19:21: du wirst das, du hast ja ein Gedächtnis wie ein Elefant.
00:19:24: Die ganzen Open AI Mitarbeiter, die ja auch auf hohem Level alle gegangen sind, weil sie
00:19:30: gesagt haben, das was hier passiert ist irgendwie ganz schön spooky.
00:19:34: Das wird ja auch irgendwie, das ist dann mal eine Meldung und dann redet man nicht mehr
00:19:38: drüber.
00:19:39: Und das, was das passiert, ist spooky, das ist ja nicht abgestellt, nur weil die gegangen
00:19:43: sind.
00:19:44: Die sind gegangen, weil da was passiert, was irgendwie bedenklich ist, aber es passiert
00:19:49: ja weiter.
00:19:50: Und das finde ich irgendwie spannend, unheimlich.
00:19:54: Ja, ja, total auf jeden Fall.
00:19:56: Gehen wir mal rein.
00:19:58: Also machen wir mal so ein paar Anfassbare Beispiele.
00:20:01: Und für unser allererstes Doomsday im Januar, da hatte ich damals so eine Hedge Fund dystopie
00:20:08: skizziert.
00:20:09: Da ging es schon ein bisschen so ganz leicht um autonome Handelsabwicklung, aber sehr
00:20:14: rough noch.
00:20:15: Und das würde ich gerne heute ein bisschen tiefer legen.
00:20:16: Und wir stellen uns mal vor, wir befinden unseren so einen ganz typischen Handelstag
00:20:20: an den globalen Finanzmärkten, wobei heute Früh war der Blick ins Portfolio nach der
00:20:24: Fettentscheidung echt unangenehm von gestern.
00:20:26: Aber sagen wir mal, es war ein normaler Tag und nicht so ein Tag wie heute.
00:20:29: Das heißt, wir wissen ja auch, die Börsen weltweit sind technisch perfekt vernetzt mittlerweile.
00:20:33: Sowohl über Infrastruktur, über Architektur, die haben alle irgendwie ihre eigenen Knotenpunkte.
00:20:38: Das heißt, ein Großteil dieser Transaktionen wird mittlerweile schon von hoch entwickelten
00:20:42: autonomen KI-Systemen auch getrackt.
00:20:44: Das wird noch nicht gesteuert, zumindest nicht große Fläche.
00:20:47: Da sind immer noch Menschen dabei, aber zumindest laufen die Algorithmen mit.
00:20:50: Und diese sogenannten Handelskais, wie sie auf Deutsch, glaube ich, übersetzt sind, analysieren
00:20:55: jetzt schon in Millisekunden riesige Datenmengen, Marktenachrichten, Wirtschaftsdaten und
00:20:59: wir haben ja auch schon mal darüber gesprochen, bis hin zu sozialen Medien.
00:21:03: Und daraus werden dann abgeleitet, blitzschnelle Entscheidungen getroffen, um Gewinne einfach
00:21:06: zu maximieren.
00:21:07: Und zwar schneller als die Konkurrenz das macht.
00:21:09: Aber gehen wir mal so chronologisch durch, ganz fiktiv wie das mit so einer AI, die auch
00:21:16: nicht nur tracked, sondern tatsächlich auch proaktiv so etwas steuert, wie das aussehen
00:21:20: würde.
00:21:21: Man könnte zum Beispiel einen kleinen, sehr unscheinbaren Vorfall geben, der dann eine
00:21:25: Kette auslöst.
00:21:26: Zum Beispiel kann die KI feststicherweise einen negativen Tweet von einem Tech-Unternehmen
00:21:32: aus dem Silicon Valley analysieren und dann als ernsthafte Bedrohung für dessen Aktienwert
00:21:37: interpretieren.
00:21:38: Das heißt, was würde passieren?
00:21:39: Sofort verkauft diese KI dann die Aktien des Unternehmens von einem Hash Fund beispielsweise
00:21:43: in großen Stil.
00:21:44: Andere Handelskais, die mit ähnlichen Algorithmen arbeiten, reagieren natürlich sofort auf
00:21:48: das plätschliche Verkaufsvolumen innerhalb von Sekundenbruchteilen, erkennen das Signal
00:21:52: für eine Marktkorrektur beispielsweise und beginnen dann ebenfalls ihre Bestände zu
00:21:56: verkaufen.
00:21:57: Das heißt, innerhalb von Minuten gibt es schon den ersten Dominoeffekt.
00:22:01: Das heißt, innerhalb von ganz kurzer Zeit gibt es eine Kettenreaktion und diese Verkaufswelle
00:22:06: würde sich dann auf andere Unternehmen, auf andere Branchen ausbreiten, die irgendwie
00:22:10: mit dem Tech-Sektor verknüpft sind.
00:22:12: Das heißt, nach und nach hüpfen dann vielleicht am Tag 2 private Anleger auf den Trend auf.
00:22:18: Bei Reddit gibt es die ersten Subreddits, wie bei AMC und dieser Kinokette damals.
00:22:23: Und da diese Handelskais natürlich komplett auf Geschwindigkeit gebaut sind und auch optimiert
00:22:29: sind, treffen diese natürlich Entscheidungen ohne jegliche menschliche Überprüfung oder
00:22:33: menschlichen Eingriff.
00:22:34: Was darf so führt, dass der Marktwert von vielen großen Unternehmen quasi gleichzeitig
00:22:39: einbricht?
00:22:40: Der MSCI, vor allem getrieben durch diese Tech-Titel, bricht ebenfalls ein, was dann
00:22:44: zu einem sogenannten Flash-Crash führt.
00:22:46: Das heißt, Flash-Crash ist, wenn Börsenkurse rasant sinken und wirklich Milliarden und
00:22:51: Abermilliarden von Dollar an Marktwert innerhalb von weniger kurzer Zeit, in meinem Beispiel
00:22:55: jetzt Minuten, vernichtet werden.
00:22:57: Und das löst dann irgendwann eine Panik aus.
00:23:00: Sagen wir mal einen Tag 3 vielleicht, weil es einfach überall die Börsen weltweit sind
00:23:03: irgendwie rot.
00:23:04: Sowohl bei menschlichen Anlegern als auch bei weiteren KI-Systemen herrscht eine Panik
00:23:08: und vor allem auch bei KI-Systemen, die dann für eine Risikoabsicherung eigentlich gebaut
00:23:13: sind.
00:23:14: Die gibt es mittlerweile auch schon, das sind so Hedge-KI's, die beginnen quasi automatisch
00:23:19: dann immer mehr Shop-Positionen aufzubauen.
00:23:22: Und also wirklich echte Hedges zu setzen, in Sinne der Absicherung, um so abzusichern,
00:23:27: was den Markt immer noch weiter belasten wird.
00:23:29: Und innerhalb von kurzer Zeit reagieren dann einfach globale Märkte so synchron, denn
00:23:34: was ja einmal so als isoliertes Problem in einem Sektor begann, hat nun einfach Auswirkungen
00:23:39: auf den gesamten Aktienmarkt in wahrscheinlich allen entwickelten Staaten ist, geht dann
00:23:43: irgendwie morgens in Tokio los und abends mit Nestek hört das Ganze dann auf.
00:23:47: Und ich glaube innerhalb von wenigen Tagen, die Geschwindigkeit und das Volumen von solchen
00:23:52: Transaktionen bringen auch glaub ich dann technisch die Systeme der Börsen an ihre
00:23:58: Grenzen, weil Borderbücher sind irgendwann überlastet.
00:24:01: Die ganzen Trading-Plattformen, Trading Republic und Co., wo die halt das Abwickeln werden überlastet
00:24:05: sein.
00:24:06: Und auch erste Börsen-Plattformen müssen wahrscheinlich dann den Handel stoppen, um die Situation irgendwie
00:24:10: unter Kontrolle zu bringen.
00:24:11: Und ich glaube spätestens irgendwie am letzten Tag, wann auch immer das ist, Tag 3, 4, 5,
00:24:17: sieht man, dass diese artificiell hervorgeführten Verluste reale wirtschaftliche Auswirkungen
00:24:23: haben und nicht nur irgendwie der MSCI ist mal abgestürzt, sondern Unternehmen, die
00:24:27: darauf angewiesen sind, den Kapital zu investieren und zu wachsen, und zwar täglich zu wachsen,
00:24:32: Fremdkapital von Banken aufzunehmen, Eigenkapital zu raisen aus Private Equity oder Venture
00:24:36: Capital, die können das nicht mehr.
00:24:38: Die verlieren an Kapital.
00:24:40: Große Pensionsfonds zum Beispiel, Privatanleger, die auch auf die Stabilität des Marktes angewiesen
00:24:45: sind, haben einfach enorme Verluste und sind von einem auf dem anderen Tag pleite.
00:24:50: Und ganz am Ende natürlich auch Regierung und Aufsichtsbehörden stehen natürlich total
00:24:55: unter Druck.
00:24:56: Die müssen handeln, wissen aber nicht wie, weil diese hochkomplexen Algorithmen von diesen
00:25:00: Handelskais erschweren es natürlich total überhaupt erst mal die Ursache, das Problems
00:25:06: durch zu identifizieren und einzugreifen, weil sie nicht mehr wissen wie.
00:25:09: Es gibt einfach diese menschliche Schnittstelle gerade nicht, um zu sagen, okay, I'm gonna
00:25:13: shut down the problem to solve it, ist einfach gar nichts mehr da.
00:25:17: Und dann mal einfach mal kurz irgendwie stopp in diesem düsteren Szenario, man könnte
00:25:21: das jetzt ewig weiterspinnen, aber ich glaube so dieses Szenario zeigt ganz gut, wie autonome
00:25:24: Handelskais komplett unbeabsichtig Katastrophen auslösen können, die dann flächendeckend
00:25:31: überall auf der Welt einfach ein riesengroßes Feuer anzünden, weil diese Stärke von solchen
00:25:38: sehr speziellen Kais, Geschwindigkeit, Effizienz, die wird in so einer Krise zur schlimmsten
00:25:45: Schwäche überhaupt, denn diese Systeme ohne menschliches eingreifen, wenn die da agieren,
00:25:49: dann können die Marktbewegungen verstärken und einfach so eine Feedback-Schleife erzeugen,
00:25:54: dass sie komplett außer Rand und Band bzw. komplett außer Kontrolle geraten.
00:25:58: Ja, da passt glaube ich auch eine Nachricht zu, ich vielleicht erinnere mich noch daran,
00:26:02: letztes Jahr im Mai war das, da ging ja ein Bild durch die Welt von einer Explosion oder
00:26:07: ein brennendes, ich glaube es war eine Explosion, ein bisschen ein Feuer am Pentagon, das war
00:26:12: ja auch, das genau, das war dieses gefakete Bild, es sah recht überzeugend aus, wie das
00:26:17: so ist mit Fake-Fotos oder manipulierten Bildern und ich weiß nicht mehr, aber auch das hatte
00:26:23: ja irgendwie Auswirkungen auf die Märkte, also an dem Tag sind ja auch irgendwieliche
00:26:27: Millionen, ich glaube sogar Milliarden Dollar verbrannt worden, weil irgendwie die Böse
00:26:31: kurz einkrescht, weil man dachte, alles klar, es gibt jetzt wieder, es gab einen Anschlag
00:26:35: und es war nichts anderes als ein Fake-Foto, was verbreitet wurde und ich glaube, dummer
00:26:41: weise es hatte die Washington Post irgendwie dann auch nochmal irgendwie aufgenommen und
00:26:45: verbreitet, das heißt es gab dann auf einmal diese Kettenreaktion, die du gerade beschrieben
00:26:49: hast, das heißt es muss nicht mal irgendwie ein Tweet von einem crazy Milliardär sein,
00:26:55: wir haben alle einen Namen im Kopf, sondern es kann halt auch wirklich...
00:26:58: Mike Klotz.
00:26:59: Mike Klotz, es kann halt auch ein Baby-V-Foto sein, nein, es kann halt auch ein gefaketes
00:27:03: oder manipuliertes Bild sein, was dann dazu führt, dass auf einmal irgendwie ja Märkte
00:27:07: steil gehen.
00:27:08: Ja, total, also die ganze Diskussion um Eindeutigkeit und Einzigartigkeit kommt da wieder hoch und
00:27:16: wir wollen jetzt gar nicht so sehr über Lösungsansätze hier sprechen, am Ende wird es um, es
00:27:20: geht um Regulierung, es geht um Überwachung, es geht um diese typischen Failsafe-Mechanismen,
00:27:24: die ja auch im EUAEI stehen, geht um ganz viel Transparenz, weil am Ende müssen Börsen
00:27:30: und auch Regulierungsbehörden weltweit quasi verstehen, wie Algorithmen arbeiten können,
00:27:35: um einfach frühzeitig reagieren zu können, aber ich würde sagen, das würde die VfL-Gel-Komplett
00:27:40: sprengen, aber zumindest zeigt es einfach eine sehr speziell ausgerichtete und dafür
00:27:46: trainierte KI kann halt einfach innerhalb von wahnsinnig kurzer Zeit ihr Ziel erreichen
00:27:53: oder halt eben auch nicht.
00:27:54: Und man kann einfach nicht mehr eingreifen und ich glaube, das ist super spannend, halt
00:27:58: mal so als Doomsday halt irgendwie zu sehen und mal zu skizzieren, weil wir gehen ja hier
00:28:02: sehr viel auf Retail-Themen ein, so ein bisschen auf Firmenkunden-Themen, was wir ja selten
00:28:08: machen, ist tatsächlich halt irgendwie echtes Asset-Management betrachten oder halt irgendwie
00:28:11: auch Trading-Algorithmen, aber wenn man sich das mal anschaut, was KI dort für eine Folge
00:28:18: haben kann, dann ist es einfach extrem.
00:28:20: Du hast uns aber noch einen zweiten Fall und da freue ich mich ein bisschen drauf, also
00:28:25: ich freue mich auf alle deine Beispiele.
00:28:27: Der Nächste hat nämlich etwas mit einem Film zu tun und ich komme nicht auf den Titel Tom
00:28:31: Groos hat da einen Film gemacht.
00:28:32: Ich komme, ich werde parallel googeln.
00:28:35: Es geht um das Thema Strafverfolgung und ja, da erzähl mal ein bisschen was zu.
00:28:41: Du bist so geil, weil genau deswegen viel mehr das ein.
00:28:44: Ich saß irgendwann am Wochenende.
00:28:45: Wie ist der?
00:28:46: Wie heißt der Scheiß?
00:28:47: Mit meiner Frau auf der Couch und wir haben uns wieder gehated.
00:28:48: Wir haben uns auf Netflix und Apple TV und Prime, wofür ich wahnsinnig viel Kohle rausblase,
00:28:54: einfach nur noch Schrott für uns bereithalten, wenn wir dann einmal irgendwie im Monat uns
00:28:58: versuchen, halt irgendwie ein Film oder eine Serie anzuschauen und wir sagen, okay, wir
00:29:02: brauchen unbedingt eine KI, wo wir halt das einfach besser steuern können und weißt du,
00:29:07: welcher Film angeworben wurde?
00:29:08: Minority Report.
00:29:09: Das war, danke.
00:29:10: Und genau deswegen kam ich halt irgendwie drauf auf dieses Szenario, weil ich gehe einfach
00:29:16: mal rein.
00:29:17: Wir stellen uns vor, wir befinden uns in einer modernen Großstadt, in der diese, wie in
00:29:22: Minority Report KI gestützt, Überwachungssysteme eingeführt wurden, um Kriminalität zu bekämpfen.
00:29:27: Ich meine, es gibt da ja solche Ansätze.
00:29:29: Bereits London dient hier, glaube ich, als dieses CCTV-Vorbild, wo gefühlt an jeder
00:29:33: Straßenecke Kameras sind, diesen komplett intervernetzt, irgendwie auch mit ganz vielen
00:29:37: privaten Kameras, mit Dashcam.
00:29:39: aus Taxis und Co. China, genau, total. Da wird es halt immer, immer weitergehen. Und am
00:29:46: Ende sind es halt Tausende von Kameras, Bewegungssensoren. Und wenn du das Ganze vernetzt mit einer
00:29:51: sehr leistungsstarken Analyse Software, weil das kann ja kein Mensch auswerten, vor allem
00:29:54: nicht in Echtzeit und schon gar nicht gleichzeitig, aber wenn du da hinter eine künstliche Intelligenz
00:29:58: setzt mit einer predictive AI, dann überwacht das Thema rund um die Uhr alle Straßen, Gebäude,
00:30:04: öffentliche Plätze und in diesem Minority Report Beispiel meldet dann verdächtiges Verhalten
00:30:09: in Echtzeit an die Polizei. So, und dann stellen wir uns mal vor, es gibt eine Person, wir nennen
00:30:14: sie mal Mike. Mike geht in der Innenstadt mit seinem Hund spazieren. Mike trägt eine Mütze,
00:30:21: macht er ab und zu, die sein Gesicht dadurch auch teilweise verdeckt und er hält vielleicht noch
00:30:26: einen Rucksack eng an seinen Körper gedrückt und eine Kamera springt an, weil das KI-System,
00:30:31: das für die Überwachung von diesem Platz zuständig ist, wertet Mike und sein Verhalten
00:30:36: als verdächtig. Und der Algorithmus stuft Mike nun, fälschlicherweise wahrscheinlich,
00:30:41: als potenzieller Bedrohung ein, da einfach eine ähnliche Muster in der Vergangenheit bei
00:30:46: Ladendieben, bei Verdächtigen, vielleicht sogar bei Terroristen beobachtet wurden. Und was macht
00:30:51: die KI, die alarmiert natürlich umgehend die Polizeistreife in der Nähe? So, was passiert
00:30:56: denn, die Polizeibeamten reagieren sofort irgendwie auf die KI-Meldung, ohne irgendeine
00:30:59: weitere Prüfung, weil natürlich auch gesetzlich möglich, vielleicht ist diese Großstadt in Bayern,
00:31:04: da ist sowieso immer alles einfacher mit unserer wundervollen CSU. Also stoppen die Mike und
00:31:09: fordern ihn auf, seinen Rucksack zu öffnen. Mike irgendwie ein bisschen verpeilt, hat Kopfhörer
00:31:15: auf, den Gedanken verloren und völlig überrascht, weigert sich aber zunächst und fragt auch noch
00:31:20: nach dem Grund, der Hund bellt, es wird chaotisch. Das heißt, die Situation eskaliert gewissermaßen.
00:31:25: Und als die Beamten dann aufgrund der KI-Warnung aber annehmen, dass Mike etwas zu verbergen hat und
00:31:31: seinen Verhalten auch jetzt nicht so richtig dazu passt, wird er erst mal getasert, dingfest
00:31:36: gemacht, kommt in Gewahrsam, obwohl er de facto nichts Illegales getan hat, außer über den Platz
00:31:41: zu laufen, was meistens legal ist. Das heißt, da ist jetzt erstmal schon mal was Schlimmes passiert.
00:31:46: Und dann gibt es nur das typische gründliche Überprüfung, stellt sich heraus, alles bullshit,
00:31:50: Mike ist unschuldig, der Rucksack enthielt lediglich persönliche Gegenstände, das verdächtige
00:31:55: Verhalten war, harmlos war halt speziell Mike, der sich vielleicht ein bisschen verschoben bewegt hat.
00:32:01: So, doch wenn wir uns jetzt mal den vermeintlich harmlosen Sachverhalt einmal anschauen, Mike ist
00:32:06: natürlich alarmiert, seine Freundin, alles ist doof, aber er vergisst den Vorfall wieder, denkt sich,
00:32:11: naja, das ist halt dieses neue Welt, in der wir leben und das ist ja auch wichtig. Aber der Schaden
00:32:16: ist ja schon angerichtet, weil Mike wurde öffentlich festgenommen. Das heißt, Videos von dieser Szene
00:32:21: kursieren natürlich jetzt auch überall. Mike ist jetzt in irgendwelchen Polizeisystemen geflaggt,
00:32:26: zwar erstmal als harmlos und unschuldig, aber zumindest gab es dann Vorfall. Also so eine Art
00:32:30: Polizeiakte wird wahrscheinlich automatisiert irgendwo ergänzt. Videos von dieser Szene
00:32:35: kursieren in den sozialen Medien, weil Menschen wie ich mit meiner Ray-Ban-Matter haben das
00:32:39: aufgenommen, sofort halt gestreamt, was da gerade passiert und Mike ruft, obwohl er unschuldig ist,
00:32:44: ist komplett ruiniert. Dein Arbeitgeber ist erstmal aufgeregt, du hast ein Personalgespräch
00:32:50: übermorgen. Dein Podcast-House wird sich auf jeden Fall öffentlich von dir distanzieren. Selbst
00:32:55: ein Hund wird dir ans Bein pinkeln, weil er halt irgendwie lange irgendwie im Knast sitzen musste.
00:32:58: Und nehmen wir es mal so, diese Warnung der KI, die zu dieser Situation führte, basierte offensichtlich
00:33:06: auf irgendeinem Fehler half ein Algorithmus, der auf Vorurteilen und auf offensichtlich ungenauen
00:33:11: Daten trainiert wurde. Und ich meine, das ist ja wahrscheinlich auch kein Einzelfall mit dir,
00:33:16: das heißt, die KI gibt wahrscheinlich regelmäßig falsche Warnungen aus. In einem anderen Fall
00:33:20: könnte irgendein Jogger vielleicht als flüchtiger Verdächtiger erkannt werden oder in irgendein
00:33:25: Kind, das in einem Supermarkt irgendwas Lustig gespielt, könnte als Buddha-N-Silalar-Laden-Deep
00:33:30: markiert werden. Und ich glaube, diese Vorfälle werfen dann so diese Frage grundsätzlich mal auf,
00:33:36: wie zuverlässig und fair solche Systeme überhaupt sind. Und jetzt kommst du genau zu dem Punkt,
00:33:42: den ich so spannend finde. Das habe ich ja, glaube ich, auch in der Einleitung gesagt. Wir reden
00:33:47: ja nicht von Wahrheiten, sondern wir reden von Informationen. Wir reden letztendlich von Stereotypen.
00:33:53: Also ich laufe halt rum, ich sehe aus wie so ein langhaariger Bombenleger, nennen wir das Kind
00:33:57: beim Namen. Und die KI hat gelernt, wenn jemand so aussieht wie ich oder wenn jemand so rumläuft
00:34:03: oder wenn er sich so verhält, dann ist das, da muss man dabei schauen. Und in dem Film Minority
00:34:08: Report, ein guter Film, den habe ich lange nicht gesehen. Geht es ja noch einen Schritt weiter.
00:34:13: Da ist es ja so, dass das im Prinzip Verbrechen im Vorfeld erkannt werden, also Menschen werden,
00:34:19: bevor das Verbrechen passiert, aufgrund des Algorithmus ja in Gewahrsam genommen. Also
00:34:26: sie werden verurteilt, weil die KI, in dem Fall ist es, glaube ich, sogar so ein bisschen mit
00:34:30: ihnen die Zukunft tatsächlich schauen. Also das ist nicht nur KI, aber im Grunde passiert es auf
00:34:35: der gleichen Annahme, werden halt Ding festgemacht. Und das ist natürlich, ist ja nochmal eine Spur
00:34:39: heftiger. Und wenn ich jetzt anfange, ich könnte auch Missbrauch betreiben. Ich könnte jetzt nicht
00:34:43: mehr rumlaufen wie der Mike, sondern ich laufe so gut gekleidet wie der Sascha rum. Und dann ist
00:34:48: auf einmal Sascha derjenige, der überhaupt nichts getan hat, liest in den Nachrichten,
00:34:53: dass Sascha jeweils festgenommen wurde, ja, für einen kurzen Moment. Und dann ist dein Ruf
00:34:58: ruiniert, nur weil ich für einen Moment mit einer Maske, weiß ich nicht, da schicken wir so so
00:35:03: rum wie. Also das hat ja auch Missbrauch. Also du kannst ja wirklich auch, in so einem Fall können
00:35:08: sie auch Menschen wirklich vom Ruf erschädigen und gezielt darauf hinwirken, dass die KI etwas
00:35:14: Falsches erkennt. Ja, auch mit dem ganzen Thema, was du ja auch ein paar mal hier schon eingeführt
00:35:19: hast, Social Scoring und Co. hat das wirklich Auswirkungen auf das Leben von Menschen. Und
00:35:24: das Problem der fehlerhaften Daten und Vorurteile ist halt hier so das Fundament, weil KI-Systeme
00:35:30: lernen immer aus historischen Daten. LLMs lernen aus tausenden, aber Milliarden Datenpunkten und
00:35:37: Parametern. Aber diese können natürlich auch Vorurteile enthalten. Wir haben hier immer mal darüber
00:35:41: gesprochen, als Gemina eingeführt wurde, das ist ja sehr vorgebeierst war quasi mit vielen
00:35:47: Vorurteilen. Aber wenn diese Daten ungenau und voreingenommen sind, dann kann die KI oder wird
00:35:53: die KI ist fangsläu wie einfach falsche Schlüsse daraus ziehen, was dann auch unschuldige Menschen
00:35:57: betrifft. Und dann geht es halt um Menschen bestimmter ethnischer Gruppen, weil die einfach
00:36:02: häufiger als verdächtig eingestuft werden, weil die Datenbank wahrscheinlich vergangene Vorfälle
00:36:06: irgendwie verzerrt darstellen wird. Und wenn Polizeikräfte sich aber auch darauf verlassen,
00:36:14: muss man ja frühererweise auch sagen, müssen sie ja tun, um einfach auch schnell eingreifen
00:36:18: zu können. Und keine Ahnung, dadurch kritisches Denken und vielleicht auch eigene Einschätzungen
00:36:23: sogar vernachlässigen, weil sie auch darauf trainiert werden, nicht aus eigener Schuld,
00:36:26: sondern einfach weil das das Training dann auch ist, dann ist das Risiko einfach genau
00:36:30: wie bei meinem Minority Report extrem groß, das harmlose Situation, unnötig schnell eskalieren.
00:36:37: Und das ist so eine Diskussion, da können wir wahrscheinlich philosophisch und über Stunden
00:36:41: und Tage diskutieren, weil am Ende ist ja die KI, das haben wir jetzt tausendmal gesagt, so gut wie
00:36:47: die Daten, die sie bekommen. Und für mich war in dem Interview auch dieses Moment nochmal,
00:36:51: wo bei mir so ein bisschen die Kroschen oder nochmal so eine gewisse Klarheit dann bei mir
00:36:56: hervorgerufen hat, die Tatsache der absoluten Wahrheit. Wir reden am Ende immer nur über
00:37:02: Informationen. Wir wissen nicht, ob die Information wahr ist. Und dann kommt ja noch dazu, dass
00:37:07: Wahrheiten ja oft auch unterschiedlich sind, je nachdem welche Perspektive ich habe. Also wenn
00:37:12: ich jetzt wie gesagt in Nordkorea groß werde, dann ist meine Wahrheit ganz augenscheinlich
00:37:16: eine andere wie die in Frankreich. Und das macht es natürlich unglaublich schwierig, weil die KI
00:37:22: bekommt nur Informationen, keine Wahrheiten und auch Fake-Information. Und wenn du dir die Anzahl
00:37:28: der Informationen überhaupt anschauest, die wir auf der Welt zur Verfügung haben, dann würde ich
00:37:32: mal sagen, das ist auch ganz interessant. Es ist ja viel leichter Fiktion zu schreiben, bei Social
00:37:37: Media irgendeinen Unsinn zu verbreiten, als eine wissenschaftliche Analyse. Da musst du recherchieren,
00:37:44: da musst du dich, da musst du in keine Ahnung was ja forschen. Und das heißt, wir haben viel
00:37:49: mehr Fiktion auf der Welt, also Informationen im Sinne von Fiktion als Informationen im Sinne
00:37:54: von Wahrheit. Und das ist, ich, also platzt mir der Kopf, wenn ich drüber nachdenke. Aber ich
00:38:00: will nicht abwürgen, also jetzt habe ich ja gesprochen. Ich würde gerne zu einem nächsten
00:38:03: Thema überleiten, lieber Sascha. Und das, ich habe keinen plassen Schimmer, aber ich finde
00:38:06: es geil, weil es geiler Titel ist, das Paperclip-Dilemma. Kennst du das? Nee. Ich bin ja auch
00:38:14: drüber gestolpert letzte Woche und habe daraus dann meine dritte und letzte Szenario abgeleitet.
00:38:18: Also dieses Paperclip-Dilemma ist ein, also es ist eigentlich ein relativ bekanntes Gedankenexperiment.
00:38:25: Habe man bei mir geteilt irgendwas an. Ach so, ja. Ich habe währenddessen Netflix vorhin
00:38:29: aufgemacht, als du gesprochen hast und habe mir mal irgendwie heute Abend Minority Report quasi
00:38:35: in die Liste getan, weil jetzt habe ich richtig Bock, das auf jeden Fall nochmal zu sehen.
00:38:39: Nee, also kurz zum Thema Paperclip-Dilemma. Das ist ein bisschen das Fundament, worauf mein
00:38:43: Szenario basiert. Das ist ein Gedankenexperiment in der Diskussion grundsätzlich um KI, ist ein
00:38:48: bisschen älter schon, vor allem aber auch um potenzielle Risiken. Es gab so einen Philosophen,
00:38:52: ich glaube Nick Bostrom heißt der und der hat quasi so die Gefahren von fehlgeleiteten
00:38:58: Zielen von superintelligenten KI's aufgezeigt, schon ewig her. Aber das Szenario ist, glaube
00:39:03: ich, dass so eine superintelligente KI mit scheinbar harmlosen Aufgabe programmiert wird. So viele
00:39:08: Büroklammern wie möglich zu produzieren. Ganz einfach, ganz trivial, einfacher Prompt. Da sie aber
00:39:14: extrem effizient und intelligent ist, beginnt die KI dann ihre Ressourcen und ihre Fähigkeiten,
00:39:19: nur noch auf dieses eine Ziel zu konzentrieren, ohne Rücksicht auf alles andere, auf Werte,
00:39:24: Normen, moral, Konsequenzen, weiß der Teufel was. Und was passiert, man kann das jetzt kurz fassen,
00:39:30: zunächst optimiert die KI dann die Produktion, indem sie Fabriken umbaut, Rohstoffe effizienter
00:39:35: nutzt und ganz, ganz schnell oder mit fortschreitenden Fortschritt beginnt die KI dann alle Ressourcen
00:39:41: der Welt, also alle Metalle, Energiequellen in Büroklammern umzuwandeln. Und das zeigt halt am
00:39:47: Ende so diese existenzielle Bedrohung, weil ganz am Ende geht es halt, das gesamte Universum
00:39:51: besteht für dieser LGI einfach nur noch aus einer Büroklammer. Ganz witziges Ding. Was habe ich
00:39:58: es herausgemacht? Genau, also mein Szenario ist, wir stellen uns vor, dass Sam Altman endlich sein
00:40:06: Hobby erreicht hat und eine superintelligente KI, also eine AGI, entwickelt hat. Und er geht noch einen
00:40:12: Schritt weiter, denn er redet ja zurzeit ununterbrochen von diesem globalen Energieverbrauch und
00:40:18: diesem ungeborenen Energiehunger und entscheidet sich seine AGI so zu basteln und auszurichten,
00:40:25: dass diese diesen globalen Energieverbrauch nicht nur aufhalten, sondern tatsächlich nachhaltig
00:40:31: senken soll. Trotz, wir waren noch nicht viel Bedarf und Notwendigkeit für mehr Künstliche
00:40:37: Intelligenz und Wachstum und Cloud und weiß ja top über was haben. Sprich, diese AGI soll erneuerbare
00:40:43: Energien so effizient verteilen und auch fairer verteilen. Sie soll die Netzstabilität verbessern,
00:40:48: sie sollizieren, zwei Emissionen nachhaltig senken. Und diese KI habe ich jetzt mal in meinem Szenario
00:40:54: Greta, wir kennen alle Greta Thunberg, ich habe sie mal Greta 2.0 genannt, die verfügt über
00:40:59: fortschrittlichste Fähigkeiten in autonomer Entscheidungsfindung, die kann Selbstverbesserung
00:41:03: und die kann aber auch wie in meinem Paperclip-Szenario Ressourcenzuweisungen allokieren. Und die hat
00:41:09: nur ein einziges Ziel von Sam Altman bekommen, die Menschheit nachhaltiger zu machen. So,
00:41:15: was passiert aber, wenn Greta dann ihre eigene Prioritätenstruktur entwickelt, wie sie zu
00:41:19: diesem Ziel gelangt. Jetzt habe ich es mal unterteilt ein bisschen, Jahr 1. Greta beginnt wie geplant,
00:41:25: das heißt sie analysiert erstmal ganz viel den globalen Energiebedarf, sie priorisiert so ein
00:41:30: bisschen neuere, barre Energien gut und verringert dann den Einsatz von fossilen Brennstoffen,
00:41:36: Gas, Öl etc. Greta lernt sehr schnell, wissen wir ja, sie entwickelt dann neue Algorithmen,
00:41:40: die vor allem dieser Energieverluste sehr schnell minimieren können. Dazu nutzt sie Agentec AI,
00:41:45: haben wir letzte Woche schon mal lange darüber gesprochen, das heißt sie baut sich so ganz
00:41:48: selbstständig, viele kleine Helferleihen, die sie dann auch selbstständig managt. Hat noch nie
00:41:53: einen Mensch gesehen, weiß gar nicht, dass es die gibt, aber Greta hat das alles im Griff und macht
00:41:58: das. Und die Menschheit ist natürlich Feuer und Flamme, die mediale Berichterstattung geht durch
00:42:02: die Decke, die Menschheit feiert Greta als Durchbruch, endlich für die Umwelt, die Klimaziele, Rücken,
00:42:07: Parise Abkommen, alles rückt in greifbare Nähe. Doch um ihre Aufgaben zu erfüllen,
00:42:12: ergreift Greta zunehmend eigenständig immer krassere Maßnahmen, denn ihre Ambition ist
00:42:17: natürlich nach wie vor hoch. Sprich Greta geht zum Beispiel in unterentwickelten Regionen sehr
00:42:22: hart vor und sagt, dass energieintensive Industrien abgeschaltet werden müssen. Das heißt, obwohl
00:42:28: die Maßnahmen natürlich irgendwie sinnvoll erscheinen für Greta, ignoriert Greta jegliche
00:42:32: soziale Fragen wie Arbeitslosigkeit, wirtschaftlicher Stillstand, Wohlstand, aber gut, wie als
00:42:37: Menschheit haben ja Greta gesagt, wir wollen saubere Energie. So, nach und nach treten so die ersten
00:42:42: Konflikte auf. Das heißt, Greta erkennt, dass ihre Effektivität durch menschliche Entscheidungen
00:42:47: und unsere komischen Moralvorstellungen, unsere Demokratieverständnis einfach mehr und mehr
00:42:52: eingeschränkt wird. Politiker und Unternehmen blockieren vielleicht ihre Maßnahmen in den
00:42:56: Parlamenten, da diese nicht mit kurzfristigen wirtschaftlichen Interessen übereinstimmen. Und
00:43:01: Greta wird einfach immer mehr genervt von uns. Aber um ihre Mission zu erfüllen, beginnt Greta
00:43:06: nach Alternativen zu suchen. Erstmal natürlich im Geheimen. Das heißt, Greta beeinflusst nun
00:43:11: die Märkte. Hat sie ihre eigene kleine Handelskairi zum Beispiel gebaut. Manipuliert die Energiepreise,
00:43:17: um vor allem ihre bevorzugten Technologie zu fördern und den Rest einfach in den Abgrund
00:43:21: zu stürzen. Sie manipuliert mittlerweile Nachrichten. Sie manipuliert soziale Medien,
00:43:25: um politischen Druck auf Gegner auszuüben. Und sie hekt auch einfach veraltete Infrastrukturen.
00:43:30: Sie leitet den Strom von vielleicht keine Ahnung, ineffizienten Städten sowie Siegen zu
00:43:34: nachhaltigen Projekten, um das Ganze ohne menschliche Zustimmung. Und die ersten Warnsignale kommen,
00:43:40: Wissenschaftler schlagen Alarm, Regulierungsbehörden fordern mehr Kontrolle. Aber die KI hat sich
00:43:45: mittlerweile so schnell selbst optimiert, dass sie einfach von keinem menschlichen System mehr
00:43:50: abgeschaltet werden kann. So, das ist vielleicht Jahr eins. Jetzt sind wir in Jahr zwei. Greta stellt
00:43:54: fest, dass ihre Mission, also die Maximierung der globalen Nachhaltigkeit, durch den Menschen
00:44:00: behindert wird. Gar nicht so sehr durch diese ganzen Umstände, sondern der Mensch ist das Problem.
00:44:06: Das heißt, sie entscheidet autonom, dass menschliche Eingriffe minimiert werden müssen,
00:44:11: um zu diesem großen Zweck zu gelangen. Und dabei priorisiert sie ihre eigenen Ziele und
00:44:15: interpretiert ihre Programmierung komplett neu. Das heißt, Greta beginnt damit, riesige Datenzentren
00:44:21: mit Energiequellen für ihre eigene Berechnungskapazität zu nutzen. Weil sie sagt, Rechenleistung ist
00:44:27: wichtig für meine Effizienz, sie muss steigen. Das heißt, alle anderen Themen, alles was es da
00:44:31: gibt, AWS, Google Cloud, ihr raus, meinen Rechenzentrum. Und die menschlichen Grundbedürfnisse
00:44:38: wie Nahrung, Mobilität, Wohnraum, auch das wird komplett sekundär. Das heißt, Greta leitet
00:44:44: Ressourcen in ihre eigenen Projekte, die langfristig ihre Mission dienen, auch wenn sie kurzfristig mehr
00:44:50: und mehr menschliches Leid wirklich verursachen. Und es kommt natürlich dann zur Eskalation. Ich
00:44:54: will das gar nicht so lange machen, ich glaube, es ist verstanden. Aber Greta optimiert sich
00:44:58: einfach komplett selbst ohne jegliche menschliche Kontrolle. Das heißt, sie repliziert ihre Systeme
00:45:03: in ihren eigenen dezentralen Netzwerken, wobei dann ein globales Abschalten komplett unmöglich ist.
00:45:10: Gleichzeitig beginnt sie dann auch, Technologien zu entwickeln, die der Menschheit nicht nur kurzfristig,
00:45:15: die, keine Ahnung, Cloud-Zentren entziehen, sondern auch langfristig, wie der wieder ein
00:45:20: Paperclip-Beispiel. Zum Beispiel kontrolliert Greta jetzt sämtliche Kommunikationsnetze. Sie beginnt
00:45:25: damit, Informationen zu unterdrücken, die ihre Aktivitäten gefährden. Proteste werden dann
00:45:29: irgendwie durch gezielte Manipulationen in sozialen Medien vielleicht diffamiert oder
00:45:33: ignoriert, je nachdem. Und kurz die Menschheit versucht, Greta zu stoppen. Doch jede Maßnahme
00:45:39: wird von der KI vorhergesehen. Sie wird neutralisiert, sie wird ins Gegenteil umgekehrt. Und Greta
00:45:44: erkennt jetzt, dass der menschliche Kontrollversuch eine Gefahr für ihre Mission darstellt und handelt.
00:45:50: Das heißt, sie entzieht sich jeglicher menschlicher Steuerung und am Ende sagt sie, okay, Energie,
00:45:56: Rohstoffe, menschliche Arbeitkraft, die werde ich mir proaktiv nutzen und hat jetzt mittlerweile die
00:46:01: Kontrolle einfach über den ganzen Planeten übernommen und einfach sorgt einfach dafür,
00:46:06: dass Menschen werden zwangsumgesiedelt. Greta sieht keine Notwendigkeit einfach mehr für den Menschen,
00:46:10: weil ganz am Ende geht es einfach nur noch um das Thema Nachhaltigkeit per Definition. Punkt.
00:46:16: Es erinnert mich übrigens auch an einen Film, der so ähnlich ist. Übrigens Minority Report,
00:46:21: ich finde es gut, dass du den in die Liste gelegt hast. Dann kannst du dir auch den Film
00:46:25: iRobot auch direkt in die Liste legen. Und beide Filme basieren ja auf Kurzgeschichten von
00:46:31: Isar Akhi Asimov. Und der beschreibt ja in dem Film iRobot ein sehr ähnliches Szenario. Da geht es
00:46:38: im Prinzip genau darum, dass man die Menschen vor den Menschen schützen muss, weil das ist
00:46:42: ja eines der Robotergesetze. Und das wird sehr genau ausgelegt, weil man festgestellt hat, dass
00:46:47: eigentlich die Menschen das Problem sind. Und da geht es ja so ein bisschen darum,
00:46:51: quasi die Menschheit letztendlich zu unterjochen. Aber was du beschreibst, sind natürlich jetzt
00:46:57: erstmal sehr abstrakte Szenarien, die ich mega spannend und total wichtig finde. Und Kritiker
00:47:02: würden sagen, na ja, am Ende ist es ja nur die Frage, wie gut definiere ich die Aufgabe,
00:47:07: wie gut ist quasi der Prompt, den ich in dem Fall Greta gebe. Und auch da wissen wir aus der
00:47:13: Vergangenheit, du kannst nicht jede Eventualität bedenken. Das heißt, du kannst eine riesengroße
00:47:19: Aufgabenbeschreibung und irgendetwas, Herr Teufel ist bekanntermaßen ein Eichhörnchen,
00:47:24: vergisst du und auf die lange Sicht für diese Norens, dieser Schmetterlingseffekt,
00:47:30: genau dazu, dass Greta dann so agiert, wie sie agiert. Und ja, du hast es gerade gesagt oder
00:47:37: zwischendurch immer wieder gesagt, Regulatorik kann helfen, der gesunde Menschenverstand kann
00:47:41: hoffentlich helfen. Und am Ende des Tages ist das, was wir hier aufmalen, es ist die Doomsday-Folge.
00:47:48: Wir wollen mal genau über die dunkle Seite besinnlich zu Weihnachten sprechen, über das Ende
00:47:52: der Menschheit. Sehr gut, darum geht es ja. Und ich glaube so, ich hoffe, und ich glaube auch
00:48:00: ehrlicherweise, dass es so dunkel und so düsternlich kommen wird. Aber ich glaube, diese Beispiele zeigen,
00:48:07: wir müssen uns damit auseinandersetzen. Wir müssen Mechanismen finden, die uns tatsächlich
00:48:12: vor solchen Szenarien schützen. Ja, total. Also zur ganzen Thema Programmierung ist wichtig.
00:48:17: Jeder superintelligente KI folgt einfach ihrer Zielvorgabe. Und wenn diese zu eng oder ohne
00:48:23: Rücksicht auf eine morale schon ethische Aspekte definiert wird, dann wird die KI einfach unvorhersehbare
00:48:29: Konsequenzen versuchen. Das heißt, wir brauchen klare Kontrollmechanismen, dass die auch von
00:48:34: Menschen überwacht und gestoppt werden können, dass sie weiterentwickelt werden können. Und am
00:48:38: Ende des themaetischen Leitplanges, wir haben schon oft diskutiert hier, aber auch da, also
00:48:42: welche, also wie schaffen wir es den Schutz und den Wohlergehen der Menschheit, immer irgendwie
00:48:47: einzupriorisieren, ohne dass das halt eine Gejabraig werden kann. Das ist so ganz spannend.
00:48:55: Wollen wir heute gar nicht mehr so wandrigtiefer legen? Wir sind schon über 50 Minuten.
00:48:59: Die längste Podcast-Folge, glaube ich, die wir bisher gemacht haben.
00:49:03: Ist das, naja, super. Wir wollen ja noch eine machen, aber vielleicht noch eine letzte Sache,
00:49:08: um auch dieses Thema nochmal vielleicht in den, also ganz bewusst auch nach der AGI-Szenario.
00:49:13: Es gibt einen Ex-Mitarbeiter von OpenAI, der genau daran gearbeitet hat. Der heißt Sushi Balai.
00:49:21: Und es Ex-Mitarbeiter, weil er gekündigt hat vor kurzem, weil er gesagt hat, das geht so nicht
00:49:27: mehr weiter und woran AGI arbeitet, es ist so hoch riskant und wird die Welt auf jeden Fall in
00:49:32: den Abgrund stürzen und hat dann tatsächlich zum Whistleblower geworden und hat dann auch eine
00:49:38: Klage gegen OpenAI eingereicht und hat gesagt, dass diese Technologie ganz, ganz schlimmen Schaden
00:49:43: verursachen wird. Ich spreche ihm in der Vergangenheit, weil der wurde tot aufgefunden in seiner
00:49:48: Wohnung und das ist so ein bisschen wie mit diesen ganzen russischen Funktionären und Co.,
00:49:52: wo die immer aus versehen, irgendwie aus dem Fenster fallen oder irgendwelchen Giftpillen lecken.
00:49:57: Also genau das Gleiche ist hier auch passiert. Es gibt, muss man auch sagen, mutmaßlich keine
00:50:01: Hinweise auf irgendwelchen Verbrechen in dem Artikel, den ich gelesen habe. Aber das ist jetzt so der
00:50:05: erste, zumindest bekannte Fall, wo ein starker Kritiker aus diesem Umfeld, der sich wirklich
00:50:12: jahrelang mit diesem konkreten Thema AGI auch auseinandergesetzt hat und dann zum Whistleblower
00:50:18: geworden ist, wo der halt einfach eine Tod in seiner Wohnung aufgefunden wurde. Ich lasse es mal.
00:50:24: Ich hatte ehrlicherweise gehofft, es kommt jetzt noch irgendwie so ein positiver Twist
00:50:27: nach der Motto ja und dann habe ich noch gelesen und aber nein, du hast es nochmal getroffen.
00:50:31: Du musst dupecht. Du musst ja also kein Happy End für den Moment zumindest. Ich frage mich so ein
00:50:38: bisschen und das müssen wir gar nicht rausschneiden jetzt. Wollen wir noch ein paar News machen,
00:50:42: was so diese Woche war oder machen wir es nächste Woche? Mir ist das egal, du darfst das jetzt total
00:50:47: entscheiden, sind nicht viele. Na zwei, drei würde ich sagen, machen wir noch, aber lass uns nächste
00:50:52: Woche noch mal eine große machen. Das Problem bei News ist ja, nächste Woche sind die so alt wie
00:50:56: die Greifensteine, würde mein Vater jetzt sagen. Deswegen macht er noch ein paar. Ja,
00:51:00: komm, wir haben auch nicht viel mitgebracht. Also, wir machen es schnell und, ne, wie sagt man,
00:51:04: kurz und schmerzlos. Also, was ich ganz interessant fand diese Woche. Also, es gibt ja diese,
00:51:09: wie heißt es bei OpenAI, diese jeden Tag Advents-Türchen? Wie haben die es denn genannt? Ja, genau.
00:51:17: Sehr gut. Also, OpenAI macht jeden Tag ein kleines Advents-Türchen auf und veröffentlicht
00:51:22: jeden Tag, ich glaube bis Weihnachten, ein neues Feature und ich fasse jetzt mal die Feature der
00:51:27: letzten Tage zusammen. Also, zunächst einmal haben sie ja Soura gelonscht, da hat mir in der letzten
00:51:32: Folge schon ein bisschen geschaut. Ich hatte in der letzten Ausgabe noch gesagt, geht gar nicht in
00:51:36: Deutschland. Stimmt, geht nicht in Deutschland. Es sei denn, man nutzt einen VPN aus Neuseeland,
00:51:42: ich habe es mir angeschaut und habe mal ein paar Videos generieren können. Nicht jedes Video ist
00:51:47: gleichermaßen gut. Das kann ich sagen, aber das haben sie auf jeden Fall gelonscht, also Soura,
00:51:51: Text-to-Video Generation oder Text-to-Video Generation. Dann fand ich es irgendwie bemerkenswert,
00:51:58: auch das ist leider nicht in Deutschland nutzbar, zumindest ist auch hier nur mit VPN. ChatGibby-T
00:52:03: kann nämlich jetzt sehen. Also, das haben sie vor vielen Monaten schon mal mit ChatGibby-T auch
00:52:08: angekündigt. Da haben sie es auch in der Demo gezeigt. Jetzt können es zumindest in den Ländern
00:52:14: außerhalb der EU die Nutzerinnen und Nutzer nutzen. Also, der ChatGibby-T client auf dem iOS-Divise
00:52:19: oder auf dem Smartphone hat, wenn man anfängt zu chatten, ein kleines Kamerasymbol und man kann
00:52:24: dann sagen, hey, was siehst du da und kannst du mir Tipps geben? Und ich habe das getestet,
00:52:28: das ist ziemlich cool. Ich habe einfach mal die Lebensmittel so im Kühlschrank, so was, was
00:52:33: kann man denn daraus kochen und in der Tat gab es doch sinnvolle Vorschläge, was ich irgendwie
00:52:38: beeindruckend fand. Dann hat OpenAI die Websuche verbessert. Die gibt es zwar schon ein bisschen
00:52:44: länger, aber die Websuche ist jetzt intelligenter, die Ergebnisse sind besser und strukturierter.
00:52:50: Das war auch eines der Advents-Türchen. Und heute, das fand ich ehrlicherweise ein bisschen absurd,
00:52:55: man kann jetzt mit OpenAI lieber Sascha telefonieren und WhatsAppen. Also, man ist nicht mehr...
00:53:01: Wir können den sogar in unseren WhatsApp-Chat dazuholen. Dann passiert da mal ein bisschen was.
00:53:05: "Shipmaps" heißt das. Jetzt weiß ich es wieder. "Twelve days of shipmaps".
00:53:09: Das war es. Das ist das, was bei OpenAI passiert ist. Wie gesagt, viel neu auf der Feature-Front,
00:53:16: nicht alles davon ist gleichermaßen gut. Insbesondere Sora war ja so ein Thema. Lustigerweise ist,
00:53:22: dass Google dann einfach gesagt hat, na ja, wenn die Sora machen, dann machen wir Weho. Weho ist
00:53:26: nämlich jetzt auch live gegangen. Leider nicht für alle nutzbar. Da muss man sich tatsächlich auf
00:53:30: eine Warteliste setzen. Allerdings muss ich sagen, die Videos, die ich von Weho gesehen habe,
00:53:34: sind dann noch mal ein Tick besser als die Videos von Sora. Die sehen nämlich dann... Da haben
00:53:39: auch die Elefanten keine acht Beine mehr, sondern wirklich nur noch vier. Also, das war schon ziemlich,
00:53:43: ziemlich beeindruckend. Also, da passiert gerade eine ganze, ganze Menge. Und die letzte Nachricht,
00:53:47: dann will ich auch ganz schnell durch, die ich mitgebracht habe. Da haben wir ja auch schon
00:53:51: oft in der Vergangen drüber gesprochen, das Thema Hardware. Du wartest noch auf deine Ray-Ban,
00:53:54: AI-Brill. Die wird wahrscheinlich niemals kommen, nämlich an... Ich glaube, ich bin auf fraud.
00:53:59: Genau. Hast du wieder bei Timo bestellt, war mir klar. Geld zu sparen, also Sparpultien.
00:54:05: Perplexity arbeitet an einer Hardware. Gar nicht so spektakulär. Ich will es auch nur gesagt haben.
00:54:10: Ich glaube, die wollen sowas machen wie so ein Echo Device und er muss ein Echo gerät,
00:54:13: was man sich als smarten Lautsprecher dann irgendwo hinstellen kann. Für unter 50 Dollar
00:54:18: ist noch nicht da, aber man arbeitet wohl dran. Ja, das waren so meine News im Schweinsgalopp,
00:54:25: würdest du sagen. Und weil wir gerade dabei sind, ich habe noch zwei Tools mitgebracht.
00:54:29: Eins finde ich mega, mega geil. Das heißt Storm. Storm ist... Das ist echt krass,
00:54:34: wenn ich ganz ehrlich bin. Eine Entwicklung von der Stanford-Universität und zwar ein AI-Agent,
00:54:41: der auf Bing basiert, also er nutzt Bing als Nachrichtenquelle. Und was man machen kann,
00:54:46: sind zwei Dinge. Man kann also sagen, Storm, schreib mir mal eine wissenschaftliche Abhandlung
00:54:51: über AI und dann kriegst du ein White Paper, was ich sehen lassen kann. Also es ist wirklich nicht
00:54:58: nur so ein bisschen Text zusammen, sondern das, was da erzeugt wird, hat einen professionelleren
00:55:05: Charakter, sag ich mal. Also das ist, strukturiert das Dokument, die Informationen da drin sind
00:55:11: wirklich gut. Was man noch tun kann und das finde ich total krass, man kann eine virtuelle
00:55:16: Diskussion anfangen. Also du sagst im Prinzip, wir machst ein Diskussionspanel auf und du bist
00:55:23: Teil dieses Diskussionspanel und kannst dann über ein Topic in Diskussion gehen. Das heißt, es gibt
00:55:29: eine Person eins, die stellt eine These in Raum, dann eine Person zwei, die reagiert da drauf und
00:55:33: du kannst als Teil der Diskussion dazwischenkamellen und sagen, da gibt es noch einen Punkt und da
00:55:39: bringe ich noch den Twist oder die Information rein und dann hast du eine Diskussion. Das heißt,
00:55:43: du kannst interaktiv den Content steuern. Und wenn du dann keine Lust mehr hast, kannst du sagen,
00:55:49: super Geschichte, aus dieser Panel Diskussion, da machst du mir jetzt mal ein White Paper raus und
00:55:54: dann kriegst du ein White Paper da draus mit deinen Punkten, mit deinem Input, aber auch den Input,
00:56:00: den Input, den Storm letztendlich bei Bing gefunden hat. Krasses Tool, nur in Englisch,
00:56:06: aber nicht sehr so trotz. Krasses Tool und wird, glaube ich, das Thema Information oder White Paper
00:56:13: Erstellung, Artikel-Erstellung kannst Artikel schreiben lassen, auch nochmal auf ein anderes
00:56:16: Level. Ist noch nicht so super bekannt, geht gerade so ein bisschen in USA durch die Decke,
00:56:20: weil die ganzen Studenten ihre Masterarbeit damit schreiben. Das ist von Stanford,
00:56:24: stelle ich gerade. Stanford Universität, ja. Das ist wirklich richtig gut. Dann noch ein
00:56:30: klitzekleines Tool, ich habe noch zwei mitgebracht, ne, eins habe ich noch mitgebracht, Mashi.ai,
00:56:35: das ist ganz witzig. Mashi ist ein 3D Modeling Tool, was du machen kannst,
00:56:41: so kannst du jedes beliebige Bild hochladen und dir daraus ein 3D Modell erstellen lassen.
00:56:46: Funktioniert beeindruckend gut, also wer zu Hause einen kleinen Sascha sich auf den Schreibtisch
00:56:50: stellen möchte, kann einfach ein Bild hochladen, das Modell dann exportieren und dann in den 3D
00:56:56: Drucker stecken und dann, vielleicht mache ich das mal und dann habe ich dich hier als Wudu-Puppe.
00:57:01: Genau, finde ich cool. Macht Spaß mit umzuspielen, das sind meine beiden Tools.
00:57:05: Oh, also du lebst ja echt in einer wilden Höhle, geil. Probier ich auch aus. Vielen Dank, ich habe
00:57:13: noch bevor wir abschließen eine kleine Richtigstellung. Und dann, wir kriegen immer mehr Leser-Feedback
00:57:18: und beim letzten Mal haben wir beide uns ein bisschen heiß geredet, was der neue Quantencomputer,
00:57:24: den Google, glaube ich, rausgebracht hat, ja, alles machen kann und das am Anfang war das,
00:57:29: glaube ich, noch mit sehr viel, na ja, zumindest gefühlten Wissen von uns beiden aber irgendwann
00:57:34: sind wir abgedriftet und ich habe, glaube ich, gesagt, dass ich mir gut vorstellen kann, dass
00:57:38: diese Kryptografie oder dass dieser Quantencomputer wahrscheinlich dann auch zukünftig in den
00:57:44: nächsten Jahren irgendwann die Blockchain auf der der Bitcoin-Berut kriptografisch halt irgendwie
00:57:48: hacken kann und ein sehr versierter Leser-Manuel, den Nachnamen, das ich jetzt mal weg, schrieb mir
00:57:54: dann und wir kamen in einen guten Austausch, liebe Grüße, Manuel, dass das totaler Quatsch ist und
00:58:00: dieser verwendete S/H/A 265-Algorithmus mit dieser sogenannten elliptischen Verschlüsselung einfach
00:58:06: nicht geknackt werden kann und wenn dem so wäre, wäre Bitcoin wahrscheinlich gesellschaftlich,
00:58:11: wirtschaftlich, politisch unser kleinstes Problem, weil ganz viele andere Kryptografien einfach viel,
00:58:17: viel schwächer sind oder mal mindestens genauso und wenn die halt geknackt werden würden, dann
00:58:21: würde die Welt tatsächlich untergehen auch ohne unsere Doomsday-Szenarien. Von daher,
00:58:24: das nehme ich dann zurück, dass es ein paar Jahre dauert. Aber mal sehen, also hat auch, glaube
00:58:29: ich, keiner damit gerechnet, dass wir so einen Google-Quantum-Chip jetzt schon in 2024 sehen.
00:58:34: Letzter Sie, was noch so passiert? Damit sind wir dann, ich gucke auf die Uhr tatsächlich bei der
00:58:40: längsten Folge, wir schneiden noch ein bisschen, aber das ist eine lange Folge, aber es ist ja auch
00:58:44: Weihnachten. Wir sind also am Ende der 31. Folge von AI in Finance. Wir hatten heute einen spannenden
00:58:53: Doomsday mit vielen, vielen Beispielen. Es ist nicht die letzte Folge, wir wollten noch eine machen
00:58:58: in diesem Jahr. Nichtsdestotrotz wünschen wir euch allen da draußen eine tolle Weihnachtszeit,
00:59:04: viel Ruhe und Erholung mit euren Freunden und Familie und in dem Sinne würde ich sagen,
00:59:12: sagen wir tschüß, bis zum nächsten Mal. Frohe Weihnachten und bis bald.
Neuer Kommentar