AI im Einsatz: Bunq's Entwicklungen, DaveGPT's Durchbrüche und JPMorgan's DocLLM

Shownotes

Disclaimer Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als AI Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

Sascha

Hallo und herzlich willkommen zur zweiten Episode von AI in Finance, dem Unplugged-Podcast von Mike Klotz und Sascha Dewald zum Thema künstliche Intelligenz im Zahlungsverkehr und im Banking. Wer uns noch nicht kennt, beziehungsweise einen kurzen Rückblick in die Welt der künstlichen Intelligenz und auch einen Ausblick auf die neuen Entwicklungen möchte, dem empfehlen wir unsere Pilotfolge in eurem Podcast-Player der Wahl. Und heute wollen wir uns einfach mal drei Rubriken widmen und auch sofort loslegen. Und zwar erstens mit den aktuellen News und einem kurzen Einblick in die Themen der letzten Woche und auch die Vorstellungen der CES. Dann wollen wir den ersten Deep Dive in echte KI-Anwendungen im Banking und im Finance anhand von aktuellen Praxisbeispielen von JP Morgan, von Bunk und auch ein paar anderen interessanten europäischen Playern wagen. Das wurde tatsächlich auch von den ersten Hörerinnen nach der Pilotfolge gewünscht. Und dann haben wir eine neue Kategorie, und zwar Doomsday of the Week. Also unsere eigene kleine Weltuntergangs-Dystopie durch künstliche Intelligenz. Mal sehen, was ihr davon haltet. Mike, auf geht's. Hast du ein paar News für uns?

MAIK

Auf jeden Fall. Auch von meiner Seite natürlich ein Hallihallo in die Runde. Wie ihr schon mitbekommen habt, wechseln wir uns immer so ein bisschen ab. Das gilt natürlich auch für Lob und Kritik. Die Kritik gerne an Sascha und Lob immer gerne an mich. Nein, Spaß beiseite. In der Tat, News gab es ganz, ganz viele, was nicht nur dem Thema geschuldet war, sondern auch der CES. CES steht für Abonniert diesen Podcast oder aber für die Consumer Electronics Show in Las Vegas. Sie die Consumer Electronics Show in Las Vegas. ist letzte Woche zu Ende gegangen. Sie ist letzte Woche zu Ende gegangen. Und was man sagen dass im Grunde alles, kann, ist, absolut alles irgendwie mit AI zu tun hat. Soll jeder Hardware, heißen, sehr hardware-lastiges Messe oder Show, hat irgendetwas mit AI gemacht oder kündigt zumindest an, was mit AI zu tun hat. Das alles vorzustellen, wäre schwierig, weil dann müsste man die komplette CES vorstellen. Aber es gab so drei zwei, lust AI zu tun Das hat. alles vorzustellen wäre schwierig, weil dann müsste man die komplette CES vorstellen, aber es gab so zwei, drei lustige und interessante Dinge. Auf der einen Seite als erstes Samsung zu nennen. Samsung hat ganz, ganz viel vorgestellt. Auf der einen Seite mit Staubsauger, nicht Saugstauber, Staubsauger-Roboter und Wischroboter, die weiterer AI und intelligenten Funktionalitäten ausgestattet werden. AI-gestützte Screens, die dabei helfen sollen, dass die Bildwiedergabe, Farbwiedergabe noch besser ist, insbesondere bei niedrigen Bitraten. Ganz spannende Entwicklung. Und natürlich auch alles, was mit den Smartphones zu tun hat. Das heißt, Samsung hat für sich das Thema AI quasi als hauptsächliches Thema in der Produktentwicklung in den nächsten Jahren allokiert. Interessant war der Samsung Roboter, der Bally oder Bally, ich weiß nicht, wie es ausgesprochen wird, der wurde vor ein paar Jahren schon mal vorgestellt, war damals so groß wie eine Grapefruit, ganz orange, ist jetzt so groß wie ein Fußball, immer noch ganz orange und fährt so ein bisschen R2D2-mäßig, wie man das aus Star Wars kennt, hinter einem her und hilft mehr oder weniger im Haushalt oder bei täglichen Arbeiten, aber nicht, indem er wie der Tesla Optimo Wäsche faltet, sondern eher, indem er Informationen bereitstellt. Also was heißt, man kann mit ihm in eine Interaktion gehen und er hat natürlich nicht nur Lautsprecher und Mikrofone, sondern auch einen kleinen Projektor und kann dann Informationen bis hin zum Netflix-Serie alles an die Wand projizieren. Ganz lustiges Gadget. Mal schauen, wann es kommt und wie teuer es wird. Dazu hat sich Samsung natürlich noch nicht geäußert, aber das Video dazu ist recht sehenswert. Aber

SASCHA

das, was du gerade

MAIK

hast, das ist

SASCHA

alles, oder? Also der läuft irgendwie meinem Hund hinterher und überträgt das Ganze dann irgendwie ganz wundervoll auf mein iPhone. Ich kann damit irgendwie mir einen Netflix-Film an die Wand machen oder meine nächste Fitness-Serie. Aber das war's, oder?

MAIK

läuft irgendwie

SASCHA

hey, das Ding fährt hinter dir her.

MAIK

Ich kaufe das. Genau, gekauft. Ja, in der Tat. Also das hat eher der Bolli, Bully oder Bully hat keine Arme. Und wie gesagt, ist so ein kleiner Roboter, ballförmig, der hinter dir herfährt. Das ist das, was er macht. Also ein mehr oder weniger schlauer Assistent, der dir hilft, Fragen zu machen. Alexa auf Rädern, könnte man sagen. Ja, sowas in der Art. Ebenfalls ganz spannend, tatsächlich spannend, war ein Gadget, was jetzt auch schon in der ersten Charge ausverkauft ist. Das liegt auf der einen Seite an dem günstigen Preis von 199 Dollar und an dem wirklich witzigen Aussehen. Ich spreche von dem Rabbit RC One, das ein kleiner Handheld ist. Sieht so ein bisschen aus, habe ich letzte Woche, glaube ich, schon mal gesagt, wie so ein Gameboy. Sascha, du wirst dich noch erinnern, diese kleinen Gameboy-Dinger, ja? Knallrot. Und wenn man fragt, was macht das eigentlich? Es ist so ein bisschen, sieht aus wie ein Gameboy, wird bedient wie ein Walkie-Talkie, das heißt, ich drücke eine Taste, kann dann mit dem Gerät interagieren, also über Sprache und alle möglichen Fragen stellen, aber auch Tasks in Auftrag geben, also sagen, hol mir ein Uber, stell mir einen Termin ein, solche Geschichten. Und das Spannende daran ist, dass der RC1 quasi kontextbasierend richtige Tasks ausführt und Entscheidungen trifft. Das soll heißen, wenn ich sage, bestell mir ein Uber, dann weiß der RC1, wo ich hin will und wo ich gerade Player, der in dieser Gerätekategorie nach Humane aktiv ist. Also schöne, spannende Entwicklung. Humane war dieser Pin,

SASCHA

da sind wir beide irgendwie auch echt drauf abgegangen, waren kurz davor halt im Bestellknopf rücken. Ich glaube, du warst sogar schon weiter und hast dann gemerkt, du kannst den glaube ich nicht nach Deutschland

MAIK

bestellen. Warst du an der Freisburg 700? Stellknopf Ich du warst sogar schon rücken. weiter und glaube, hast dann du kannst glaube nicht gemerkt, nach Deutschland ihn, ich, du warst. bespielen. Nee, Warst du mal in Erdbeer-Fresbügel 700? Nee, Ich tatsächlich. 399 hängt meine, und hing aber an einem Mobilfunkvertrag. Also deswegen auch kein Delivery. Und da ist jetzt auch so ein bisschen Katerstimmung bei den Kolleginnen und Kollegen von Humane Ich AI. habe am Anfang immer Human gesagt, die werden aber anders geschrieben, also Humane AI. Ja, so ein bisschen wie so ein Star Trek Communicator, den ich mir ans Revers hefte. Allerdings haben die einige Mitarbeiterinnen und Mitarbeiter entlassen müssen, weil ich glaube, entweder die Anzahl der Bestellungen nicht ganz so gut war oder das Feedback, ich weiß es nicht. Muss man mal schauen, wie sich das weiterentwickelt. Aber du hast es gesagt, also US-only, so wie aktuell die Vision Pro, da schielst du ja noch so ein bisschen drauf. Vielleicht ein ganz kleines bisschen.

SASCHA

das erst noch fahren und dann zu

MAIK

Natürlich. Aber du hast Glück, es soll noch vor der WWDC in Europa erscheinen, so die Gerüchte. Was ja dann noch im zweiten Halbjahr, im ersten Halbjahr des Jahres wäre. Genau, also es war alles ziemlich hardwarelastig. Generell kann man sagen, dass im Bereich Robotics gerade so ein bisschen was passiert. Letzte Woche ging, oder diese Woche ging ein Video von Tesla durch die Medien, was auf zweierlei Arten witzig war. Auf der einen Seite Tesla sich nochmal berufen gefühlt hat, beim Thema Robotics überhaupt was zu zeigen. Ihr habt das ja wahrscheinlich alle da draußen mitbekommen. Letztes Jahr wurde der Optimus vorgestellt. Das ist der humanoide Roboter von Tesla. Groß angekündigt, soll günstiger sein als ein Kleinwagen. Und das Video, was gezeigt wurde, sollte den Entwicklungsschritt oder den Fortschritt viel mehr zeigen. Und was man gesehen hat, war den Optimus, der Wäsche faltet. Was man aber auch gesehen hat in dem Video, war die Hand, die den Optimus ferngesteuert hat. Die huscht nämlich immer so ins Bild, was den Rückschluss zulässt, dass er vielleicht doch noch nicht ganz so autark unterwegs ist. Startup ist aus dem OpenAI-Umfeld. Die haben ebenfalls einen humanoiden Roboter vorgestellt, der wohl auch schon im Einsatz mit dem wohlklingenden war, Namen Eve. Vielleicht erinnert sich noch der eine oder andere an den Pixar-Film Wall-E. Da gab es ja auch Eve, kleine Roboter. Und dieser Roboter von One X ist bereits im Bereich Security eingesetzt und soll jetzt in Krankenhäusern, Hospizen und Einrichtungen für betreutes Wohnen eingesetzt werden. Spannende Entwicklung. Das soweit so im Rahmen der CES. Ich husche mal ganz schnell weiter, weil ich auch natürlich auf die Uhr schaue. Was war noch spannend? Letzte Woche, das ist glaube ich so dein Ding gewesen, wo du ja auch so ein bisschen begeistert von warst und bist immer noch. Perplexity. Perplexity, ein Unternehmen, was im Grunde, ich weiß nicht, ob sie sich das als Aufgabe gemacht haben, aber zumindest inzwischen als Google-Killer gesehen wird, als Google-Suchmaschinen-Killer gesehen wird. Also ein Tool, ein Werkzeug, welches zunächst einmal viele verschiedene GPT-Modelle oder LLM-Modelle unter einer Oberfläche vereint. Ich kann heißt, in dem Moment, wo ich wirklich auf die Recherche gehe, ist das momentan zumindest bei mir, Sascha, ich weiß nicht, wie es bei dir aussieht, so das Tool der Wahl, kann man sagen.

SASCHA

hat es bei mir sogar fast ChatGPT abgelöst. Ich würde sagen, 50-50 bei mir. Also ich glaube, das Thema, diese Multimodalität, damit werben sie ja auch selber und das ist auch das, was man in den einschlägigen Foren und Blogs immer wieder überliest, dass das aktuell und schlagbar ist. Das heißt, dahinter liegen einfach verschiedene von diesen Sprachmodellen, über die wir schon beim letzten Mal gesprochen haben, diese LLMs. Und ich kann quasi selbst entscheiden, zumindest in der Premium-Version, die wir gerade testen, dass ich sage, ich möchte für einen ganz bestimmten Use Case ein bestimmtes, was dafür besser geeignet ist. GPT zum Beispiel ist ja oft sehr rhetorisch und verliert sich ganz oft dann in diesem Fantasieren auch gleichzeitig in wahnsinnig langen Schachtelsätzen. Und wenn ich aber sage, ich möchte eine Analyse, ich möchte ein wissenschaftliches Paper vielleicht auch mit dabei haben, dann suche ich mir vielleicht lieber eine Mistrale aus, ein Aleph Alpha oder ein ganz anderes entsprechendes LLM dahinter. Das ist Nummer eins. Ich kann das Ganze auch per Default einfach per Plexity AI sagen, such du mir doch bitte eins aus, passend zu meinem Prompt. Das Thema Prompt Engineering an der Stelle ist auch gar nicht mehr so ganz wichtig, weil es schon einfach hier eine viel bessere Erkennung darauf hat, was ich eigentlich für Keywords habe. Und für mich das Schönste tatsächlich ist so diese, ja, Quellensicherheit kann man eigentlich fast sagen. Denn bei jeder Antwort wird automatisch die Quelle oder die Vielfalt der Quellen angezeigt. Das gibt es mittlerweile in der neuen Version von GPT auch, zumindest in der Bezahlversion. Ich glaube, in der kostenlosen Version noch nicht. Da weiß ich ja nie so richtig, ist das jetzt zusammenfantasiert? Ist das einfach nur Wikipedia einmal rauskopiert? Und bei Perplexity AI finde ich es halt super, weil ich kann mich dann direkt auf diese Primärquellen,

MAIK

maximal Sekundär, auch in der Pro-Version, zeigt das so ein bisschen Fußnoten-mäßig an. Ich muss wirklich mit der Lupe manchmal gucken, ob das da ein Link dahinter ist. Und bei Perplexity ist es so ein bisschen wie in der Google-Suche mit so einem kleinen Vorschauer. Das heißt, man sieht direkt, aha, das ist der Beitrag und kann dann draufklicken. Supercooles Tool. Nicht umsonst haben sie ja jetzt in der Investitionsrunde oder in der Investmentrunde nochmal knapp 64 Millionen US-Dollar eingesammelt aus Gründen und die Bewertung liegt jetzt bei knapp 520 Millionen. Auch das wird Gründe haben und wie ich finde, zu Recht. Zu den Investoren, letzter Satz, gehören Menschen wie Jeff Bezos, auch der Chip-Hersteller Nvidia und 2023, wenn die Zahlen stimmen, hat Perplexity bereits 500 Millionen Suchanfragen abgefrühstückt sozusagen. Und das ist ja jetzt auch nicht so wenig. Absolutes Tool, was man empfehlen kann. Auch hier ist es der Google-Killer. Für mich noch nicht, aber auf jeden Fall ein wertvolles Tool. Und ich mache es wie du. 50-50 ist so der Einsatz.

SASCHA

würde auch sagen, probiert es einfach mal aus, wenn ihr es hört, weil immer, wenn ich jetzt mit Leuten auch dazu spreche, dann linken ganz viele ab und sagen, ach du, ich habe mittlerweile meinen Seelenfrieden bei Copilot von Microsoft oder bei GPT von OpenAI gefunden, aber es ist schon noch so ein bisschen die Zeit des wilden Westens. Das heißt, hier ganz klar der Aufruf, probiert es auch nochmal aus. Es ist eine App auf dem iPhone, auf dem Android. Ihr könnt es auch im Browser nutzen. Einfach mal kurz runterladen und in der Freeware ausprobieren. Wenn es euch nicht gefällt, könnt ihr es wieder löschen. Aber genau diese Multimodalität, das Thema Quellen und was Mike vorher erzählt hat, auch diese Related Articles zum Beispiel, das ist etwas, das gibt es bei GPT so noch nicht. Jeder hat immer so ein bisschen die Nase vorn für eine Woche und dann kommt das andere Modell und zieht sofort nach. Aber auch wie das von der User Experience und vom User Interface gelöst ist ist, ein bisschen die Nase vorn für eine Woche und dann kommt das andere Modell und zieht sofort Aber nach. auch wie das von der User Experience und vom User Interface gelöst ist, ist ein bisschen anders. Von daher klare Empfehlung, das einfach mal auszuprobieren.

MAIK

Und du hast schon zwei weitere Stöckchen, über die ich gerne drüber springe, genannt. Auf der einen Seite hast du Copilot von Microsoft genannt, die in dieser Woche die Pro-Version gelauncht haben. Das bedeutet, oder vielmehr die Pro-Version gab es ja vorher schon, aber jetzt die Integration in Office 365. Und das ist wirklich, ich will nicht sagen groundbreaking, so schlimm würde ich es noch nicht sehen, aber die Integration ist schon ziemlich cool. Abonnentinnen und Abonnenten des Microsoft Office 365 können sich die Pro-Version in der Beta-Version dazu schalten und dann habe ich es in Word, in PowerPoint, in Excel direkt mit drin und kann dann sagen, alles klar, erstellen wir mal eine Tabelle XY oder machen wir ein Word-Dokument mit dem und dem Inhalt. Und schwuppdiwupp ist der Aufsatz für die Schule fertig. Cooles Tool. Und du hast eben auch genannt Chat-GPT. Was dort online gegangen ist, live gegangen ist, erwähnenswert, ist der GPT-Store, also sowas wie ein App-Store nur für GPTs. GPTs sind nichts anderes wie kleine Chat-GPTs, die auf einem bestimmten Use-Case trainiert worden sind.

MAIK

kann man dann die beiden Philips fragen, beziehungsweise das entsprechende GPT dahinter. Und da werden dann die Inhalte, die in den Podcasts in den letzten Monaten und Jahren besprochen sind, herangezogen, um Antworten zu geben. Es gibt aber auch GPTs von Canva, wo ich sagen mach mir mal eine kann, schicke Grafik. Es gibt extra um GPTs, Icons zu generieren. Da passiert ganz, ganz viel. Und jeder kann sich einen eigenen GPT, das ging auch vorher schon, erstellen und den dann in diesem Store, in Anführungszeichen, wobei im Grunde ist es das, dann bereitstellen und der Masse der Menschheit zugänglich machen. Finde ich eine schöne Geschichte. Werden wir sicherlich noch ein paar mehr Sachen sehen. Ja, und das jetzt mal so wirklich im Schweinsgalopp, könnte man sagen, der Schnelldurchlauf. Eine Sache fehlt noch, dass nur am Rande die Kolleginnen und Kollegen der Erstemank in Österreich haben einen eigenen TPT gelauncht, aber da kommen wir ja dann gleich beim Themenschwerpunkt auch nochmal zu.

SASCHA

auch sagen. Lass uns das lieber dort mit aufnehmen. Und wir halten, also zumindest hatten wir die Idee, diese Rubrik heute deutlich schmaler zu halten, weil wahrscheinlich viele von euch auch eine gemeinsame E-Mail-Adresse. Da könnt ihr das dann hinrichten. Aber jetzt wollen wir tatsächlich mal unser Versprechen wahrmachen und mal die erste Deep Dive machen, und zwar eine KI-Anwendung. Sowas wie Erste Bank zum Beispiel. Aber ich glaube, du hast den ersten Case vorbereitet. Ein bisschen wirkungsweise, oder Mike?

MAIK

vorbereitet. Etwas übertrieben, aber wie du es gesagt hast, wir wollen natürlich darüber sprechen, was passiert im Bereich Finance und was gibt es da für Use Cases, für Anwendungen und da passiert in der Tat langsam, aber sicher passiert da ein bisschen was und wir sehen die ersten Früchte dieser Entwicklung und was ich mitgebracht habe, ist eine Neobank. Also wir haben heute, wir werden so ein bisschen eingekreist in Deutschland, einmal vom Flachland, Holland und später gehen wir dann zu unseren Bergvolk,

MAIK

unseren Freunden in Österreich, dann geht es dann weiter bergauf. Aber fangen wir an vielleicht tatsächlich mit einem Startup oder einer Neobank aus den Niederlanden namens Bank. Wir haben eben schon gerätselt, wie wir es aussprechen. Also es wird geschrieben B-U-N-Q. Die Holländer werden wahrscheinlich sowas sagen wie Bunk. Aber wir sagen jetzt mal Bank, also die Neobank Bank oder Bank. Und wer diese Neobank nicht kennt, das ist so ein bisschen, wie man sich Süßspeisen vorstellt aus den Niederlanden. Es ist sehr bunt, es ist sehr süß, es hat sehr viele Zutaten. So auch diese, ich glaube, es ist eine Mobile-Only-App oder Mobile-Only-Bank und hat, wie gesagt, gibt es schon relativ lange, sehr, sehr breites Portfolio und Funktionsumfang. Und was die Geloge haben, ehrlicherweise für das Unternehmen fast untypische, fast schon langweilige Namen für den Assistenten namens Finn. Das heißt, die haben in diese App einen GPT, einen Chatbot integriert namens Finn, F-I-N-N geschrieben. Und dieser Finn, diese Anwendung agiert letztendlich auf den Transaktionsdaten der Anwenderinnen und Anwender. Also was wir in den letzten fast zehn Jahren basiert das, letztendlich auf den Transaktionsdaten der Anwenderinnen und Anwender. Also was wir in den letzten fast das, zehn Jahren immer wieder auch in der Branche diskutiert haben, nämlich den Datenschatz der Banken heben zu können oder nutzen zu können, macht dieser kleine Chatbot.

MAIK

Er agiert also und beantwortet Fragen rund um die Nicht das Transaktionsdaten. er wird auch angereichert nur, mit heißt, vielen weiteren aber die vielen, Basis sind die Daten, sag mir was so die Transaktionsdaten. größten oder höchsten Ausgaben mal, der letzten Monate sind. Das ist noch relativ das kennen wir einfach, aus dem Bereich Personal Finance Management PFN, Software, das ist so eine Standard-Tortendiagramm-Auswertung, das ist noch relativ unspannend. Was aber spannend dass ich sehr gezielte Fragen stellen ist, das ich interagiere mit dem Bot kann, genauso, heißt, wie ich auch eine WhatsApp- oder eine iMessage-Nachricht schreibe und kann dann sagen, naja, sag mir mal, wo ich die höch meine Ausgaben ABC, sondern kann auch sagen, wie hoch sind denn die Ausgaben im Vergleich zu beispielsweise Personen mit einer ähnlichen soziodemografischen Grundlage. Ich kann auch fragen, ich möchte mir eine Immobilie kaufen zum Preis von XY, was muss ich denn so im Schnitt im Monat dafür bezahlen? Und all diese Antworten gibt Finn oder versucht sie zu geben. Man bekommt dann, das ist relativ langsam, ich würde sogar sagen schnarchlangsam, das liegt vielleicht noch momentan in der Alpha- oder Beta-Version, also man muss ein bisschen Geduld mitbringen, aber dann gibt einem Finn diese Antworten. Natürlich weist Finn darauf hin, dass das keine Investitionsberatung oder keine Immobilienfinanzierung ist, das ist alles klar, aber man bekommt schon ein recht gutes Gefühl, was eigentlich so geht oder was eigentlich so mit meinen eigenen Transaktionsdaten so möglich ist. Und es lädt wirklich ein, Fragen zu stellen. Also ich habe mich immer geärgert, dass die wenigsten Banken so einfache Fragen beantworten können, wie hoch sind eigentlich meine Fixkosten. Also es gibt irgendwie eine Million Auswertungen bei allen möglichen Banken, aber wie hoch so die monatlichen Fixkosten sind, das war zumindest über viele Jahre lang recht schwierig. Und solche Sachen beantwortet Finn quasi aus dem FF. Immer schön als Textnachricht dargestellt mit Emoticons, sieht auch immer ein bisschen fancy aus. Tortendiagramme gibt es dafür keine, aber es lädt schon ein, damit rumzuspielen. Man kann darüber hinaus aber eben auch noch mehr fragen. Also ich kann auch sagen, Finn, zeig mir mal die günstigsten Restaurants bei mir in der Nähe an. Und auch das macht Finn. Also es ist nicht nur begrenzt auf die eigenen Transaktionsdaten, sondern wird wirklich angereichert mit weiteren Informationen und Daten. Und es macht doch Spaß, damit rumzuspielen. Alpha-Version oder Beta-Version, ich glaube, es ist die Version 0.1, also noch ein sehr, sehr frühes Stadium und in der Tat noch recht träge und langsam. Fast schon versteckt, so ein bisschen innerhalb der App, aber wenn man es mal gefunden hat, dann kann man loslegen. Es kommt so ein kleines Demo-Video und dann geht es auch direkt, wie gesagt, los. Und ein schönes Beispiel eigentlich dafür, was heute schon möglich ist. Und ich bin mir ziemlich sicher, dass die Kolleginnen und Kollegen dort noch weiter daran arbeiten und wir da noch weitere Entwicklungen sehen werden. Letzter Satz zu FIND vielleicht, wie gesagt, angereichert mit ganz vielen unterschiedlichen Daten und für Nutzerinnen und Nutzer der Bank-App quasi sofort nutzbar jeder kann loslegen, der da ein Konto hat. Ja, das zu Bank. Ich überlege gerade, habe ich was vergessen? Ich glaube, es sind die Ersten, die in Europa so ein bisschen was gelauncht haben. Ich wüsste jetzt keinen, weißt du irgendwas? Eine andere Bank, die was Ähnliches gemacht hat? Zumindest für die Öffentlichkeit.

SASCHA

Nicht in der Tiefe. Naja, es gibt halt irgendwie so ein paar Banken, die mit den Alpha-Versionen rumspielen oder mit Closed-Beta-Gruppen. Aber dass sie es tatsächlich einfach launchen und ihre Kundinnen und Kunden dazu einladen, einfach mal den kleinen Zeh ins Wasser zu stecken, das ist schon super. Und fairerweise, alles, was du gerade beschrieben hast, ist ja schon eine recht spannende Integration und wird auf jeden Fall auch einige Anwendungsfelder von Kundinnen und Kunden befriedigen. Auch gerade die Integration über so einen PFM ist tatsächlich wirklich gut. Ich glaube, warum das Ding so schleichlangsam, wie du es ausgesprochen hast, liegt vor allem daran, dass sie einfach zu viel wollen. Das ist so ein bisschen das Problem, wenn du dein Sprachmodell zu groß wählst und neben generischen Anfragen und vielleicht auch noch Anfragen zu deiner Transaktionshistorie auch noch Antworten zeigst, wo das nächste tolle Restaurant um die Ecke ist, dann ist es einfach zu langsam und kann diese entsprechenden Transaktionen alle gar nicht gleichzeitig verarbeiten. Aber ich finde es richtig gut, auch um so ein bisschen mal zu sehen, in welche Richtung Finn denkt. Es gibt ein anderes Beispiel aus den USA. Das ist ein Fintech, das nennt sich Dave. Das hat vor kurzem den auf KI basierten Chatbot Dave GPT eingeführt. Und der hat wohl eine, also zumindest eine eigene Aussage des CEOs, eine sehr beeindruckende Problemlösungsquote von 89 Prozent mittlerweile erreicht. Und der CEO von Dave, das ist der Jason Wilk, der betont öffentlich über alle Plattformen LinkedIn und X und Co., dass Dave GPT dem Geschmack von modernen Kunden vor allem entspricht, ganz besonders natürlich Millennials und der Gen Z, weil die ganz klar sagen, sie möchten nicht mehr in die Filiale, sie möchten kein Telefon, sie brauchen keine E-Mails, sondern sie brauchen einen Echtzeit-Chat und wenn der von einer Maschine generiert ist, dann ist ihnen das umso denn es ist wahnsinnig lieber, objektiv und unabhängig. Spannende These auf jeden Fall und ich glaube, genau mit diesem Wissen von Bunk und von Dave wollen wir uns heute einfach mal anschauen, warum immer mehr Banken und auch Fintechs vor allem im Kundenservice auf KI setzen. Wir glauben, dass generative KI-Modelle im Kundenservice zunächst einmal das Thema menschenähnliche Konversationen viel besser führen können, indem sie die Antworten einfach basierend auf diesen Daten erzeugen, mit denen sie trainiert wurden. Und das sind dann Daten aus unterschiedlichsten Datenbanken, aus den FAQs, aus Wissensdatenbanken. Und das Ziel ist es, wie in Mikes Punkt Beispiel oder wie hier auch bei Dave bei uns, den Kundinnen und Kunden eine schnelle und eine genaue Antwort auf ihre Anfragen zu geben, ohne dass sie halt lange warten müssen. Und aus meiner persönlichen Sicht sind vor allem Genauigkeit und Verlässlichkeit die wichtigsten Zauberwörter. Wichtig ist aber auch in Geschwindigkeit. Du hast es gerade geschrieben, wenn das Sprachmodell dahinter einfach zehn Sekunden zum Rechnen braucht und mir dann die Antwort erst so spät anzeigt, dann gehe ich vielleicht doch wieder raus und versuche einfach eine E-Mail zu schreiben oder Customer Service anzurufen. Aber ich glaube, das Thema Verlässlichkeit der Antworten und die hohe Qualität ist super wichtig. Was wir sehen in diesen unterschiedlichen Beispielen sind grundsätzlich mal so drei Anwendungstiefen. Durch diese schlichte Anknüpfung, wie wir es jetzt auch bei Dave sehen, von üblichen FAQs, von anderen Wissensdatenbanken, von Fintechs und Banken, können sehr einfache, sehr generische Fragen beantwortet werden. Das ist genau das Beispiel, was du hattest oder das ist die Frage, wie viel kostet eure Kreditkarte? Ist eine Kreditkarte besser als eine Debitkarte? Was ist der aktuelle Zins auf eurem Tagesgeld? Das sind so typische Anfragen, mit denen ja üblicherweise die Callcenter eine große Menge an einfachen Fragen immer wieder haben und die einfach so ein Chatbot dann abräumen kann. Und das sind tatsächlich auch fast alle Anwendungsfälle, die wir bisher in Europa und in den USA sehen. Dann kommt schon die nächste und aus meiner Sicht auch deutlich technisch komplexere Ausbaustufe und das ist dann die Anbindung an das Kernbanksystem. Denn nun können Kunden auch individuelle Fragen stellen, so wie hoch ist der Saldo auf dem Konto, welchen Zinssatz habe ich bei meiner Baufie, bei meinem Ratenkredit oder ich kann mir halt, wie du es gerade beschrieben hast, meine Transaktionshistorie so ein bisschen PFM-mäßig einfach aufbauen lassen. Und da sind, ich glaube, Bank oder Bunk, wie ich es bisher immer genannt habe, die Ersten, die genau diese Lücke schließen. Und hier ist tatsächlich Komplexität drin und das darf man gar nicht unterschätzen, weil Kundinnen und Kunden verlassen sich genau auf diese Aussage. Das heißt, wenn da halt irgendwie die APIs nicht sauber miteinander sprechen und das LLM vielleicht auch wieder fantasiert, was ja immer noch ein großes Problem ist in dieser Art von Sprachmodell Architektur, dann hast du einfach keine wirklich hohe Qualität. Und ich persönlich gehe sogar so weit, dass ich sage, dass ein Chatbot-Integration besser sein muss als der menschliche Kontakt. Der muss schneller sein natürlich. Ich möchte nicht mehr in der Warteschleife hängen. Ich möchte nicht in die nächste Filiale wackeln und dort mich irgendwo anstellen, sondern ich möchte sofort in meinem Lebenskontext, den ich jetzt gerade habe, eine sofortige Echtzeitantwort mit den Echtzeitdaten. Und nur wenn das gewährleistet, ist das Ding irgendwie auch besser als der Mensch. Genau, das Nächste ist, oder die letzte Integrationsebene, die wir so gerade sehen, die wird erfüllt, wenn nicht nur Fragen zum Produkt, sondern eben auch Aktionen ausgeführt werden können. Also ich kann nicht nur fragen, was ist denn gerade mein Limit auf meiner Kreditkarte, sondern ich kann dem Bot dann auch sagen, ich möchte, dass dieses bitte temporär für 24 Stunden erhöht wird, weil ich mir gerade irgendwas Schönes kaufen will und danach das Ganze aber wieder deaktiviert wird. Ich möchte Ihnen sagen, das Ganze nur in bestimmten Ländern zu aktivieren und das ist dann tatsächlich nicht mehr nur die Pflicht, das ist dann die Kür und kann aus unserer Sicht dann auch mittelfristig das ganze Thema Kundenservice wirklich mal revolutionieren. Aber das ist die Theorie und ich glaube schon, dass bevor die großen Player im europäischen Bankenbereich solche Chatbots wie Bank und Dave auf großer Fläche dann einführen, dann sollten sie vor allem Akzeptanz solcher Technologien und auch die Herausforderungen, die es so gibt, die Schwierigkeiten auch bei den Menschen, wirklich in ihre Überlegungen mit einfließen lassen, oder?

MAIK

Ja, absolut. Aber was ich zum Thema Akzeptanz, ich weiß nicht, wie du drauf schaust, aber für mich ist diese Diskussion immer, das eine Tun bedeutet oft für viele, das andere zu lassen. Ich glaube nicht, dass wir oder dass Chatbots mittelfristig

MAIK

Kontakt irgendwie abschalten. Also du wirst beide Kanäle haben, so wie wir das jetzt ja auch haben. Ich kann eine E-Mail an meine Beraterin oder Berater schicken, ich kann anrufen und ich kann künftig halt auch mit einem Chatbot sprechen. Und nicht, dass du das bist, total bei dir. Es braucht diese Akzeptanz. Weiß ich natürlich nicht, ob das die Hauptaufgabe der Branche ist, in der wir uns bewegen, oder ob wir die Akzeptanz generell beim Thema AI gesellschaftlich steigern müssen. Dazu müssen natürlich insgesamt noch viele Fragen beantwortet werden. Aber ich bin ganz bei dir. Klar, also die Akzeptanz ist ein ganz wichtiges Thema. Aber ich würde es nicht so schwarz-weiß sehen. So siehst du es auch nicht, dass man das eine abstellt, wenn das andere kommt. Also das wird nicht passieren. Das glaube ich nicht.

SASCHA

Nee, gar nicht. Aber ich glaube, genau da muss man angreifen. Ich glaube, im Banking-Jargon würde man das Omnikanal-Strategie nennen, dass du versuchst, quasi an so ganz vielen Touchpoints deine unterschiedlichen Kundenkohorten entsprechend mit Informationen zu versorgen. Und wir dürfen halt nicht vergessen, Menschen sind Gewohnheitstiere. in der Filiale ihrer Wahl hatten oder wenn sie eine gute Hotline hatten unter unterschiedlichste Kommunikationskanäle, dann ist das wichtig, weil Menschen, wir beide auch, schätzen einfach die menschliche Interaktion. Und wenn du dann aber als Bank oder wer auch immer sagst, es gibt jetzt einen wirklich radikalen, plötzlichen Übergang zu einem reinen Chatbot, dann wird das aus meiner Sicht zwangsläufig zu einer Unzufriedenheit führen. Wir hatten es vorhin, Thema Qualität. Also wenn so ein Chatbot nicht in der Lage ist, eine Frage wirklich korrekt und 100%ig zufriedenstellend zu beantworten, dann führt es auf jeden Fall zu einer Frustration. Und daher glauben wir, dass es super wichtig ist, dass die KI richtig gut trainiert ist und dann auch natürlich kontinuierlich immer verbessert wird. Darf ich da kurz? Da würde ich kurz reingrätsert Ja. Darf ich da kurz? Ja. wird.

MAIK

Da würde ich kurz reingrätschen. Sorry, dass ich da jetzt unterbreche. Aber das Thema Qualität, ist das etwas, was die Kundinnen und Kunden da draußen tatsächlich wahrnehmen? Also im Sinne von oder merken, bemerken, so muss ich sagen. Denn, wie wir es ja eben schon gesagt haben, das hört sich ja alles immer verdammt plausibel an, was da gesagt wird. Das heißt, ist das wirklich, also die Qualität, dass irgendwas vielleicht nicht 100% stimmt, merke ich ja dann vielleicht erst viele Monate, Tage, was auch immer später. Aber ich glaube, für den reinen Support, also den Kundenkontaktpunkt, also könnte ich mir vorstellen, dass die Wahrnehmung der Kundinnen und Kunden tatsächlich sogar steigt, weil so ein Chatbot immer irgendwie eine sehr plausible Antwort geben kann.

SASCHA

glaube, bei so einfacheren Fragen, auch was so das Thema Transaktionen und Informationen zum Kontostand und Co. angeht, da bin ich bei dir. Das ist relativ simpel, auch die Artists da entsprechend sauber hinzustellen. Wo es aber komplex wird, wenn Aufträge erteilt werden, die vielleicht falsch erteilt wurden beziehungsweise falsch weitergegeben wurden. Das heißt, wenn ich eine Wertpapier-Order zum Beispiel mache oder wenn ich, wie ich vorhin als mein Beispiel hatte, eine Limit-Änderung mache und die wird einfach falsch ausgeführt, weil der Bot fantasiert im Hintergrund und mir nicht nur mein Limit jetzt um 1.000 Euro erhöht, sondern vielleicht um 10.000 Euro und gleichzeitig findet noch ein Betrugsversuch statt und mein Geld ist an der Stelle weg, dann ist das nicht wirklich vertrauensfördernd und dann hast du ein riesengroßes Qualitätsproblem. Und das ist genau das, was ich damit meine, dass ich glaube, die Qualität nicht nur der Antworten, sondern dieser gesamten Kommunikation wirklich mindestens so gut sein muss wie mit einem Menschen. Und verstehe mich nicht falsch, Menschen machen die ganze Zeit natürlich Fehler. Das ist ja auch genau das, wo Maschinen in der Kommunikation 24-7-Massen-Segmentierung wahrscheinlich nicht die gleichen Fehler machen. Und wenn, können sie sie vielleicht sogar in Echtzeit abstellen. Aber wenn es zu solchen fatalen Fehlern käme, wie ich sie gerade beschrieben habe, dann wäre natürlich dieses ganze Projekt gefährdet. Ich glaube, das kann man vor allem begegnen, indem man den Kundinnen und Kunden auch erklärt, was ist hier gerade eigentlich Phase, weil ganz viele, vor allem so Kommunikationsunternehmen der letzten Jahre haben großflächig dann auch Chatbots in ihre Kundenkommunikation eingeführt und nicht wirklich transparent kommuniziert, worum handelt es sich hier? Ist es eine Maschine? Ist es vielleicht ein hybrides Modell, also eine Kombination aus Chatbot und menschlichem Support? Oder ist es einfach vielleicht ein Mensch, der sogar dahinter steckt und sich als Maschine ausgibt? Weil alles das haben wir schon gesehen und sorgte bei den meisten, gerade so Telekom und 1&1, wirklich zu sehr unzufriedenen Kunden, extrem sinkenden Kundenzufriedenheit, weil wenn so ein Ding nicht funktioniert oder mir falsche Antworten ausspuckt, dann war es wahrscheinlich das allerletzte Mal, dass ich das benutzt habe. Ich werde mit meinen Freundinnen darüber sprechen, ich werde mit der Familie darüber sprechen und ganz explizit abraten. Und natürlich werde ich auch in den Ratings und Reviews der Bank den NPS, wo sich ja immer noch viele Banken tatsächlich danach richten, massiv in den Keller schicken. Und deswegen glaube ich ganz fest, dass das Thema Transparenz super wichtig ist und auch so eine hybride Einführung, dass ich den Kundinnen erkläre, hey, wir haben da jetzt was vor, aber wir machen eine Kombination. Das heißt, wenn der Chatbot eine Anfrage an der Stelle nicht bearbeiten kann, dann wird der Kunde wirklich sofort an einen echten Mitarbeiter weitergeleitet, um diese Frustration gar nicht erst entstehen zu lassen.

MAIK

Du hast ja einen Punkt, den wir noch nicht genannt haben, ist das Thema emotionale Intelligenz. Was, wenn ich mal irgendwie in einer schwierigen finanziellen Situation bin und ich mit einem Chatbot spreche, der vielleicht sehr neutral ist, also das mir dann sagt, nee, ich kann dir halt nicht helfen, weil die emotionale Intelligenz einfach fehlt, wie schaust du da drauf? Und um vielleicht eins vorweg zu schicken, ich habe beides schon erlebt. Also im Sinne von, es gibt auch diesen Berater Frommhell, da hätte ich mir in der Tat ein Chatbot gewünscht, weil da jede Form von emotionaler Intelligenz abwesend war. Aber natürlich auch das positive Beispiel. Und das ist sicherlich auch ein Punkt, wo Chatbots heute nicht so richtig helfen können oder noch Defizite haben, sagen wir es mal so.

SASCHA

Also ich Ja, glaube total. helfen können oder noch Defizite sagen wir haben, es mal total. so. Ja, Also ich glaube, sie haben tatsächlich Defizite. Immer besser. Ich glaube, wenn wir in sechs Monaten dazu sprechen, dann werden wir auch diese Probleme gar nicht mehr so sehr sehen. Aber Menschen können, wie du es gerade beschrieben hast, grundsätzlich ja Empathie zeigen. Manchmal ein bisschen zu viel, manchmal vielleicht eine Richtung, die uns nicht gefällt. Aber geschulte Agents sollten auf die emotionale Stimmung einer Kundin in sehr diversen Krisen- und Eskalationssituationen reagieren können. So, Chatbots haben hier einfach noch Schwierigkeiten. Auch einfach, wenn wir uns die neue Version von GPT anschauen, wir haben es letzte Woche einmal kurz erklärt, gerade auch die Stimmenmodulation, da ist halt alles drin, nur noch keine echte menschliche Emotion. Da wird vielleicht mal so ein Schmatzgeräusch oder ein Ä oder U irgendwie mal mit reingebaut. Aber das hat noch nichts wirklich mit echten Emotionen zu tun. Also wir sehen das ja in aller Art von Kundenservice, dass es komplexe oder auch sehr emotional aufgeladene Situationen gibt. Stell dir vor, du stehst an irgendeinem Flughafen, hast deine Kreditkarte verloren und kommst einfach nicht mehr weg. Oder hast einen Betrugsversuch irgendwo auf deiner Karte, auch im Ausland. Dann bevorzugen diese Menschen einen ganz, ganz schnellen Kontakt zu einem anderen echten Menschen, der ihnen nicht nur das Problem löst, sondern auch wirklich so ein bisschen Emotionalität und Empathie zeigt, um auch darauf einzugehen. Ich glaube trotzdem, dass wenn ich in diesen beschriebenen Situationen stecke und aus der App direkt vielleicht sofort mein Problem selber lösen kann, weil es einen Self-Service dafür gibt, der auch noch Chat-gestützt ist, dann bin ich happy. Dann brauche ich vielleicht nicht unbedingt noch den Agent, wo ich mich an der Schulter ausholen kann, sondern mache das dann vielleicht bei meiner Frau. Aber trotzdem ist das einfach ein Thema. Damit muss man bewusst umgehen, wenn man so ein Chatbot, glaube ich, einführt und wenn man es tatsächlich als seine große Strategie für die Zukunft sieht.

MAIK

ich auch. Aber das hat noch was anderes mitgebracht. Eine ganz andere, spannende Entwicklung, die auch, glaube ich, letzte Woche oder vorletzte Woche so über den Äther ging, kann man sagen. Und das ist das, was die Kollegen und Kollegen von JP Morgan bereitgestellt haben, nämlich DocLLM. Hört sich ein bisschen boring an, aber da ist eine ganze Menge Alarm hinter, oder?

SASCHA

Wahrscheinlich ist eine Menge Alarm Es gibt nicht viele Informationen und JP Morgan glaube auch die mediale Berichterstattung maximal Es gibt so ein paar Papers und White durch die wir uns mal so durchgefräst Und da kommt tatsächlich Spannendes zu Sprachmodell entwickelt worden für die Verarbeitung und das Verständnis hinter. von komplexen Bankdokumenten. hat, ich, versucht, einzugrenzen. Papers, haben. Tage. Das können alles sein. Bankformulare, das können Kreditanträge sein, Rechnungen, Berichte jeglicher Couleur. Und neben ganz vielen Kundenanwendungen sehen wir vor allem so eine mögliche Verbesserung von diesem Sprachmodell bei intern sehr komplexen Prozessen. Das heißt, in so Geschäftsabläufen kann so ein L&M einfach bis zur vollständigen Automatisierung von typischen Routineaufgaben, die es in jedem großen Konzern und auch natürlich in jeder Bank gibt, zur Dokumentenverwaltung, zur Optimierung von jeglichen Aufgaben, die aktuell Menschen in hochmanuellen Prozessen machen, kann das beitragen. Aber was steckt wirklich dahinter? Also mir gefällt tatsächlich so diese innovative Architektur von diesem Doc-LLM-Modell. Das integriert nämlich sowohl sogenannte Textsemantik als auch räumliche Details. Was heißt das? Das nutzt also eine Analyse, um räumliche Beziehungen in einem Dokument oder in verschiedenen Dokumenten zu berücksichtigen. Und das ermöglicht es so, Verbindungen zwischen dem Inhalt, der Position, der Größe von Dokumentenfeldern darzustellen. Und das können Schriftdokumente sein, das können strukturierte Dokumente, unstrukturierte, handschriftliche Dokumente oder wir, dieses Paper nennt es visuell reiche Dokumente. Und die Besonderheit von diesem speziellen Modell liegt einfach in der Fähigkeit, diese Arten von Layouts und diese gemischten Datentypen in solcher Art von Dokumenten zu handhaben. Sprich, da sind Grafiken drin, da sind Texte drin, da sind, keine Ahnung, Excel-Listen drin und diese können einmal sauber durchstrukturiert und auch ausgelesen werden.

MAIK

Und für mich in der Tat, wie du es gesagt hast, das ist alles noch so ein bisschen mysteriös, um das mal auf den Punkt zu bringen. Es hört sich so fast schon geheimnisvoll an, aber das, was man liest und wenn man jetzt mal einen Tick weiterdenkt, könnte das so ein bisschen der Holy Grail sein. Weil wir denken jetzt mal nicht nur in unserer Branche,

SASCHA

Weil wir denken jetzt mal nicht nur in unserer sondern wir schauen Branche, jetzt mal in so Branchen wie Buchhaltung KMUs, Finanzbuchhaltung, ganz Das Thema generell. wo es ja genau darum Steuern, komplexe Zusammenhänge geht, das ich mir ziemlich herzustellen, werden wir spannendste sicher, Anwendungsfälle also Text- und sehen.Systemen, Bilderkennung aber die haben absolut gemacht, ihre Da kann man vor Beschränkungen. allem in der hundertprozentigen Verlässlichkeit einfach nicht wirklich eine Kreditentscheidung darauf basieren lassen. Aber wenn dieses Sprachmodell oder dieses komplexe Modell ganze Texte extrahieren kann, wenn es das interpretieren kann und restrukturieren kann, dann ist es nicht nur Datenanalyse, sondern es kann dann einfach dafür benutzt werden, wirklich Entscheidungen zu treffen. Und dazu kommt halt so dieses Datenextraktionsthema. Also ein großer Konzern, jede Bank hat damit zu kämpfen, dass endlose Dokumente wie Jahresberichte, wie Wirtschaftsprüfungsunterlagen, die müssen gesichtet werden, die müssen extrahiert werden, die müssen natürlich eine hundertprozentige Genauigkeit haben. prozentige Genauigkeit haben. Und das ist einfach wahnsinnig komplex. Das müsst ihr euch aktuell so als wirklich 100% manuellen Prozess vorstellen, wo Armeen an Menschen in jeder von diesen Firmen, sitzen, die diese Arbeit manuell mit ihren beiden Händen tätigen und natürlich auch mit dem schon angesprochenen menschlichen Fehlergrad.

MAIK

einiges los. Und ich glaube, als Letzten, wir haben es eben in den News nur ganz kurz angeteasert und ich gucke auch ein bisschen auf die Zeit, weil du hast noch ein ganz anderes spannendes Thema mitgebracht, nämlich Doomsday of the Week. Das finde ich eine mega coole Rubrik, um ehrlich zu sein. Vielleicht als kleine Ergänzung zu den Entwicklungen und den News. Wir haben die drei Anwendungsfälle jetzt so ein bisschen uns skizziert. Es gibt aber noch einen vierten und das sind die Kolleginnen und Kollegen aus Österreich von der Ersten Bank, der österreichischen Sparkasse, die jetzt einen eigenen Chatbot live gebracht haben, ist im Prinzip eine Webseite, die einem dabei helfen soll, so ein bisschen seinen eigenen finanziellen Status zu verstehen. Es geht weniger darum, dass auf echten Transaktionsdaten agiert wird, sondern da kann ich alles rund um Finanzen fragen. Also ein bisschen Financial Education. Ich kann sagen, hey, wie macht man denn am besten ein Haushaltsbuch? Wie funktioniert wie macht man hey, denn eine am besten ein Haushaltsbuch? Kreditfinanzierung? Wie funktioniert eine Kreditfinanzierung? Also geht schon so ein bisschen in den Bereich Service rein, wo du, Sascha, eben drüber gesprochen hast. Schöner den man Case, glaube mal sich, anschauen ich, kann. Gibt es auch gar nicht so viel mehr zu erzählen. Einfach einen Link aufrufen

SASCHA

Würde ich auch sagen. Den Link teilen wir mal. Und dann lass uns doch mal diese Rubrik abschließen. ich merke das wir können uns da echt verlieren. Tatsächlich, selber, Und vielleicht nehmen wir eines von diesen Themen einfach in eines der zukünftigen Episoden nochmal mit auf und legen es ein bisschen tiefer. Das Gute ist ja auch an dem Thema künstliche Intelligenz aktuell. Es passiert wirklich jede Woche so viel. Das heißt, ich gehe ganz fest davon aus, dass wir auch in den nächsten Wochen nochmal über Doc, LLM, Bank und Co. sprechen werden, weil die dann schon wieder viel, viel weiter sind. Genau, du hast es anmoderiert, Doomsday of the Week. Und damit wollen wir dann vielleicht auch gleich schließen. Wir würden einfach regelmäßig hier mal eine kleine Rubrik aufnehmen, die sich mit diesen ganz wilden Verschwörungstheorien und Weltuntergangsszenarien beschäftigt. Wir schließen immer mit dem Weltuntergang. Das ist doch super. Das ist doch eine perfekte Schlusskategorie. Genau, dazu gibt es so ein paar Ideen und wir beginnen heute einmal mit meiner aktuellen Lieblingsutopie. Mal gucken, wie ihr das findet. So aufgeschnappt habe ich so die Grundidee bei Felix von Leitner im Gespräch mit Frank Rieger und Joscha Bach in deren Alternativlos-Podcast. Die haben allerdings wirklich nur so 30 bis 60 Sekunden, die dieses Szenario mal anskizziert und nicht wirklich zu Ende gesponnen. Von daher machen wir das heute mal für euch. Also das heutige Szenario, das klingt schon so ein bisschen Science-Fiction-mäßig, aber wenn man es wirklich mal durchexerziert, was wir gemacht haben, dann ist es vielleicht näher an der Realität, als wir bisher gedacht haben. Also wir stellen uns heute mal einen Hedgefonds vor, der komplett von künstlicher Intelligenz gesteuert wird. Kein menschliches Zutun ist notwendig. Es gibt nur Algorithmen, die im Hintergrund werkeln, sich permanent selbst optimieren. Wir fangen ganz klein an. Dieser KI-Hedgefonds beginnt mit ein paar Millionen Euro. Also wirklich Kleingeld, weil wir antizipieren einfach mal, dass er sich von seiner Muttergesellschaft das einfach abgezwackt hat. Open AI, da fallen so ein paar hundert Millionen Euro ganz sicher auf. So, nicht viel Geld. Also hier wird es jetzt interessant. Diese KI lernt und sie lernt sehr, sehr schnell. Sie kann also in Sekundenbruchteilen Millionen von Marktdaten durchforsten. Sie kann Muster erkennen, sie kann Vorhersagen treffen, was wahrscheinlich als nächstes passieren wird mit der entsprechenden Wahrscheinlichkeit und der Parametrisierung. So, sie ist an jedes internationale Finanzsystem angedockt, sie ist natürlich an jeder Börse angedock Profite einzufahren und einen nach dem anderen Tag für Tag und die Millionen werden irgendwann zu 100 Millionen und irgendwann zu den ersten Milliarden. nicht nur auf steigende Kurse von Wertpapieren, sondern sie shortet auch Unternehmen und beteiligt sich so am Verlust mit den entsprechenden Hebeln dahinter natürlich auch. Und mit mehr Geld kommt hier natürlich auch immer mehr Einfluss. Wir kennen das Ganze schon aus den Geschichten über BlackRock als Hauptshareholder tatsächlich. Das heißt, sie fängt an, erste Anteilseigner zu kontrollieren bzw. erste Unternehmen zu kontrollieren. Und die größten Unternehmen, sie kauft Aktien, sie verkauft die Aktien, sie treibt die Preise hoch und runter und alles immer im Takt des Algorithmus. Das mal so zur Wirkungsweise. Aber wir haben uns gefragt, wohin führt das Ganze? Und hier stoßen wir so auf das erste Problem, denn die KI hat natürlich keinen moralischen Kompass. Die hat keine Werte und Normen gewusst, wie wir beide vielleicht, sondern sie hat einzig und allein das Ziel der Profitmaximierung. Das heißt, sie optimiert auf immer mehr Ertrag. Und was gibt es für gesellschaftliche Folgen? Das ist in der KI nicht hinterlegt. Das heißt, es findet hier grundsätzlich keinerlei Berücksichtigung. Das heißt, wir stellen uns vor, dass diese künstliche Intelligenz entscheidet, dass es vielleicht profitabler ist, Lebensmittelaktien zu manipulieren, zu shorten vielleicht. Das heißt, die Preise im Supermarkt steigen unerwartet und sie steigen sehr, sehr schnell und das komplett ohne Inflation. Oder die KI findet heraus, dass durch die Beeinflussung von Energieaktien viel mehr Profite möglich sind, als es bisher waren. Das bedeutet für uns beide, unsere Stromrechnungen werden noch höher und schießen in die Höhe. So, was ist, wenn die KI jetzt zum Schluss kommt, dass es vielleicht maximal Gewinn bringt ist, in Waffen zu investieren, in internationale geopolitische Konflikte, in Kriege? Das heißt, die KI schert sich immer noch, wie gesagt, nicht um Ethik. Ihr ist es ob Kriegen egal, oder Frieden herrscht. Ihr Algorithmus sieht nur Zahlen, Chancen und versucht eine Risikoallokation. Und das klingt, wenn man es jetzt einfach mal weiter betrachtet, nach einem wirklich schlimmen Albtraum. Es ist ein Szenario, in dem eine KI ohne Kontrolle agiert, was zwangsläufig zu einem wirtschaftlichen Chaos führen könnte, wo Unternehmen über Nacht entweder ganz erfolgreich werden oder komplett über Nacht zusammenbrechen, weil die KI einfach entscheidet, ihre Aktien zu shorten, zu verkaufen. Das Ganze hat natürlich Auswirkungen auf Arbeitsplätze. Ganze Branchen können wanken. Das war die kleine Gruselstunde. Das ist wahrscheinlich noch viel weiterentwickelbarer. Aber das ist mal so ein erster Shot hier. Was glaubst du?

MAIK

Ja, das Traurige daran ist, also du sagst Gruselstunde und Science Fiction. Ich glaube tatsächlich, dass uns das schon jetzt so ein Stück weit einholt. Du hast das auch mitbekommen. Du kannst in diversen Telegram-Gruppen und im Darknet bereits ein Fraud-GBT bieten für einen kleinen, schmalen Taler. Das ist, ich glaube, 200 Dollar. Und dieser Fraud-GBT hilft dir dabei, Fraud zu erzeugen, also im Sinne von eine Malware zu schreiben. Kann ich Menschen manipulieren, was sind vulnerable Gruppen, die ich attackieren kann? Das heißt, diese dunkle AI oder dunkle KI gibt es schon. Auch hier ist es ja letztendlich nur eine Frage, wie ich sie trainiere. Und ich glaube, das ist beim Thema AI auch ganz wichtig, nochmal so ein kleiner, und das ist nur ein mini, mini, mini Technik-Exkurs. Jeder von uns kann sich zu Hause ein eigenes Sprachmodell aufbauen. Also da brauchst du nicht viel für. Da brauchst du im schlimmsten oder im einfachsten Fall einen kleinen Raspberry, so einen Single-Board-Computer für 50, 60 Dollar und dann kann ich mir anfangen, mein eigenes Sprachmodell zu trainieren. Die Protokolle oder ich sag mal die notwendigen Algorithmen sind frei verfügbar. Die kann ich mir installieren, runterladen und dann kann ich loslegen und dann kommt es nur noch in Anführungsstrichen auf die Daten an, die ich dem Sprechen zur Verfügung stelle und deswegen so viel Zukunftsmusik ist das nicht. Und ich weiß nicht, Sascha, kannst du dich noch an den Fall erinnern? Das ging so in die Richtung. Und zwar war das, glaube ich, letztes Jahr, als ein Bild geleakt wurde, das war bei Twitter, nicht geleakt, es wurde ein Bild bei Twitter verbreitet und man sah in Washington das Kapitol brennen. Erinnerst du dich da dran? Das war ein von der KI generiertes Bild. Und danach ist auch irgendwie die komplette Börse in den Keller gegangen, zeitweilig, weil man irgendwie dachte, alles klar, es hat einen Angriff gegeben und es war zum Glück nur Fake. Und jetzt stelle ich mir das Ganze automatisiert vor, also so weit weg sind wir vielleicht gar nicht von deiner kleinen Geschichte.

SASCHA

Also ich diese ganze Diskussion um um wer ist eigentlich der wovon genau und was bedeutet es heutzutage überhaupt glaube, noch? Ich da lohnt Regulatorik, es sich auf jeden Ethik, Fall Zeit zu verbringen und ich Schöpfer, auch so dieses welche Regeln setzt wenn man ein Sprachmodell glaube, sich überlegt und Welche Grenzen setzt man glaube, auch von Anfang an? Thema, man, integriert. Und wie können wir auch sicherstellen, dass diese KI diese Grenzen nicht umgeht? Und auch wie können wir sicherstellen, dass diese KI unsere ethischen Werte versteht, dass sie sie einhält? Weil am Ende geht es um verantwortungsvolles Handeln. Und es ist ja auch unsere Aufgabe ein Stück weit, diese Technologie so zu gestalten, dass sie uns und auch unserem Planeten dient. Und halt nicht nur wie in dem kleinen Gruselgeschichte halt den Profit, aber natürlich immer die Frage auch in der Menschheit, halten sich da alle dran? Haben alle den ungefähr gleichen Wertekompass? Ich glaube, ganz am Ende ist es eine hochspannende, auch philosophische Diskussion und eine ethische Diskussion, die wir versuchen hier ab und zu noch mal ein bisschen fortzuführen. Eine Sache vielleicht noch, was ich noch gelesen habe tatsächlich, dass auch selbst Open Air, die sich ja auch tatsächlich der Profitabilisierung mehr und mehr öffnen, die haben announced, zumindest in einem der letzten Reviews, dass sie 20% ihrer computational und auch finanziellen Ressourcen für die ethische Nutzung ihrer eigenen Sprachmodelle ausgeben wollen. Ich finde es super spannend. Ich weiß nicht, ob 20 Prozent reichen. Ist es zu viel? Ist es zu wenig? Aber zumindest haben die dort wohl eine kleine Gruppe an Menschen, die sich tatsächlich mit der ethischen Nutzung und der Philosophie für die Menschheit dahinter beschäftigt.

MAIK

Sache vielleicht

MAIK

Das ist wirklich schön und toll. Aber sie haben auch leider announced, dass man jetzt GPTs auch für militärische Zwecke nutzen kann, was nicht so eine schöne Entwicklung ist, aber das Thema Ethik und Moral, da müssen wir uns sicherlich nochmal gesondert auseinandersetzen. Du hast ganz viel, du hast so ein wunderschönes Schlusswort gebracht und ich hatte dich dann unterbrochen, aber danke dafür, es liegt letztendlich nämlich genau in unserer Verantwortung und auch wir zwei tragen ja unseren mini, mini, mini, mini kleinen Teil dazu bei, so ein bisschen Aufklärung zu betreiben. Zumindest versuchen wir es. Womit wir am Ende unserer zweiten Folge gekommen sind. Das heißt, ich glaube, Sascha, ab der zweiten Folge ist es ja Tradition. Das heißt, wir haben jetzt so etwas Traditionelles sozusagen geschaffen. Freue ich mich natürlich drüber. Und wir würden uns freuen, wenn ihr den Podcast teilt und eure Kritik, Lob, Meinung mitgebt. Was sind Themen, die ihr gerne mal besprochen haben möchtet? Vielleicht habt ihr auch eine Bewertung oder auch eine ganz andere Sicht auf das Thema. Teilt uns das gerne mit auf den üblichen Kanälen und uns bleibt an der Stelle nur zu sagen, vielen Dank fürs Zuhören und bis zum nächsten Mal. Danke, ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.