Handelsblattkonferenz "AI in Banking 2024" / AI Update KW36
Shownotes
- Die Wanze an meinem Hals: https://www.omi.me/ bzw. https://www.youtube.com/watch?v=tBn-i-wKs5s&t=396s
- Der ehemalige CEO Eric Schmidt erklärt, warum Google seinen Vorsprung bei der KI verspielt hat: https://youtu.be/ltfiLJ76Ofo?si=uUce_-W7bCQtQyiB
- Doom AI: Generative KI erstellt spielbare Version von Doom ohne Code: https://www.newscientist.com/article/2445450-generative-ai-creates-playable-version-of-doom-game-with-no-code/ https://gamengen.github.io/
- OpenAIs neue KI “Strawberry”: https://t3n.de/news/openai-project-strawberry-sam-altman-1635685/
- OpenAI-Finanzierungsrunde lockt Nvidia, während Big Tech sich auf ChatGPT stützt: https://www.bloomberg.com/news/articles/2024-08-29/nvidia-has-held-discussions-about-joining-openai-s-funding-round
- Amazon setzt auf Anthropic: https://www.pymnts.com/amazon-alexa/2024/amazon-partners-with-anthropics-ai-to-power-remarkable-alexa/
- Banken nutzen Meta? https://www.pymnts.com/artificial-intelligence-2/2024/meta-says-tech-and-banking-giants-use-its-ai/
- Ein Jahr Perplexity.ai für Magenta-Kunden https://www.perplexity.ai/join/p/magenta
Disclaimer:
Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: A.I. in Finance. Der Anplugpodcast von Sascha Deewald und Mike Klotz.
00:00:13: Hallo und herzlich willkommen zur 21. Episode von A.I. in Finance, unserem Anplugpodcast von Mike
00:00:28: und mir Sascha zum Thema künstliche Intelligenz im Zahlungsverkehr im Banking und in Fintechs.
00:00:33: Dieses Mal live und in Farbe, wir sitzen in Frankfurt bei der A.I. in Banking. Das ist so die
00:00:40: kleine Schwester des berühmten Bankengipfels, so der Konferenz, die einmal im Jahr vom Handelsblatt
00:00:45: organisiert, zusammen mit Euroforum alle wirklich tollen Speaker*innen und Speaker*innen auf die
00:00:50: Bühne bringt. Wir haben schon Christian Seewegen gesehen, wir haben Valentin Stalf gesehen, Sven
00:00:53: Deglo von der DKB spricht nachher auch noch und ganz viele andere Vertreter und Mike und ich durften
00:00:58: schon auf der A.I. in Banking in dem anderen Venue auch gerade auf der Bühne sein. Darüber reden wir
00:01:03: auch gleich noch ein bisschen. Es ist ein bisschen das Klassentreffen der Branche hier, oder? Ja,
00:01:07: Klassentreffen passt schon. Vor allem, ich würde eher sagen, dass Lehrer treffen, weil die alle etwas
00:01:12: älter sind, die hier sind, die Menschen und auch etwas gediegener. Klassentreffen findet ihr dann in
00:01:17: zwei Wochen statt bei der Banking-Exchanged, aber du hast absolut recht Sascha, hier treffen
00:01:21: sich viele, viele Menschen und wir hatten die Gelegenheiten über die KI-Exzellenz zu sprechen.
00:01:27: Also wie findet man die richtige Strategie? Du hast es gerade gesagt, auf dem kleinen
00:01:31: Side-Event, so klein war es jetzt auch, ehrlicherweise nicht, aber ist schon richtig verglichen mit dem
00:01:36: Bankengipfel, etwas kleiner und da haben wir drüber gesprochen mit tollen Speaker*innen und
00:01:41: mit tollen Diskutanten. Da machen wir gleich nochmal eine Verlängerung zu, aber bevor wir loslegen,
00:01:47: Sascha, schauen wir mal, was die News in den letzten Tagen gebracht haben, beziehungsweise,
00:01:53: welche News es gab. Und ich habe ein, zwei Sachen mitgebracht, nicht so dramatisch viele,
00:01:57: to be honest, lag auch daran, dass wir hier ein bisschen was vorbereiten mussten,
00:02:00: aber nichts, dass wir trotzdem ein, zwei spannende Dinge haben werden. Es gibt ein sehr unterhaltsames
00:02:06: Video von den Kollegen von Heise, CT, ich weiß es immer nicht, CT 3003 ist es, glaube ich,
00:02:13: sei es drum, die testen dort ein kleines Tool namens Omi, also wie die Omi, das stellen wir
00:02:21: böse dabei denkt und was ist das? Omi ist eine Halskette, die nicht sonderlich hübsch ist,
00:02:28: ein Quader ähnlicher Gegenstand, der um den Hals hängt und 24 Stunden einfach alles aufzeichnet.
00:02:35: Also ein sehr langer Sprach-Memo mit eingebauter Karte und lädt das natürlich immer wieder in die
00:02:41: Wolke hoch und das Erschreckende, also neben der Tatsache, dass man natürlich gegen jegliche
00:02:46: Komplexregel dieser Welt verstößt und Datenschutzbestimmung sowieso, das Ding kommt natürlich
00:02:51: nicht aus Europa, sondern aus Asien ist es so, dass die Erkennung, also das, was dort erkannt wird,
00:02:58: die Gespräche, das Transribieren, als auch das Zusammenfassen der Gespräche erschreckend gut
00:03:04: sein soll. Also ich habe das getestet und sagen, das Ding ist eigentlich wirklich super gut, auch
00:03:10: für einen Business-Einsatz, leider ist das halt alles andere als so richtig legal. Man müsste
00:03:15: eigentlich seinem Gesprächspartner, Gesprächspartnerin immer darauf hinweisen, Junge, du wirst ja
00:03:19: gerade aufgezeichnet, aber interessant insofern, weil wir natürlich jetzt auch Technologien erleben,
00:03:26: wo man nicht so genau weiß, helfen sie oder schaden sie. Ich weiß nicht, wie du darauf
00:03:30: guckst, auf der einen Seite, wir sind in vielen Meetings, wir haben ja auch schon mal darüber
00:03:33: gesprochen, wir sind in vielen Meetings und es gibt so Meetings, da weiß man nach 10 Minuten nicht
00:03:38: mehr ganz genau, was am Anfang war, nicht weil die so langweilig sind, sondern weil wir so
00:03:42: überarbeitet sind natürlich. Und da ist natürlich ein Tool, das das aufzeichnet, er fasst, zusammenfasst,
00:03:50: total hilfreich. Auf der anderen Seite möchte ich, dass mein ganzer Tag zusammengefasst wird, I don't know.
00:03:57: Das ist halt echt verrückt, also ich teste ja jetzt seit, glaube ich, drei Monaten die Co-Pilot-Funktionen
00:04:02: in Microsoft Office, vor allem tatsächlich auch in Microsoft Teams. Und da kannst du halt auch nach
00:04:07: dem Einholen der Zustimmung von allen Teilnehmer*innen einmal alles transkribieren, zusammenfassen,
00:04:13: lassen Action-Items aufbereiten lassen und das ist wirklich cool. Aber genau was du sagst,
00:04:17: es muss halt in gegenseitigen Einverständnissen sein und ich bin gerade auf der Webseite von
00:04:20: Omi. Und das Video, was ich automatisch abspielt, da geht es um Financial Report Submission,
00:04:28: muss halt irgendwie darum geht, wie es irgendwie gerade mein aktueller Kontostand und Co. Und
00:04:33: das erste Claim, der ins Auge fällt, ist "Designed with Privacy in mind". Was halt ein totaler
00:04:39: Bullshit ist, wenn du genau das irgendwie Revue passieren lässt, was du gerade erzählt hast.
00:04:43: Also wir sind gespannt, ich werde es erstmal nicht bestellen, weil alle Hardware, die du
00:04:47: bisher in den letzten sechs Monaten zumindest virtuell hier angeschleppt hast, ist entweder
00:04:50: Pleite oder ein Rock-Repiere. Aber wir beobachten das mal. Ja, anders als deine Apple-Vision,
00:04:55: danach bist du Pleite, wenn du Sie gekauft hast, aber gut, da warte ich ja noch auf einen
00:04:59: ausführlichen Test. Du hast immer noch keine Anprobe gemacht, nämlich an. Du weigerst dich
00:05:03: noch. Eine andere witzige Nachricht. Hast du früher Spiele gespielt, Computer-Spiele? Ganz
00:05:11: selten. Ich war ja der Typ draußen, Bude bauen und Fußball spielen. Kommen Sie ehrlich. Ja,
00:05:14: wirklich. Nicht mal Konsole? Ja, so ein bisschen. Aber als C64 war ich mal eine Weile verliebt,
00:05:19: aber als Ostkind war ich jetzt auch nicht so derjenige, der so war, die hat den ja nicht.
00:05:23: Technologie in Kontakt gekommen ist sehr früh. Aber Doom kennst du als Spiel? Kenn ich als
00:05:27: Doom. Klassiker. Doom ist ja immer so ein running gag, weil man versucht ja das Spiel,
00:05:31: also Ego-Shooter-Dom auf allen möglichen Devices zu portieren, läuft übrigens auch auf dem Thermomix.
00:05:36: Und auf der Omi? Keil Spaß, ja. Aber was hat man getan? Es gibt ein neues Projekt, das packen
00:05:44: natürlich in die Show-Nauts mit rein, ein GitHub-Seite. Und das Interessante daran ist,
00:05:49: dass man es geschafft hat, der AI zu sagen, generiere mir das Spiel, also das komplette Spiel
00:05:55: Doom mit den Levels, mit dem Design, mit der Grafik, mit allem drum und dran. Und das ganze
00:06:00: Thema ist als spielbare Version herausgekommen, ohne dass es irgendein Level-Designer gab,
00:06:06: ohne dass es irgendjemanden gab, der wirklich Hand angelegt hat und Code geschrieben hat.
00:06:12: Das hat die komplette AI gemacht. Und das Spiel, jetzt muss man dazusagen, Doom ist der erste oder
00:06:17: der bekannteste Ego-Shooter, muss man sagen, super bekannt. Und natürlich die Large Language-Modelle,
00:06:22: die darauf trainiert sind, kennen das. Und was herausgekommen ist, ist quasi eine 1 zu 1-Scopy.
00:06:27: Also die Effekte, es passt alles. Aber ist es dann das Ende von diesen Game Studios?
00:06:32: Ich weiß nicht, ob es das Ende ist. Es hilft auf jeden Fall dabei, dass wir mehr Spiele
00:06:37: wahrscheinlich sehen werden. Die Frage ist auch hier, das ist so ein bisschen wie mit dem Thema
00:06:41: Content. Die gleiche Frage haben wir uns ja auch schon gestellt, sind eigentlich die LLMs,
00:06:45: das Ende des Journalismus oder das Ende von Content. Weiß ich ehrlicherweise noch nicht.
00:06:51: Momentan ist das, was man liest, nicht immer richtig gut. Und man liest auch immer noch und
00:06:55: man sieht auch immer noch, dass es von einer Maschine erstellt wurde. Nichtsdestotrotz,
00:06:59: glaube ich, ist es ein wertvolles Werkzeug. Und so wie wir viel mehr Content erleben und
00:07:05: unterschiedlichsten Arten von Content werden wir auch, glaube ich, in der Spieleindustrie die
00:07:08: eine oder andere Entwicklung sehen. Spollend. Total. Also das witzige Video schaut es euch an.
00:07:13: Wir packen es natürlich in die Show Notes. Ja, dann Open AI, unser Lieblingsdauerbrenner Thema,
00:07:21: das Unternehmen, das alles mal irgendwie so richtig losgedrehten hat, mit dem wir uns hier
00:07:26: beschäftigen, hat ein neues Modell vorgestellt. Mit dem wohlklingenden Namen "Erdbeere",
00:07:31: "Strawberry". Kannst du da was zu sagen? Ja, es ist ja in dieser Investoren-Präsentation auch diese
00:07:38: Woche so ein bisschen irgendwie eingeflochten. Also es gibt dieses neue, sehr angeblich innovative
00:07:42: Modell namens "Strawberry". Und das Modell, das hatte zuvor diesen Code namen "Q-Star". Da haben
00:07:47: wir einmal vor, glaube ich, zwei oder drei Editionen schon mal drüber gesprochen, dass es ein
00:07:50: potenzielles Nachfolge LLM geben soll. War es sich das, was als AGI auch? Genau. Q-Star war
00:07:56: das erste AGI, wo du dann mal so ein bisschen weich gewaschen und sollte dann einfach so
00:07:59: ein Nachfolgemodell von vier, im Gegendenfalls fünf sein. Mittlerweile heißt es "Strawberry". Und es
00:08:05: soll dieses Mal, wie immer, signifikant verbesserte Fähigkeiten im Bereich vor allem beim Rezoning
00:08:10: aufweisen. Also es kann besser Mathematik, es kann besser Logikprobleme lösen. Und das ist wohl
00:08:16: ein sehr leistungsstarkes Modell, was wohl im Herbst bereits auf den Markt kommen soll. Wir haben
00:08:21: es vorhin schon auf der Konferenz gesagt, ganz sicher erst mal nicht in Deutschland und Europa,
00:08:24: aber wir schauen es dann gerne mal an. Und in diesem Zuge von "Strawberry" gab es sogar noch
00:08:28: ein zweites Modell, was veröffentlicht wurde. Dieses Star-Modell nennt sich das und das
00:08:33: basiert offenbar auf den Vorarbeiten von diesem ausgeschiedenen Chefwissenschaftler Ilya Sockeva,
00:08:38: mit dem haben wir uns ja mal beschäftigt. Star steht für "Self-Tort Reasoner" und das nennen
00:08:43: KI-Forscher diesen Ansatz, der mehr Planung und Logik ermöglichen soll. Und wahrscheinlich ist
00:08:48: auch "Strawberry" basiert direkt quasi auf diesem Modell. Und was jetzt auch noch mal kultiputiert
00:08:54: wurde diese Woche, ist, dass anstelle von GPT5, die nächste Generation in dieser GPT-Familie wohl
00:09:00: "Oreon" heißen soll und dann auf diesen "Strawberry" oder auf der Technologie von "Strawberry" dann
00:09:06: basieren soll. Und das zeigt halt jetzt auch schon so ein bisschen diese Entwicklung, dass
00:09:10: einfach horizontale Modelle zunehmend durch so eine Mix-of-Expert-Schicht so ergänzt werden,
00:09:16: ohne dass du jetzt immer und immer wieder ein neues, riesengroßes Modell mit Milliarden an
00:09:20: Parametern bauen musst. Weil das ist ja auch einfach so ein Thema. Immer wenn jetzt ein neues
00:09:24: Modell kommt, es kam jetzt diese Woche wieder ein neues von Mistral, dann kannst du gefühlt alle
00:09:28: anderen, proprätären Modelle zumindest kurz wegwerfen, die für viele Milliarden Euro oder
00:09:33: Dollar halt trainiert wurden, weil das dann das Beste ist und das Beste wollen halt immer auch alle
00:09:37: gleich nutzen. Spannend. Dann haben wir, habe ich noch was mitgebracht? Alexa. Ich hasse sie. Ja.
00:09:46: Nichtsdestotrotz arbeitet Amazon nach wie vor an Alexa und um etwas Ehrenrettung zu betreiben.
00:09:52: Sie waren ja auch tatsächlich die ersten, die das ganze Thema "Boys" ist, ist so ein bisschen
00:09:56: Alltagstaublich gemacht hat. Wenn gleich Alexa jetzt nicht so super helle war und er geeignet ist,
00:10:03: muss man ja noch sagen, um Licht an und auszuschalten und vielleicht was bei Amazon zu bestellen.
00:10:08: Im Oktober soll es aber weitergehen. Es soll eine kostenpflichtige Variante geben von Alexa mit dem
00:10:14: wohlklingenden Namen Remarkable. Start, glaube ich, zunächst einmal nur in den USA mit einer
00:10:21: monatlichen Gebühr zwischen 5 und 10 Euro. Was ist jetzt daran so spannend? Nicht die Tatsache,
00:10:26: dass da was neues kommt, sondern die Tatsache, dass Amazon bei dem Thema AI nicht auf In-House
00:10:32: Entwicklung setzt, sondern auf Entropic arbeiten. Also bei der nächsten Version von Alexa mit
00:10:40: Entropic zusammen und nicht auf die Eigenentwicklung. Warum, wieso kann ich nicht ganz genau sagen,
00:10:45: hat vermutlich mit der Qualität zu tun und manchmal natürlich auch mit der Verfügbarkeit,
00:10:51: also Make-up by und in dem Fall scheint by günstiger zu sein.
00:10:55: Na und es könnte uns auf jeden Fall wieder ein Stückchen näher zu diesem Personal Assistant
00:10:58: bringen, den wir auch schon jetzt mehrfach hier auch im Podcast besprochen haben und den wir ja
00:11:02: immer noch nicht sehen. Zum einen weil Apple Intelligence auch in den US noch nicht so weit
00:11:06: ist, dass es wirklich als neue Serie ausgerollt wird und in Europa aufgrund von Digital Markets
00:11:11: Act und EU AI Act auch wahrscheinlich noch eine ganze Weile länger nicht auftauchen wird. Aber
00:11:16: es ist zumindest mal wieder ein weiterer Schritt. Auf jeden Fall. Dann habe ich noch ein bisschen was
00:11:21: zum Thema, da bist du ja eigentlich tiefer drin und ich hoffe, ich erwische dich jetzt nicht auf
00:11:24: dem falschen Fuß. Das Thema Funding, Finanzierungsrunde Open AI. Ich habe hier nur die Headline Open AI,
00:11:31: Finanzierungsrunde Locked Nvidia, während Big Tech sich auf Chat GBTs stürzen. Ja, dann lasst
00:11:37: mich deine Headline etwas füllen. Also ich glaube, was es passiert, es gab eine neue,
00:11:41: also es gab eine Secondary Transaktion von Altinvestoren, das macht man manchmal, um stehende Anteile
00:11:47: quasi ja draußen zu verkaufen und Open AI hat diese Anteile zu einer Bewertung von ungefähr
00:11:52: 100 Milliarden US quasi angeboten und Sam Ordmann sammelt nun auf frisches Kapital und
00:11:58: letzten Gerüchten zufolge könnten mittlerweile auch dann Nvidia und auch Apple an dieser
00:12:03: Finanzierungsrunde teilnehmen. Das wurde glaube ich von Bloomberg gestern oder vorgestern geschrieben.
00:12:07: Und für Apple wäre das natürlich ein sehr bedeutsames Investment, jetzt auch im Bereich
00:12:12: künstlichen Allegenz. Darüber haben wir im Frühling auch intensiv gesprochen, dass Apple gefühlt so
00:12:17: auch im Mergent Acquisitions Bereich gar nicht so umtriebig ist wie all die anderen, aber die
00:12:22: ziehen jetzt offensichtlich nach und der Kapitalbedarf von Open AI ist ja immer noch immens. Darüber streiten
00:12:28: sich ja auch immer noch vieles. Unternehmen verbrennt mittlerweile 5 Milliarden US jährlich,
00:12:32: hat jetzt glaube ich schon 13 Milliarden insgesamt investiert an der Stelle. Man muss aber auch sagen,
00:12:37: die haben ja ein recurring Revenue gehabt oder haben eins prognostiziert für dieses Jahr von 4
00:12:42: Milliarden US, also tatsächlich fast cash-for-positive, wenn man so sagt. Und da ist halt die Frage
00:12:46: gelingt es dem Unternehmen diesen Umsatz weiterhin so schnell zu steigern, dann wäre natürlich auch
00:12:50: eine Bewertung von irgendwie 100 Milliarden gerechtfertigt und auch dieser potentielle Deal
00:12:55: mit Apple dürfte natürlich Open AI dann einen ja ich würde sagen zusätzlichen Schwung für die
00:13:01: Finanzierungsrunde geben, weil aktuell ist Open AI ja noch der exklusive Partner von Apple und
00:13:06: da reicht dadurch natürlich auch viele, viele neue Nutzer. Allerdings hat Apple auch schon angekündigt,
00:13:10: seinen Nutzern ja in Zukunft möglicherweise dann die Wahlfreiheit zwischen verschiedenen
00:13:14: Modellen zu lassen und das werden wir beobachten. Was aber auch spannend ist, dass auch Microsoft
00:13:20: als potenzieller dritter Big Tech Player seinen bestehendes Investment von aktuell nach 13 Milliarden
00:13:25: US-Dollar Investment auch nochmal aufstocken könnte. Da haben ja Bestandsinvestoren immer die
00:13:30: pro Rata Möglichkeit, das heißt die können auch an so einer Finanzierungsrunde immer entsprechend
00:13:34: mitmachen ohne dann zu verwässern und ja damit könnten sie halt irgendwie deutlich über 100
00:13:38: Milliarden bewertet werden und das ist schon sehr spannend finde ich. Absurd Zahlen für mich nach
00:13:44: wie vor, die man da hört und ja nach wie vor ja ich wiederhole mich, muss ich gleich rausschneiden.
00:13:50: Absurd Zahlen. Ja und vielleicht noch eine Sache auch, also ich habe mir schon Gedanken gemacht,
00:13:54: bei Nvidia ist es ja irgendwie klar ja, die profitieren weiter vom KI Boom, hat natürlich auch
00:13:59: mit dem Geschäftsausblick eine sehr hochgesteckte Erwartung. Das heißt jede Partizipation von
00:14:04: Nvidia, was KI irgendwo angeht, was auch nicht direkt immer das Chipgeschäft sein muss, ist bei
00:14:10: den Anlegern gern gesehen. Aber wenn du dich halt irgendwie fragst, warum das auch mit Apple und
00:14:15: OpenAI so gut klappt, dann glaube ich schon, dass die Integration auch von OpenAI-Technologie in
00:14:21: Apple und auch in Microsoft-Applikation OpenAI einfach eine riesige Reichweite verschafft und
00:14:26: damit natürlich auch eine, keine Ahnung, viele Milliarden oder Billionen neue Datenpunkte,
00:14:32: mit denen sie wiederum ihre Modelle trainieren, Feintune und dann auch in die Influenz geben
00:14:36: können. Weil auch da vielleicht letzter Satz, wir haben das ja schon mehrmals hier auch besprochen.
00:14:39: Damit kommt ja OpenAI auch, OpenAI auch um dieses berühmte Habsburger Problem, also dieses
00:14:45: Inzestoide, einfach so ein bisschen vielleicht herum, wenn es die nächsten Modelle nach
00:14:51: GPT4O dann auch so trainiert, dass es einfach eine deutlich bessere Marktposition danach hat,
00:14:56: aufgrund von völlig neuen Datenpunkten. Wir schauen mal. Wir schauen. Ich habe noch eine letzte
00:15:01: Nachricht, wenn du noch was hast, aber ich habe auf jeden Fall noch eine letzte Nachricht, nämlich
00:15:05: von Meta in dem Fall. Da gibt es einen interessanten Artikel, den wir verlinken werden. Meta hat,
00:15:11: oder vielmehr das large Language Model von Meta, das LLAMA, wurde in den letzten 12 Monaten 350
00:15:19: Millionen mal heruntergeladen und damit zehnmal mehr als im Jahr zuvor, was natürlich jetzt nicht
00:15:25: so ungewöhnlich ist, weil es gab es ja davor noch nicht so lange, nicht so trotz beachtlicher
00:15:29: Downloadzahl. Und in einem letzten Earnings Call hat Mark Zuckerberg dann auch ein bisschen Ausblick
00:15:34: gegeben, wo die Reise hingeht bei Meta, insbesondere wenn es darum geht, Geld zu verdienen, also das
00:15:40: ganze Thema Monetarisierung der Daten. Ganz interessant. Und was im gleichen Earnings Call auch
00:15:47: rausgekommen oder erwähnt wurde, ist die Tatsache, dass wohl viele Finanzinstitute und Banken,
00:15:52: ob das jetzt für Europa mag ich nicht zu beurteilen, aber zumindest in den USA eben auf LLAMA
00:15:57: setzen, zumindest jetzt damit gerade rumspielen. Kann natürlich sein, es ist Open Source,
00:16:03: jeder kann es nutzen, relativ unkompliziert. Vielleicht ist das der Hintergrund, genau das kann
00:16:08: ich dazu aber nicht sagen. Aber das sind schon beachtliche Zahlen, also 350 Millionen, das ist
00:16:13: schon heftig. OpenAI hat, ich glaube vor zwei Wochen im Earnings Call berichtet, dass ChatGPT
00:16:19: jetzt mittlerweile 200 Millionen Weekly Active User hat, das ist auch krass, ja. Und das 92%
00:16:26: aller Fortune 500 Unternehmen Produkte von OpenAI in ihrer Manfeline Nutzung haben. Das ist auch
00:16:33: interessant. Scheint ein Thema zu sein, das Thema AI. Du hast noch ein mini kleines Angebot mitgebracht
00:16:41: für unser Lieblingstool. Ja, aber ich glaube, du musst dich da reinnerden, weil ich habe es ehrlich
00:16:45: herweise nicht gefunden. Also ich habe gesehen, dass Perplexity Pro, also auch richtig Geld kostet,
00:16:50: für LinkedIn Premium-Abonnenten für ein Jahr kostenlos angeboten wird, aber ich finde es
00:16:55: tatsächlich nirgendwo. Das würde mich aber nicht mal wundern, weil das gleiche Angebot gibt es
00:17:01: auch von der Telekom für Magenta Kunden. Wenn du in der Magenta, Mein Magenta App bist,
00:17:07: konntest du dir, ich weiß nicht, ob es noch geht, Perplexity ebenfalls für ein Jahr kostenlos
00:17:12: holen. Ja, ich habe es gesucht, ich habe es nicht gefunden, aber vielleicht findet eine versierte
00:17:16: Hörerin oder Hörer das irgendwie über LinkedIn, weil ich glaube, da können viele von uns auch
00:17:20: partizipieren. Und aktuell habe ich ein Modell, das ich regelmäßig bezahle. Ja, das stimmt. Und
00:17:25: Perplexity, also ich nutze es tatsächlich inzwischen sehr viel regelmäßiger als ChatGBT, hat einfach
00:17:30: mit der Tatsache zu tun, dass es eine sehr, sehr gute Online-Suche gibt und darüber hinaus die
00:17:34: Quellenangabe vernünftig verlinkt wird. Das Einzige, was mich am Perplexity so ein bisschen
00:17:38: naja stört, also alles, was man Sprache zu tun hat, kann man das Ding zumindest in Deutschland
00:17:43: noch in die Tonne trägen. Ja, das stimmt. Jut, wir wollten aber nicht nur über die Nachrichten
00:17:48: sprechen, sondern wir hatten eben, Sascha hat es gesagt in der Intro, eine Panel-Diskussion und
00:17:54: haben auf diesem Panel zum Thema KI-Strategie oder KI-Exzellenz gesprochen. Genau, auf dem Weg
00:18:04: zur KI-Exzellenz, vielen Dank von der Strategie zur Implementierung. Und zu Gast waren die Dr.
00:18:11: Victoria Danzer, sie ist Partner bei Roland Berger, darüber hinaus die Sina Wolfmeyer von Unique,
00:18:19: Chief Data Officer dort und ja, Sascha, du, du warst auch da. Also wir haben zu viert quasi
00:18:26: genau über dieses Thema gesprochen. Was war denn so dein Eindruck? Also was, wenn du es kurz
00:18:30: zusammenfassen möchtest, so drüber haben wir gesprochen? Na ja, es waren halt irgendwie 30
00:18:35: Minuten, wir haben versucht einfach sehr, sehr schnell zu sprechen, damit wir alle irgendwie
00:18:38: unsere Punkte unterbringen konnten. Übrigens nur 20 Jahre gezogen.
00:18:43: Ja, wir haben ja noch die andere Frage aus dem Publikum eingearbeitet und dann auch noch unsere eigenen Themen da gegebenenfalls nach einem guten Medien Training auch noch einfließen lassen.
00:18:50: Na, ich glaube, wir haben halt irgendwie angefangen, uns damit auseinanderzusetzen, so welche strategischen Überlegungen Banken und Fintechs bei der Entwicklung und Umsetzung von der KI-Strategie grundsätzlich erst mal berücksichtigen müssen.
00:19:01: Und darüber haben wir dann so ein bisschen diskutiert, dass es wahrscheinlich schon erst mal wichtig ist, eine Bestandsaufnahme zu machen.
00:19:07: Welche Geschäftsfelder könnten durch KI verbessert werden?
00:19:10: Sollte ich es eher intern beobachten, was ist ein klarer Startpunkt auch in der Definition von Geschäftszielen, ist es eher halt irgendwie, dass ich rausgehe und schon Kunden induziertes Thema mache, dass ich ein Effizienzthema gestalte, dass ich auf Ertrag gehe von Anfang an.
00:19:25: Und da gab es schon unterschiedliche Meinungen.
00:19:26: Das war aber so ganz spannend.
00:19:28: Und dann haben wir uns an Use Cases ran, gerobt und gar nicht mal so die üblichen, die wir ja sonst immer auch in der Diskussion haben, wenn es darum geht Betrugsprävention, Erkennung, Kreditrisiko, Bewertung.
00:19:40: Grundsätzlich alles, was so fraud und co ist oder herrsohnäristische Finanzberatung, sondern wir sind so ein bisschen eingestiegen, flach wie immer über das Thema Chatbots, so als ein bisschen erzählt, wie wir das bei der DKB machen, dieses berühmte kleine oder kleinen C ins kalte Wasser stecken und einfach mal ausprobieren.
00:19:58: Aber was du gerade beschreibst, ist ja, wenn ich da kurz einhaken darf, ganz wichtig auch zur Heerleitung.
00:20:05: Ich glaube, das Event und wir waren ja schon vorher da und haben so ein bisschen Zeitgespräche geführt und das ist auch exemplarisch für das, was gerade bei uns in der Branche passiert.
00:20:13: Ich habe das in der Intro so ein bisschen versucht zu beschreiben, mit, man sieht den Wald vor den ganz vielen lauter Bäumen nicht und wir neigen und das ist auch erstmal nicht unüblich, bei neuen Technologien erst einmal in eine so beobachtende Rolle zu gehen.
00:20:27: Na ja, man schaut mal, was passiert da und entscheiden, ob man da mitmacht bei dem Game, kann man sich ja immer noch.
00:20:34: Aus dieser beobachtenden Rolle ist, glaube ich, so eine gewisse Form der Schockstarre geworden, weil man festgestellt hat, dass das Thema AI nicht mehr weggeht.
00:20:42: Ich glaube, das ist schon angekommen, ganz generell bei uns in der Branche oder wahrscheinlich in allen Branchen, aber man hat keinen richtigen Grip oder bekommt keinen richtigen Grip daran, was ist eigentlich jetzt zu tun?
00:20:54: Womit fängt man an und da war, glaube ich, das Panel sehr heilsam und hilfreich, weil wir, wie du es gesagt hast, wir haben über Use Cases gesprochen und darüber gesprochen, was passiert eigentlich und da kannst du ja auch vielleicht nochmal zusammenfassend sagen, was passiert denn, wenn man den, hast du gerade gesagt, den kleinen Zähn oder den dicken Zähn ins Wasser hält?
00:21:14: Ich weiß es nicht mehr.
00:21:15: Es war der kleine Zähn.
00:21:16: Ins kalte Wasser.
00:21:17: Ins heiß kalte Wasser.
00:21:19: Genau. Also wir haben vor allem darüber angefangen zu sprechen, dann, wie baut man denn so eine KI Strategie eigentlich auf?
00:21:25: Und dann sind ja, es gibt ja Banken, die haben sich schon seit einer ganzen Weile mit Machine Learning, Robotics Process Automation, also RPA und auch so den ersten predictive Analytics predictive AIT Themen beschäftigt.
00:21:37: Das heißt im Kundenservice ein bisschen mit der Kategorisierung oder Strukturierung von Emails, Attacks, aber auch im Fraud Prevention for detection Thema, Turn Prevention, aber genau das gleiche Thema.
00:21:49: Und diejenigen haben Data Scientists, die haben so ein bisschen Erfahrung und da haben wir darüber gesprochen, dass es für die wahrscheinlich maximal viel Sinn macht, eher so ein dezentrales Modell in den direkten Geschäftsbereichen zu verankern, weil du einfach dynamischer bist.
00:22:01: Du bist flexibler, du bist nicht so langsam und kannst einfach schnell Innovationen und Anpassungsfähigkeit haben.
00:22:06: Aber es gibt halt einfach immer noch ganz viele, wo zwar in den C Level Etagen ganz intensiv darüber gesprochen wird, dass man doch endlich mal was mit KI machen müsste.
00:22:14: Das war es dann aber auch.
00:22:16: Und da haben wir schon gesagt, da macht es ganz sicher auch mal Sinn, das erstmal zentralisiert aufzunehmen, eine Bestandsaufnahme zu machen, eine gewisse Governance und auch eine Kontrolle reinzubringen und vielleicht sogar eine externe Expertise über eine Beratung oder auf jeden Fall auch eine Technologie Beratung, um eine Umsetzung zu kommen.
00:22:32: Das Wichtigste, was wir uns aber alles ja einig waren auf der Bühne war, das Machen ist viel wichtiger als hypothetisch immer an diesen Theoretikum generative KI halt drum zu doktoren und tatsächlich einfach mal so ein bisschen ins Machen kommen.
00:22:45: Wichtig ist immer so das Thema Datenschutz, Regulatorik, EU AI Act schwirrt ja wie so ein oder schweb wie so ein Damok, geschwert immer vom Himmel.
00:22:53: Ich glaube, da ist es wichtig, das auch zentral zu haben und nicht nicht mit Jugendforst anzufangen.
00:22:59: Aber die anderen Sachen, da kann man einfach mal ein bisschen probieren.
00:23:02: Genau, du hast ja im Prinzip, wir haben ja unterschiedliche Dimensionen und da waren wir uns in der Tat also erstens mal muss man sagen, es gab ohnehin, glaube ich, eine große Einigkeit und es gab keinen großen Widerspruch.
00:23:11: Aber wenn man das zusammenfassend sagen kann, du hast absolut recht, also Anfang ist ganz, ganz wichtig und lieber mit was kleinem Anfang als gar nicht anfangen.
00:23:19: Ich glaube, das war auch eine Aussage, bevor man jetzt irgendwie ganz viel Zeit investiert in der Analyse, welches Projekt macht man jetzt, sollte man vielleicht mit was kleinem Anfang, wie du gerade gesagt hast, was nicht weh tut.
00:23:31: Und es gab da zwei interessante Punkte, die ich für mich mitgenommen habe.
00:23:35: Gerade beim Thema, du hast das gerade gesagt, EOAI-Act, das Thema Datenschutz ist natürlich super wichtig und spielt eine essenzielle Rolle und man muss die entsprechenden Protagonistinnen und Protagonisten natürlich mit involvieren.
00:23:47: Aber wenn es darum geht, sich mit dem Thema zu beschäftigen, kann man natürlich auch anfangen, erst mal intern Sachen umzusetzen.
00:23:54: Also intern Projekte, die eigene Wissensdatenbank irgendwie, die Chatchivity oder einem Chatbot zugänglich zu machen, darauf arbeiten zu lassen.
00:24:02: Also da, wo quasi nach außen hin nichts kaputtgehen kann.
00:24:07: Natürlich muss man auch bei intern Prozessen darauf achten, dass nicht der Gehaltsnachweis von Sascha Deewald auf einmal ein zugänglich ist.
00:24:13: Das war ein gutes Beispiel.
00:24:14: Das war ein schönes Beispiel, genau.
00:24:15: Aber nichtsdestotrotz, glaube ich, ist es hilfreich, so ein internen Projekt anzufangen, um überhaupt mal zu verstehen, was passiert da.
00:24:22: Und das zweite, was du gesagt hast, das fand ich ganz interessant, da haben wir nämlich gar keine so richtige Antwort darauf gefunden oder auch nicht weiter diskutiert, nämlich das Thema Zentral versus Dezentral.
00:24:31: Also mache ich das alles selbst.
00:24:33: Also stelle ich mir meine eigene KI-Farm in den Keller.
00:24:36: Kann man tun, entweder Grafikarten kaufen im großen Stil oder aber setze ich eben auf externe, natürlich auch den Nachteilen, die da mit verboten sind.
00:24:45: Na, ich glaube, egal ob jetzt Banken oder Fintechs, aber Organisationen sollten grundsätzlich das Modell wählen, das am besten irgendwie zur eigenen Organisationen Struktur und auch zum Reifegrad in den Organisationen passt.
00:24:57: Ja, wir nehmen Pott.
00:24:59: Ich glaube, Banken sollten grundsätzlich das Modell wählen, das am besten zur eigenen Organisationen Struktur und auch zum eigenen Reifegrad bei dem Themen passt.
00:25:09: Wenn du ein Unternehmen hast mit etablierten Fähigkeiten in dem ganzen Thema Data Science, dann profitierst du ganz sicher von Dezentralen Modell, während Einsteiger, wie gesagt, irgendwie mehr auf Zentralisierung, dann auch auf Technologiepartner und sowas setzen sollten.
00:25:22: Aber die Governance-Frage ist schon spannend.
00:25:24: Brauchst du eine explizite Governance-Struktur dafür?
00:25:28: Und was wäre auch, da habt uns Rektoria Danz hat darauf gebracht, auch so das ganze Thema ethische Überlegung bei den KIP-Produkten.
00:25:34: Das fand ich mega spannend, das haben wir auch etwa mal wahrscheinlich eine Stunde darüber diskutieren können, nämlich der Punkt war die Befangenheit.
00:25:41: Also, wenn ich jetzt der KI-Daten gebe, Transaktionsdaten, dann muss ich natürlich auch der Maschine sagen, wie sie damit umzugehen hat.
00:25:51: Und diese Entscheidung zu treffen und dieses Regelwerk auch ein Stück weit vorzugeben, ist eine super Herausforderung.
00:25:59: Und da gibt es ja auch keine richtig oder falsch.
00:26:02: Und das war auch ganz interessant, dass man gesagt hat, okay, da haben wir jetzt keine Antwort drauf, aber das ist ein Thema, womit man sich sehr intensiv und beschäftigen kann.
00:26:09: In der Fallenwurf fängst du da halt an, darüber haben wir halt auch gesprochen, weil also das Training des Modells, das macht man ja erst mal nicht selber, zumindest in den meisten Fällen.
00:26:18: Man nutzt irgendeine Variante, die im meisten Fällen halt irgendwie mit GPT 3.5 oder sogar 4, wenn sie ein bisschen mehr Geld ausgeben wollen, von OpenAI.
00:26:26: Aber wie wir ja auch gelernt haben, seit dem, spätestens seit dem Ilya Sutskeva aus dem Super-Alignment-Team, also dem Ethik-Team von OpenAI, weggerannt ist und zur Perplexity rübergemacht hat,
00:26:36: ist es dort nicht so viel her mit dem Thema Ethik.
00:26:40: Und ich glaube schon, dass man irgendwie auch in seinen eigenes Modell, zumindest das feingetunte Modell, irgendwie Richtlinien für die Implementierung aufbauen muss, regelmäßige Überprüfung und auch eine klare Verantwortungstruktur.
00:26:50: Wir haben dann darüber gesprochen, wie schaffst du es dann auch frühzeitig in diese Use-Cases so diverse Teams aufzubauen und gar nicht jetzt divers nur im Sinne von Geschlecht oder irgendwie Geografie und Sprache, sondern viel mehr auch divers wirklich im Sinne von von deinem Skill-Set, von deiner Expertise.
00:27:06: Dass du irgendwie ein Wirtschaftler mit einem Künstler, mit einem Politikwissenschaftler, etc., halt irgendwie spricht.
00:27:11: Und ich glaube auch, du musst es regelmäßig überwachen.
00:27:14: Du musst die Modelle validieren und immer wieder auch auf deine Geschäftsprozesse anpassen.
00:27:19: Victoria und auch Sina sagten dann auf der Bühne, es ist wichtig, dass du ganz viel Bias, also dieses Vorurteilswissen rausnimmst, aber auch ganz viele Themen, die in deiner Geschäftspolitik und deiner DNA auch gegenüber deinen Kundinnen und Kunden liegt, dass du diesen speziellen Bias auch reingehst.
00:27:35: Und ich glaube, das ist der Punkt, weil du hast ja nicht nur Vorbehalte, sondern du hast auch Werte und die Werte musst du natürlich auch transportieren.
00:27:41: Jetzt warst du ja auch auf der Bühne und hast auch aus eigenem Nähkästchen ein bisschen plaudern dürfen und auch wollen, glaube ich.
00:27:48: Ich würde trotzdem, ich würde tatsächlich die Frage nochmal stellen auch an dich.
00:27:52: Wir haben sie eben auf der Bühne ja auch kurz diskutiert.
00:27:54: Ihr bei der DKB habt ja einfach angefangen.
00:27:56: Also ihr habt euch jemand überlegt, okay, wir müssen doch jetzt was machen.
00:27:59: Das Thema ist irgendwie heiß und sicherlich bist du auch einer der Treiber bei der DKB, insbesondere bei dem Thema.
00:28:05: Aber wie habt ihr denn die Entscheidung getroffen?
00:28:08: Alles klar, wir fangen jetzt mit dem Chatboard für die Webseite an.
00:28:11: Ja, so fairerweise.
00:28:13: Ja, ich bin da ein Treiber und ich bin da ganz sicher auch jemand, der sich sehr interessiert für die Technologie und alles um Gen.
00:28:20: AI drum herum, um diesen Hype.
00:28:22: Aber wir hatten auch schon eine sehr, sehr gute Absprung-Basis.
00:28:25: Wir haben ganz tolle Kolleginnen und Kollegen in der Bank, die sich mit Data Science beschäftigen.
00:28:29: Wir haben ein großes RPA Team, was halt einfach sehr viel da schon investiert hat, vor allem beim Thema Fraud, beim Thema Churn und
00:28:35: Co. Das heißt, wir hatten eine sehr hohe Absprung-Basis und selbst unsere Bestandsaufnahme war so, da ist schon richtig viel.
00:28:41: Was wir dann aber gemacht haben ist zu sagen, okay, wie können wir jetzt weitermachen?
00:28:45: Und dann haben wir so ein Chapter so ein bisschen gegründet und haben geschaut, das Thema EUA, AI Act steht ja gerade so auf dem Radar.
00:28:52: In Brüssel wird dann irgendwann bald in die nationale Gesetzgebung gekippt und haben uns dann damit auseinandergesetzt.
00:28:57: Was wäre denn ein erster Case in all diesen großen, potenziellen Anwendungsfällen?
00:29:02: Und dann haben wir gesagt, wir wollen etwas für unsere Kundinnen und Kunden schaffen, dass es denen einfach auch ein bisschen besser geht.
00:29:07: Und es ist ja schon so, dass man auch so als Haus unserer Größe mit deutlich über fünf Millionen Kundinnen und Kunden immer mal zyklisch ein paar Probleme im Kundenservice hat.
00:29:16: Das liest man in der Presse, das ist doch kein Geheimnis.
00:29:18: Wir haben gesagt, da wollen wir aufrollen.
00:29:20: Das soll aus der Kundeperspektive eine bessere Zufriedenheit gehen.
00:29:22: Und ohne zu viel Werbung zu machen, haben wir gesagt, das ist es dann.
00:29:25: Darauf stürzen wir uns das zwar im September letzten Jahres.
00:29:27: Kleines Team aufgestellt, aber tatsächlich dezentral.
00:29:30: Wir haben gesagt, ihr geht in den Marktbereich hinein gemeinsam mit der Service Gesellschaft, DKB Service und ihr baut mal einen POC.
00:29:37: Daraus haben wir dann einen MVP gebaut und haben die Data Scientisten, die Entwickler zusammen da reingeschmissen und haben gesagt, jetzt macht einfach mal und nehmen ganz viel natürlich auch die Juristen und die Datenschützer mit dazu von Anfang an.
00:29:49: Aber wichtig ist einfach mal machen.
00:29:51: Es ist ja was Neues.
00:29:52: Es ist ja grüne Wiese.
00:29:53: Wir können euch wirklich ausprobieren.
00:29:55: Und seit April sind wir mit dem Ding live.
00:29:57: Das hat am Anfang schon mal darüber geredet durch die generischen Anfragen.
00:30:00: Was ist ein Tagesgeld Zins?
00:30:01: Jetzt mittlerweile haben wir die individuellen Anfragen live.
00:30:04: Das heißt, du kannst dann auch den Chatbot fragen.
00:30:07: Ich als Mike Klotz.
00:30:08: Was ist mein persönliches Limit?
00:30:10: Was habe ich für ein Zins bei meiner Bauchfinanzierung und demnächst in der Ausbaustufe kannst du dann quasi transaktional das dann auch noch ändern über Self-Service?
00:30:17: Aber lassen Sie mal zurückgehen.
00:30:18: Was war denn so, wenn du dich an das Projekt zurückbesinnst?
00:30:21: Das wird ja wahrscheinlich nicht so super reibungslos.
00:30:24: Das wäre ja ungewöhnlich bei Projekten.
00:30:26: Was war denn so die größte Herausforderung oder so die Hürde, wo ihr dran gestoßen seid, wo ihr vielleicht zwei, drei Minuten länger nicht nur drüber nachdenken musstet, sondern euch mit beschäftigen?
00:30:36: War das regulatorisch tatsächlich oder war das Technik oder kann man das so pauschal gar nicht sagen?
00:30:41: Na, es war es war auf einmal alles, weil es ja dann doch was Neues war.
00:30:45: Und am Anfang waren es so die modularen und skalierbaren Architekturen, die wir auf einmal brauchten.
00:30:50: Ja, wir sind in der Cloud.
00:30:51: Wir haben unterschiedliche Modelle mit AWS.
00:30:53: Wir haben bereits eine Azure Kooperation, was uns geholfen hat mit OpenAI, dann natürlich auch darüber direkt GPT 3.5 am Anfang mit einzubauen.
00:31:01: Aber dann tatsächlich, was ich beschrieben habe, diese crossfunktionalen Teams aufzustellen und zu sagen, ab jetzt schmeißen wir euch alle in einen Raum und ihr baut auf der grünen Wiese dieses Ding mit bestimmten KPIs natürlich auch.
00:31:12: Das war auch gar nicht so leicht, weil du musst Abteilungen wie den Markt, die IT, Data Science, aber auch Compliance mit reinnehmen und brauchst auch ein bisschen Geschäftsführung, um das Budget zu kriegen.
00:31:22: Das Timing etc.
00:31:24: Du musst es kontinuierlich überwachen.
00:31:26: Du musst es permanent irgendwie auch versuchen zu verbessern.
00:31:30: Wir haben es am Anfang komplett alleine gemacht.
00:31:32: Wir haben dann geschaut, okay, welche Technologie Unternehmen können wir uns auch reinholen?
00:31:35: Gibt es eine strategische Partnerschaft?
00:31:37: Wir haben es dann tatsächlich alleine halt irgendwie auch aufgebaut.
00:31:39: Aber auch dort schon die Frage gestellt, wie schaffen wir es, eine verantwortungsvolles Modell reinzunehmen, was halt kein Scheiß erzählt.
00:31:49: Weil du brauchst ja das Thema Vertrauen und Qualität ist absolut wichtig.
00:31:53: Eines meiner Themen und auch tatsächlich vom Vorstand immer gesagt war, wenn der Chatbot schlechter ist als ein Mensch, werden wir niemals anschalten oder auf großer Fläche aufbauen.
00:32:03: Das heißt, es war immer ganz klar, auch die Vorgabe, die Antworten des Chatbots, auch wenn sie halt mitten in der Nacht der Folgen oder einem hochskalierbaren Umfeld müssen immer mindestens genauso gut sein wie die eines der besten Agents oder sogar besser.
00:32:15: Und das hat so das Team halt irgendwie auch getrieben.
00:32:17: Wir haben die ethischen Richtlinien reingenommen.
00:32:19: Aber das war das war ein Thema und vielleicht laspert not least so das Kulturwandel natürlich auch.
00:32:24: Du musst ja Mitarbeiter qualifizieren, müsst ein bisschen Abskilling machen, denen erklären was ist eigentlich irgendwie Gen AI und ja, ihr habt euch jetzt intensiv mit dem und dem Thema auseinandergesetzt.
00:32:33: Aber jetzt gibt es auch ein Kulturwandel.
00:32:36: Jetzt nehmt doch mal dieses ChatGPT.
00:32:37: Ihr habt ja mal eine Perplexity Lizenz und Co.
00:32:40: Und spielt einfach mal rum und das war cool.
00:32:42: Und das fanden auch unsere Leute cool, die konnten auf einmal intern auf Bühnen gehen, die konnten dann auch bei unserer Eigentümerin bei der Bayern LB auf so einem Innovationsforum mal vorstellen, was sie hatten.
00:32:50: Die waren regelmäßig auch im Vorstand auf Führungskräftetagungen und konnten einfach mal ganz frisch und offen aufzeigen, was die da tolles gebaut haben.
00:32:57: Und das macht ja auch was mit den Menschen.
00:32:59: So ein Werkstolz.
00:33:00: Absolut.
00:33:00: Und das war ja auf dem Panel so ein bisschen Thema.
00:33:02: Ich hatte ja die These, dass das Thema AI insbesondere in den Köpfen in der Führungsetage nicht so richtig angekommen ist oder aber das es auch vorbehalte bei den Mitarbeiterinnen und Mitarbeiter.
00:33:12: Und sie, als auch Victoria, haben es nochmal sehr deutlich gemacht.
00:33:15: Nee, das ist eigentlich nicht so.
00:33:16: Es gibt eigentlich eine große Offenheit bei dem Thema.
00:33:19: Also es gibt den Willen, sich damit zu beschäftigen.
00:33:22: Die Vorbehalte kommen tatsächlich eher so habe ich zumindest mitgenommen und verstanden, eher so aus dem Thema Regulatorik und Angst, dass was kaputt geht.
00:33:32: Weil man vertraut ja irgendwie der AI auf einmal Daten an, wo man nicht so genau weiß, was macht die damit?
00:33:38: Das ist ja eben nicht wie eine Excel-Tabelle, wo man unten eine Formel reinschreibt und da kommt ein Ergebnis raus.
00:33:42: Man gibt etwas in das Modell und man kann das natürlich verproben und testen.
00:33:48: Aber am Ende brauchst du ja, das wird vielleicht kannst du bestätigen, du musst ja vertrauen, dass das auch funktioniert.
00:33:55: Also du kannst dich ja nicht 24 Stunden an die Webseite setzen und Fragen stellen.
00:34:00: Also du musst darauf vertrauen, dass nicht irgendwann eine Frage kommt, wo irgendwie was Komisches rauskommt.
00:34:05: Ja, total.
00:34:05: Und es ist halt dieser, also im Ursprung der Ton von The Topness muss, glaube ich, einfach ein C-Level-Thema sein.
00:34:11: Ich habe es dann auf der Bühne geschrieben, vor zehn Jahren gab es dann den Chief Digital Officer,
00:34:14: vor fünf Jahren gab es den Chief Sustainability Officer, seit zwei Jahren gibt es Chief Diversity Officer.
00:34:19: Vielleicht brauchen wir einen Chief AI Officer.
00:34:21: Ich glaube nicht, es war ein bisschen überspitzt.
00:34:23: Aber wir brauchen schon das Thema als klare Verankerung bei uns halt irgendwie auch wirklich in der Geschäftsführung, in den Vorständen.
00:34:30: Und dann aber auch das Thema ganz tief in die Führungskräfte einmassieren, damit die das wirklich in ihren Teams auch wirklich streuen.
00:34:38: Und dann gab es nach uns ein Best Practice Keynote von der Dr. M. G. Jakob,
00:34:42: ehemals mit Kinsey mittlerweile bereistet darin für Strategien und Konzernentwicklung bei der DZ Bank,
00:34:46: die auch gesagt hat, es ist so wichtig, dass die Führungskräfte das crossfunktional durch die ganze Bank treiben,
00:34:52: weil das ist einfach ein Erfolgsfaktor für die Implementierung ist.
00:34:54: Ja, genau.
00:34:56: Und da haben wir sehr ausführlich drüber gesprochen.
00:34:58: Ich überlege gerade, haben wir das gut zusammengefasst?
00:35:00: Ich glaube mehr oder weniger war das unser Panel und wir haben ja noch ein bisschen was für uns anhören und anschauen dürfen jetzt in den nächsten
00:35:07: für mich nur noch zwei Stunden durch ans Morgen noch ein bisschen was sehen.
00:35:10: Wir können nächste Woche noch mal drüber plaudern.
00:35:11: Was ich ganz spannend fand, war heute Früh, da habe ich mir die ersten großen Keynotes hier auf dem Bankengipfel angeschaut.
00:35:17: Der erste war wie immer Christian Sewing, CEO von der Deutschen Bank, der dann auch die Frage bekommen hat
00:35:23: vom Sebastian Mattes vom Handelsblatt, was denn mit KI eigentlich sei und Herr Sewing meinte dann auch so, ja,
00:35:29: es ist tatsächlich so, dass es mehr als 100 Projekte aktuell in der Deutschen Bank gibt, die sich mit dem Thema KI beschäftigen,
00:35:35: dass ja wirklich Wahnsinn ist und auch zeigt, dass das ein Thema ist, wo man auch nicht mehr drum herumkommt, wenn selbst die,
00:35:41: ich will nicht sagen verstaubt, aber die hiesige Deutsche Bank, dem Thema halt irgendwie auch so viel Fokus widmet.
00:35:46: Er selbst war da nicht ganz sattelfest, als es nochmal die ein oder andere Nachfrage gab.
00:35:49: Aber auch Valentin Steif zum Beispiel, als N26 CEO und zweiter Sprecher, hat dem Thema sehr viel Intensität bei sich intern halt irgendwie gewährt
00:35:59: und hat halt gesagt, gerade das Thema Credit Scoring, also Kredit, Risiko, Bewertung und Co.
00:36:04: ist ein Thema, was sich N26 gerade ganz genau anschaut zusammen mit Künstlicher Intelligenz.
00:36:09: Ja, zwei ganz wichtige Signale in die Branche.
00:36:11: Ich glaube, die braucht es auch jetzt, weil wir wirklich aus dieser Schockstarre und ich weiß auch ehrlicherweise gar nicht, ob die Schockstarre tatsächlich so schlimm ist,
00:36:19: wie ich sie manchmal beschreibe, aber ich glaube trotzdem, dass so ein kleiner Wegruf oder so ein kleiner Stupster,
00:36:24: insbesondere wenn du beschreibst, dass Valentin und Sewing da was zu gesagt haben, hilft mit Sicherheit.
00:36:30: Genau, damit sind wir schon am Ende unserer 21. Folge angekommen.
00:36:38: Das war unsere heutige Folge mit viel News.
00:36:40: So viele waren es gar nicht, aber ein paar haben wir mitgebracht.
00:36:43: Wir haben natürlich eine E-Mail, E-Mail an die ihr schreiben könnt und danken und sind immer froh über Feedback.
00:36:49: Einfach eine E-Mail an hello@anpluggedpodcast.de, schicken, Mitverbeißerungsvorschlägen und oder auch Themenwünsche.
00:36:58: Das eine oder andere wird uns ja schon mal über die sozialen Kanäle zugetragen.
00:37:02: Sprecht doch mal da drüber, sprecht doch mal dort drüber.
00:37:04: Das nehmen wir uns natürlich zu Herzen.
00:37:06: Also wenn ihr was habt, pingt uns an, schreibt uns und an dieser Stelle bedanken wir uns ganz, ganz herzlich zuhören und sagen bis bald.
00:37:16: Ich fand es schön, dass wir das nochmal live und vor Ort haben aufzeigen können.
00:37:19: Das ist eine ganz andere Dynamik.
00:37:20: Müssen wir öfter machen.
00:37:21: Danke euch. Bis bald.
00:37:22: Bis bald. Tschüss.
Neuer Kommentar