Dein persönlicher Finanzreport und News und Trends in KW 47
Shownotes
Links und News der Woche
Perplexity bringt einen KI-gesteuerten Shopping-Assistenten auf den Markt: https://www.iphone-ticker.de/perplexity-beliebte-ki-app-wird-zum-shopping-portal-245678/ DeepL Voice: KI-Lösung für Sprachübersetzungen vorgestellt: https://www.deepl.com/de/products/voice Microsoft Teams übersetzt eure Stimme direkt in eine Fremdsprache: https://stadt-bremerhaven.de/microsoft-teams-uebersetzt-eure-stimme-direkt-in-eine-fremdsprache/ Ray-Ban Meta Glasses: Einige der KI-Funktionen nun auch in Europa verfügbar: https://www.heise.de/news/Ray-Ban-Meta-Glasses-Bestimmte-KI-Funktionen-nun-auch-in-Europa-verfuegbar-10051598.html Agentur für Sprunginnovation sucht Lösung gegen Deepfakes: https://www.heise.de/news/Agentur-fuer-Sprunginnovationen-sucht-durchgreifende-Loesungen-gegen-Deepfakes-10029154.html KI-Tool “Omas gegen Scam”: https://www.golem.de/news/scambaiting-ki-grossmutter-verschwendet-zeit-von-telefonbetruegern-2411-190806.html ChatGPT für Mac kann direkt mit Xcode und Co. interagieren: https://openai.com/chatgpt/desktop/ Amazons “Rufus” ist nun live in der Amazon App: https://www.aboutamazon.de/news/amazon-prime-und-shopping/rufus-ki-shopping-assistent Googles Gemini App auch in Deutschland verfügbar: https://www.smartdroid.de/gemini-in-gmail-erreicht-deutsche-nutzer/ Der letzte Song der Beatles, mit KI restauriert, Grammy-nominiert: https://www.theverge.com/2024/11/8/24291691/the-beatles-ai-now-and-then-song-grammy-nomination Vatikan und Microsoft erstellen KI-generierten Petersdom: https://apnews.com/article/vatican-microsoft-basilica-artificial-intelligence-c37d066dc7455ffacece2457c4f8e1a1 Washington Post hat eigenen AI-Bot: https://www.zdnet.com/article/the-washington-posts-ai-bot-answers-your-questions-now-no-subscription-required/ Kostenlose Version von Grok in den Startlöchern: https://techcrunch.com/2024/11/10/x-is-testing-a-free-version-of-ai-chatbot-grok/
Tools
https://lmarena.ai https://clip.opus.pro https://magicquill.art/demo/ https://napkin.a
Disclaimer
Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: A.I. in Finance. Der Anplug Podcast von Sascha Deewald und Mike Klotz.
00:00:14: Hallo und herzlich willkommen zur 28. Episode von A.I. in Finance, unserem Anplug Podcast
00:00:26: mit dir, Mike Klotz und mir Sascha Deewald zum Thema Künstliche Intelligenz im Zahlungsverkehr
00:00:32: und im Banking. Wie du meine Stimme entnimmst, ich versuche hier sehr konzentriert, die
00:00:38: Intro zu säuseln. Ich bin nämlich maximal angeschlagen, habe eine Grippe, zumindest
00:00:42: ist der Corona-Test negativ. Und muss mich ein bisschen zurückhalten heute. Also sorry
00:00:47: an dich lieber, Mike und natürlich auch an unsere Hörerinnen und Hörer. Mich hat es
00:00:51: ein bisschen erwischt. Nicht das so trotz, wollen wir natürlich irgendwie aufnehmen
00:00:54: und unsere Serie bis zum Jahresende auf jeden Fall über die 30 bringen. Und wir haben natürlich
00:01:00: auch versprochen, dass wir mal mit einem neuen Deep Dive kommen, den du jetzt schon von
00:01:04: mir an ganz in Weile vorbereitet hast. Und als ich heute Morgen reingeschaut habe und
00:01:09: versucht habe, noch ein paar News beizutragen, war das nicht mehr möglich, weil ich glaube,
00:01:12: unser Doc ist voll mit 209 News. Und deswegen würde ich sagen, mach doch mal eine Intro
00:01:17: zu deinem Deep Dive, lieber Mike. Zunächst einmal möchte ich dich feiern, dafür, dass
00:01:23: du, obwohl du ja richtig krank bist, jetzt heute den Podcast mit aufnimmst und dir ein
00:01:27: Kompliment aussprechen. Du hast momentan eine sehr schön klingende Sonore-Stimme. Also
00:01:31: solltest du überlegen, jetzt eigentlich mehr zu reden. Vielleicht ein Hörerbücher einzusprechen.
00:01:35: Das steht dir extrem gut. Ja, ich versuch's mal. Deep Dive ist auch so ein sehr mächtiges
00:01:40: Wort. Die haben ja immer gesagt, naja AI in Finance, lass uns dann auch mal über AI in
00:01:44: Finance sprechen. Das kommt dir immer wieder leichte Kritik zwischen den Zahlen an uns.
00:01:50: Und es passiert natürlich eine ganze Menge auch bei uns in der Branche. Ich kürze das
00:01:55: jetzt ab, ohne dem All gerecht zu werden. Aber was vor allen Dingen passiert, ist natürlich
00:02:01: Prozessoptimierung. Also viele Dinge, die im Hintergrund laufen, von denen Kundinnen
00:02:05: und Kunden gar nicht so viel mitbekommen. Supportbereich passiert ganz, ganz viel. Beispiel
00:02:10: Klaner, die da ja relativ aktiv sind. Die DKB, ihr habt bei euch ja auf der Webseite
00:02:15: auch ein Chatboard eingestört auf Basis von LLMs. Und das ist auch total nett. Und ich
00:02:21: will, dass es in keinster Weise schmälern. Aber es ist halt noch nicht so dieser krasse
00:02:26: Scheiß, den man sonst so von anderen Anwendungen erlebt. Also wir haben Microsoft Copilot,
00:02:31: wir haben Gemini, wir haben Perplexity, wir haben ohne Ende Tools, wir stellen immer viele
00:02:36: Tools vor, wo irgendwie krasse Sachen mit möglich sind. Und Banking und Impayment ist
00:02:42: es eher so aus einer endkundenden Sicht. Es gibt so ein paar Sachen, also allen voran,
00:02:50: muss man ja schon sagen, fast schon Altes Eisen, Bank of America mit Erika, die ja sehr,
00:02:55: sehr früh gestartet sind im Bereich AI, um da entsprechende Lösungen anzubieten. Und
00:03:02: in Europa ist es vor allen Dingen die holländische Bank, Dunkbank. Wir wissen es nicht, wie es
00:03:07: ausgesprochen wird. Irgendwann klären wir auch das, die ja mit Fynn einen entsprechenden
00:03:11: Finanzassistenten in die App gelangt hat, wo man ja im Prinzip Prompts schreiben kann.
00:03:16: Man kann fragen hier, wie sieht es denn aus? Wo geht das ganze Geld hin? Wie ist mein
00:03:21: durchschnittliches, durchschnittliche Ausgabeverhalten etc. Pp und Finn, momentan immer noch Beta-Status.
00:03:28: Es gibt dann recht gute Antworten, muss man sagen. Dauert ein bisschen, wir haben das
00:03:32: ja auch mal getestet. Aber da passiert schon ein bisschen was. Bei den großen etablierten
00:03:37: Banken ist zumindestens was so Kunden und Kundinnenfrontend betrifft noch nicht so viel. Und dabei
00:03:44: geht auf der anderen Seite natürlich schon ganz, ganz viel. Und was habe ich gemacht,
00:03:47: weil ich so ungeduldig bin und keine Lust hatte zu warten, habe ich einfach mal überlegt,
00:03:52: okay, jetzt hast du da so deinen Internetbanking, da sind halt irgendwie eine große Anzahl
00:03:57: von Buchungen, ja, man kauft ja immer irgendwas. Und jetzt exportierst du die mal. Jeder Online-Banking
00:04:05: oder jede Bank hat ja eine entsprechende Exportfunktion und habt 90 Tage meiner Umsätze exportiert.
00:04:12: Spoiler, ich bin Sparkassenkunde, das wundert ihr es wahrscheinlich nicht, bin ich aber
00:04:16: schon seit vielen, vielen Jahren. Und diese 90 Tage habe ich mir mal angeschaut in der
00:04:22: Exterbälle und habe erstmal Spalten rausgelöscht. Alles was irgendwie quatsch war aus meiner
00:04:26: Sicht oder wo ich selber nichts mit anfangen kann, habe ich rausgelöscht und übrig gelieben
00:04:30: dann, weiß ich nicht, vier, fünf Spalten. Also Datum, Verwendungszweck, Kategorien wurden
00:04:35: mit ausgegeben und natürlich der Betrag. Und das habe ich dann zunächst einmal in
00:04:39: Chatchabity hochgeladen und habe gedacht, okay, jetzt sagst du mir mal, was, was man toll
00:04:44: ist, damit machen kann. Und war von dem Ergebnis relativ enttäuscht, weil das, was ich da gesagt
00:04:50: bekommen habe, war nicht wirklich das, was ich mir vorgestellt habe. Das war also im Prinzip
00:04:55: die Aussagen, also wie das so ist. Chatchabity gibt natürlich Aussagen, die hören sich auch
00:05:00: zunächst einmal plausibel an. Aber mein Ausgabeverhalten, als auch die Einnahmen, passten nicht mit der
00:05:08: Realität auch nicht mit der Gefühltin. Also das, was mit Chatchabity offenbart hat, ich
00:05:12: wäre eigentlich längst pleite. Also würde vielleicht den Schuferskopf von mir erklären,
00:05:16: aber so traurig ist die Realität auch nicht. Und dann habe ich aber gesagt, das kann es
00:05:20: ja nicht sein, das muss irgendwie am LLM liegen und habe die gleiche Tabelle dann einfach
00:05:24: bei Perplexity hochgeladen. Bei Perplexity ist es so, das Standardmodell, zumindest bei
00:05:30: mir, ich weiß gar nicht, ob es das Standard ist, bei mir war es so nah, dass so eine Allatschmodelle
00:05:35: ausgewählt ist, ich glaube Standard, als default. Ja, ist es klar. Genau. Und die gleichen,
00:05:42: gleichen Brompt habe gefragt, okay, machen wir mir jetzt mal aus diesen Ausgabe oder aus
00:05:47: dieser Umsatzliste, machen wir mal einen Finanzreport. Ich wollte so einen schönen, stylischen
00:05:52: Finanzreport als PDF haben, so schön mit Grafiken und so. Und habe gesagt, sag mir,
00:05:59: wie viel Geld ich monatlich ausgebe und an wen mich interessieren, aber allerdings nur
00:06:02: die fünf größten Posten im Monat, wie hoch sind meine monatlichen Fixkosten in Summe
00:06:07: und wie hoch sind die monatlichen Fixen einnahmen. Woher kommt das Geld und was ist so die Durchschnittlage-Ausgabe-Verhalten
00:06:14: von mir. Und das, was dann daraus gekommen ist, also zumindest, wie ich es habe überprüft,
00:06:21: würde ich sagen, war das schon eine 90-95% Trefferquote. Also das ist da jetzt eine Ausgabe, ich will
00:06:26: gar nicht sagen, vergessen wurde, sondern einfach nicht mit berücksichtigt wurde, das
00:06:30: waren eher so Kleinbeträge. Aber das, was ich da gesagt bekommen habe, als reinen Text,
00:06:36: das war schon, wo ich sagte, wow, also so schnell, einen guten Überblick finde ich in meinem
00:06:41: Banking und auch in den Banking Tools, es gibt ja viele, weiß ich, von Outbank, Finanzblick,
00:06:46: wie sie all sind, aber third-party Tools, die man nutzen kann, da war das, was mir Perplexity
00:06:50: mit so nah als LLM gegeben hat, schon deutlich, deutlich besser. Wo ich sage, oh cool. Und
00:06:56: dann konntest du halt anfangen, weil das ist ja einmal hinterlegt, du kannst ja bei Perplexity
00:07:00: auch Spaces anlegen und kannst jetzt auf diesen Daten, die haben natürlich nur ein Stand
00:07:05: bis, also Exportstand, kannst du aber anfangen, darauf rum zu navigieren bzw. Fragen zu stellen.
00:07:11: Und das war schon beeindruckend. Also du kannst also im Prinzip sagen, wie ist denn mein Ausgabe-Verhalten
00:07:16: im Vergleich zu durchschnittlichen deutschen Bundesbürger. Da musst du natürlich ein
00:07:20: bisschen Kontext geben, noch den Motto okay, wir sind eine Familie, also ich bin jetzt nicht
00:07:24: single, das ist ja auch nochmal ein Unterschied. Und dann bekommst du schon recht interessante
00:07:28: Aussagen. Inwiefern die alle immer 100% richtig sind, mag ich nicht beurteilen. Ich weiß,
00:07:33: also wenn da gesagt wird, okay, der durchschnittliche Deutsche gibt so viel für Lebensmittel aus,
00:07:36: da ist die Quelle auch angegeben, da kannst du natürlich schauen, aber weiß in letzter
00:07:41: Konsequenz natürlich nicht immer ist jetzt die Aussage zu 100% richtig, aber es fühlt sich
00:07:45: zumindest mal nach sehr, sehr richtig an. Und dann habe ich gesagt, okay, machen wir daraus
00:07:50: eine PDF, das war auch easy peasy, und hast du eine PDF, die war aber nicht so sonderlich
00:07:54: schön. Und dann habe ich mir diese PDF genommen und bin dann in ein Tool, das haben wir letzte
00:07:59: Woche glaube ich vorgestellt oder kurz angeteasert namens napkin.ai und dieses Tool feiere ich
00:08:08: total, also auch in einem Business Kontext, weil du kannst halt, diese Tool macht halt
00:08:13: aus strukturierten Daten Grafiken. Und jetzt mit Grafiken meine ich jetzt nicht so diese
00:08:18: klassische Tortendiagramm, das wäre ja noch easy, sondern wirklich anschaulich Visualisierung,
00:08:25: also von Flussdiagrammen, die sehr, sehr, die man kennt aus Powerhäuernfolien, aber
00:08:30: auch wirklich gut aufbereitet, sehr Visualisierung. Und habe dann im Prinzip die einzelnen Blöcke
00:08:36: mir genommen, das ist super easy, du lädt die Datei rein und dann markiert er schon automatisch
00:08:42: die einzelnen Blöcke, die er identifiziert hat und dann generiert er im Prinzip eine entsprechende
00:08:46: Visualisierung und du kannst dann, ich habe aufgehört zu zählen, das sind bestimmt 15,
00:08:51: 20 unterschiedliche Visualisierung, die vorgeschlagen werden, die du dann auch immer noch im Design
00:08:55: ändern kannst und rausgekommen ist ein, für mich ein Kontoauszug, ein Finanzreport, wie
00:09:03: ich ihn mir eigentlich von meiner Bank generell wünschen würde. Das ist jetzt noch nicht
00:09:08: super, super, super Fancy, da fehlt natürlich ein schicker Header, da steht ein schicker
00:09:12: Ansprache, also hier Sachen fehlen, aber durch Nebkin und diese Kombination per Plexity
00:09:18: war das schon irgendwie, war das schon richtig cool. So, das bis hierhin kann man auch sagen,
00:09:24: naja gut, das ist eine Umsatzliste, erst mal Datenschutz und so, das sind ja meine Umsätze,
00:09:27: mal auch schon vorgelassen. So viel sind das ja nicht. Nein, so viel sind das ja nicht,
00:09:32: genau. Aber das, was ich halt, was ich gelernt habe, ist, das jetzt schon mit einfachen Wortmitteln
00:09:38: und ich bin ja wie gesagt kein Entwickler, ich bin ja kein jemand, der jetzt irgendwie
00:09:41: anfängt, LLMs irgendwie in einen Banking-Banker einzubauen, das kann ja gar nicht, aber
00:09:47: das, was ich mit Wortmitteln im Prinzip hinbekommen habe, das war für mich schon, wo ich sage,
00:09:50: das mache ich bestimmt nochmal. Auch jetzt so von dem Hintergrund, wenn du konkrete
00:09:54: Ziele hast, also sagst du, okay, ich würde mir gerne Eigentum anschaffen oder du möchtest
00:09:59: überlegst irgendwie Geld zu investieren, wie viel Geld macht denn Sinn zu investieren,
00:10:04: wie sieht denn mein Puffer aus? All solche Sachen kannst du jetzt relativ leicht, wie
00:10:08: ich finde, in dem Fall jetzt mit Perplexity, aber ich habe auch jetzt nicht noch viele
00:10:12: andere, ich hätte jetzt auch noch Gemini ausprobieren können oder Krok ist ja auch, glaube ich,
00:10:17: inzwischen inter- integriert und kann man wählen, habe ich alles nicht gemacht, sondern
00:10:20: es funktioniert halt mit so nah und hab's dann oder Entropic und hab's jetzt so gelassen,
00:10:26: aber ich bin mir ziemlich sicher, dass man das jetzt noch weiter Feintune will und ich
00:10:29: werde das auch tun, also ich werde noch weiter mich so ein bisschen reinzneken, aber für
00:10:32: den ersten Stand war das schon richtig cool. Und jetzt passiert, jetzt gibt's ja draußen
00:10:37: auch 1000 Dienste, also wenn du zum Beispiel dir ein Account bei Make.com anlegst, dann
00:10:43: kannst du jetzt anfangen ja schon verschiedene Dienste miteinander zu kombinieren, also
00:10:47: kannst Perplexity, ich bin schon da, kannst du sagen, ich mach jetzt, das sind die Umsätze
00:10:50: oder das ist der Tabelle, analysiere die, du kannst da verschiedene LLMs hinterhängen
00:10:55: und kannst auch dahinter wieder verschiedene Dienste, bis hin zu ein Google Sheet oder
00:10:59: ein Google Doc oder was auch immer dranhängen als Ergebnis Typ, ich kann's noch nicht mit
00:11:03: Napkin verbinden, also ich könnte jetzt Google Sheet und daraus dann irgendwelche Tortendirgramme
00:11:09: machen, das würde gehen, Napkin bietet diese Schnittstelle noch nicht an, aber du siehst
00:11:15: jetzt schon bei Make.com das ganz ganz viele AI-Campanies, die so gibt, schon Schnittstellen
00:11:21: bieten und wo du die dann miteinander verknüpfen und kombinieren kannst und dann kannst du
00:11:27: im Prinzip deinen eigenen Finanzassistenten, deinen eigenen Finanzreporter, deinen eigenen
00:11:32: Investitionsassistenten bauen bis hin zu, alles klar, ich hab jetzt so viel Geld übrig,
00:11:38: jeden Monat bestellen mir bei XY, einmal in der Woche oder einmal im Monat das Hundefutter,
00:11:43: wenn's im Angebot ist, also das ist jetzt schon nicht mehr nur theoretisch, sondern
00:11:49: sehr praktisch möglich, ja du musst noch frickelen und ein bisschen Hand anlegen,
00:11:53: aber es ist nicht mehr so weit weg und das fand ich, finde ich bemerkenswert, auch von
00:11:58: dem Hintergrund, dass wir auch bei uns in der Branche immer darüber sprechen, dass
00:12:03: man den Wald vor lauter Bäumen nicht so sieht und man natürlich naheliegend erstmal die
00:12:07: eigenen Prozesse optimieren will, aber ich finde es gibt so low hanging fruits, nur Datenschutz
00:12:12: und so ist natürlich super wichtig, brauchen wir gar nicht drüber zu diskutieren, aber
00:12:17: wenn ich sehe was mit einfachen Mitteln möglich ist, will ich ja gar nicht mir ausmalen, was
00:12:21: möglich wäre, wenn ich das jetzt wirklich mit meinem Banking von meiner Bank verknüpft
00:12:26: bekomme, ja das wäre mein absoluter Traum und ich sehe so ein bisschen die Gefahr, dass
00:12:33: und jetzt kommen wir mal in den Schwenken, nächstes Jahr wird ja Apple Intelligence auch
00:12:37: in Europa eingeführt und Apple Intelligence hat ja die Möglichkeit auch schon zu erkennen,
00:12:42: was auf deinem Display passiert. Wie ich das gelesen habe, musst du als App-Entwickler
00:12:47: das frei geben, also es ist nicht so, dass Apple Intelligence automatisch lesen kann,
00:12:52: was da passiert, aber wenn ich jetzt überlege, third party Banking App gibt das frei, dann
00:12:57: kann mir auf einmal Apple Intelligence vielleicht schon, weil ich ja auch dahinter chatchivitiv
00:13:02: knüpfen kann, mir anfangen entsprechende Aussagen zu treffen, wie sieht es bei mir momentan
00:13:07: finanziell aus etc. pp, nur aufgrund der Tatsache, dass ich gerade meine Banking App gestartet
00:13:11: habe und dann, glaube ich, wird uns in der Branche leider nicht zum ersten Mal ein Stück
00:13:18: weit die Wurst vom Brot genommen. Ich weiß nicht, wie du drauf guckst, du bist ja erkältet
00:13:21: und kannst deswegen nicht reden, aber ich sehe da gerade einen Momentum und ich sehe
00:13:29: da gerade einen Fell, wie man so schön sagt, was vielleicht anfängt davon zu schwimmen.
00:13:34: So, das ist jetzt mal so der Deepdive, was ich gemacht habe und meine kurze und knappe
00:13:40: Konklusivität. Cool. Ich habe mich hier ausgehustet auf
00:13:44: Mute, deswegen kann ich jetzt auch wieder sprechen. Ich finde es auf jeden Fall mega cool. Ich
00:13:48: habe es versucht nachzuvollziehen, allerdings nicht mit Perplexity, ich habe es mit GPT
00:13:53: gemacht, erst mit 4O und dann mit O1 Mini. Hat beides überhaupt nicht funktioniert,
00:13:59: er hat nur Fehler geschmissen. Ich hatte aus dem DKB Banking die gesamten 24er Umsätze
00:14:05: von meinem Konto rausgezogen, habe auch so ein bisschen die CSV geglättet und das Unnützezeug
00:14:11: quasi rausgeschmissen. Am Ende hat er mir dann, ich habe es gerade nochmal offen, so viele
00:14:16: Fehler gezeigt, die auch gut beschrieben, also quasi in diesem neuen Reasoning Modell, schreibt
00:14:22: irgendwie die Daten scheinend komplexer zu sein oder nicht dem erwarteten Format zu
00:14:26: stehen. Ich werde die Daten zuerst einlesen und die Struktur untersuchen und dann sagt
00:14:31: er, das sind viel zu viele Metadaten, am Ende waren es halt irgendwie 4 Spalten und konnte
00:14:35: dann irgendwie die Kategorisierungen nicht sauber vornehmen. Also das heißt mal, alle
00:14:40: OpenAI Modelle sind dafür auf jeden Fall noch nicht geeignet selbst. Ich finde relativ
00:14:44: trivialen CSV-Datei, von daher werde ich auf jeden Fall mit Perplexity da mal machen. Ich
00:14:48: finde, was du mit NAPRIN gemacht hast, das liebe ich auch mittlerweile, das Tool ist
00:14:52: es echt gut, auch alleine so ein bisschen um Gedanken zu ordnen von Daten, die man dann
00:14:56: so ein bisschen visualisieren kann, auch einfach nur für mich selbst, so im eigentlich, im
00:15:01: eigenen Gedanken oder Strategieprozess. Aber ich glaube, die Magic beginnt, wie du es
00:15:07: gesagt hast, wenn du es dann Gen-Tick machst. Also wenn du quasi verschiedene Bausteine
00:15:13: der Wertschaffungskette zusammen fügst, durch zum Beispiel Match. Und das ist ja am Ende,
00:15:18: sagst du halt so ein bisschen if this, then that und fügst quasi viele kleine Puzzlestücke
00:15:23: zusammen. Und ich glaube genau das bauen die ganzen großen SAP und Co. halt gerade automatisch.
00:15:28: Ich habe gestern einen langen Artikel von dem SAP CEO gelesen, der halt irgendwie schreibt,
00:15:33: dass sie jetzt gerade voll auf Gen-Tick gehen und die unterschiedlichen Agenten mittlerweile
00:15:38: sogar nicht nur Aufgaben an andere KIs im Hintergrund, also virtuelle Menschen oder
00:15:43: also virtuelle Agenten delegieren, sondern selbstständig, wenn es die dann noch nicht
00:15:48: gibt, selbstständig welche bauen. Also quasi Small Language Models selbstständig bauen,
00:15:53: sowohl im Training als auch in der Inferenz, um dann kurz später auf sie zugreifen zu können.
00:15:58: Da hat keiner einziger Mensch jemals eine Entscheidung getroffen oder halt irgendwas damit zu tun.
00:16:02: Das entscheidet die KI halt mittlerweile selbst. Und ich glaube, in so eine Richtung ist gar nicht
00:16:06: so krass verkopft, aber wird es halt irgendwann gehen hier auch, dass du sagst, wenn du all diese
00:16:11: Puzzlestücke mal zusammengefügt hast durch einen Anbieter, dann brauchst du halt nichts
00:16:16: mehr machen, außer einen Knöpfchen zu drücken und nicht mehr mehr am Prompt rumzufuhen.
00:16:20: Ja, vor allem, was ich jetzt gerade erlebe so ein bisschen, das male ich mal eine ganz
00:16:24: dunkle Wolke an den Horizont oder an den Himmel. Wir haben über Jahre, wenn dich jahrzehnte
00:16:29: davon gesprochen, dass wir in der Finanzbranche insbesondere bei Banken die Kundenstitestelle
00:16:35: an die großen Tech Giants verlieren. Du erinnerst dich an die Diskussion, das ganze Thema rund
00:16:39: um Mobile Payments. Und ein Stück weit war das ja auch so. Also wir haben es in Europa nicht
00:16:44: auf die Kette gekriegt, ein vernünftiges Mobilis-Bezahlverfahren auf den Markt zu bringen.
00:16:47: Apple hat es dann gemacht, danach kam Google, der Rest ist Geschichte. Was ich aber jetzt
00:16:51: sehe, ist für mich nochmal eine ganz andere Dimension. Und wir kommen ja auch gleich bei
00:16:55: den News dazu. Wenn du mir anschaust, dass mittlerweile immer weniger ge-googelt wird,
00:17:01: sondern ein Tool wie Perplexity zum Einsatz kommt, Telekom hat ja jetzt nochmal die Partnerschaft
00:17:07: mit Perplexity wirklich intensiviert. Und was Perplexity jetzt gerade gelanscht hat oder
00:17:12: sie haben es angekündigt, was auch noch schon werden, ist dieser Shopping Assistant. Und
00:17:17: das ist für mich ein Beispiel dafür, wie du ein Stück weit auch Kundenschnittstelle
00:17:21: verlierst. Denn was passiert, wie gesagt, ich nehme jetzt mal die News vorweg, weil es
00:17:24: zum Thema passt. Du kannst in Perplexity künftig im Prinzip sagen, pass mal auf. Also du hast
00:17:30: den nachweislichen schlechten Kleidungsstil und auch schlechten Geschmack und konntest
00:17:33: aber sagen, ich brauche passend zu meinem rosäfarbenen Anzug, brauche ich jetzt passende Schuhe. Und
00:17:44: Perplexity zeigt dir nicht nur die richtigen Schuhe an, sondern du kannst in Perplexity
00:17:49: den Kaufprozess abschließen. Das heißt, du siehst den Store gar nicht mehr. Und dieses
00:17:53: Deep Linking, das ist für mich ein krasser, ja wie soll ich sagen, ein krasser, auch
00:17:58: wie ihr in der Tat Verlust in dem Fall in der Store oder Kundenschnittstelle im E-Commerce.
00:18:02: Das Gleiche kannst du natürlich jetzt auch in Richtung Banking denken. Also wir haben
00:18:06: Open Banking in Europa, die Schnittstellen sind allgemein bekannt. Und wenn ich jetzt
00:18:10: Perplexity wäre, würde ich jetzt sagen, okay, dann mögliche ich jetzt den Leuten über die
00:18:16: entsprechenden Schnittstellen jetzt die Bankdaten einzulesen. Und dann mache ich nämlich hier
00:18:19: das ganze Thema und dann investiere ich das. Und da hängen ja auch eine Million von Businessmodellen
00:18:24: dahinter. Also da brauche ich gar nicht viel Fantasie. Und dieser Verlust der Kundenschnittstelle,
00:18:30: der bekommt für mich gerade im Moment nochmal eine völlig neue Dimension. Ich weiß nicht,
00:18:34: wie du drauf guckst, aber das ist so ein bisschen, kann man sagen, ist noch ganz weit hin, wobei
00:18:38: ich bei AI weit hin. Aber das ist so ein bisschen die Problematik, die ich gerade sehe.
00:18:44: Na, ich glaube, du bist heute ein bisschen schwarzmaler unterwegs. Und ich lege vielleicht
00:18:47: daran, dass du jetzt irgendwie glaubst, du hast durch deinen kleinen Heck hier irgendwie
00:18:51: alle Banken obsolet gemacht. Also ich glaube schon, dass du nicht recht hast damit, dass
00:18:56: eigentlich gerade nicht so viel passiert außer diese Sachen von irgendwie Bunk, Bank of
00:19:01: America hast du mit Erica, glaube ich, angefühlt. Also ich glaube, es passiert ganz viel, aber
00:19:05: halt vor allem in den Themen, die jetzt gar nicht unbedingt Kunden und Kundinnen relevant
00:19:10: sind. Weil also der Chatbot, ja, wir haben mal drüber gesprochen. Wir haben so ein Ding
00:19:14: jetzt nicht nur Websites, sondern tatsächlich auch schon in der App integriert. Und wir
00:19:19: führen das auch weiter, aber wir total daran glauben, dass das halt einfach für Kunden
00:19:22: zu Friedenheit und UIUX halt irgendwie der nächste Schritt sein wird, der absolut notwendig
00:19:27: ist. Also eher so ein Hygienefaktor. Gar nicht unbedingt ein Wettbewerbsvorteil langfristig.
00:19:31: Aber ich glaube, bei ganz vielen anderen Kunden Frontend-Themen ist es halt einfach noch nicht
00:19:38: so weit. Ich glaube, da arbeiten viele daran, aber die meisten großen Hebel, vor allem
00:19:42: Effizienzhebel, Kostenreduktionshebel, Ertragsgenerierungshebel, die sind halt im Backoffice. Und ich glaube,
00:19:47: daran arbeiten alle großen Finanzdienstleister weltweit. Gerade, das ist halt irgendwie im
00:19:53: automatischen Auslesen und Strukturieren von strukturierten und strukturierten Daten in,
00:19:59: keine Ahnung, Sustainabilityberichten, Finanzberichten, alles was Compliance Themen sind, alles was
00:20:04: Revisionsthemen sind, werden dadurch vielleicht einfacher, griffiger, dynamischer. Ich glaube,
00:20:09: daran arbeiten sehr viele, wie man das interne Berichtswesen beschleunigen und automatisieren
00:20:15: kann. Ich glaube, ganz viel geht in das Thema Kredite, sowohl im Retail-Bereich als auch
00:20:19: im Hotel oder im Filmkundenbereich rein. Gerade auch bei großen komplexen, strukturierten
00:20:24: Financing-Themen. Ich glaube, im Investment Banking, im Asset Management passiert richtig
00:20:29: viel. Aber das sind natürlich Sachen, die siehst du nicht draußen, irgendwie auf dem Markt.
00:20:32: Die kriegt irgendwie Average Joe oder Average Mike natürlich nicht direkt irgendwie ins
00:20:37: Sichtfeld gespielt. Und da würde sowas, was du jetzt quasi schnell gebaut hast, total
00:20:42: gut reinpassen. Weil das zeigt ja auch ein bisschen, okay, ist meine Bank jetzt innovativ.
00:20:47: Früher war das, wie du richtig sagst, Apple Pay. Mittlerweile ist das ein totaler Hygienefaktor,
00:20:51: eine Bank, die kein Apple Pay auf ihrer Karte für ihre Kundinnen anbietet, ist es einfach
00:20:56: nicht mehr existent. Ja, 2019 gab es irgendwie so die ersten Liedes gemacht haben und spielestens
00:21:01: seit 2022 haben es alle. Und das Gleiche wird wahrscheinlich sowas jetzt hier sein. Ich
00:21:06: hänge dem nicht so hinterher, dass die Big Tax jetzt die Kundenschutzstelle wirklich
00:21:12: aufessen, weil das hätten sie auch schon ohne Aion, ohne Agentec AI machen können. Aber
00:21:17: haben sie bis hier halt auch noch nicht ausgekommen? Nee, das meine ich gar nicht. Also ich glaube
00:21:21: tatsächlich nicht, dass Big Tax die Kundenschutzstelle aufresten. Ich glaube, sondern eher, es ist
00:21:25: immer die Frage, wie meinen wir mit Big Tax. Also ich glaube, dass gerade zumindestens
00:21:29: auch Big Tax ein bisschen Fehler lassen müssen. Also wenn ich mir Apple Intelligent angucke,
00:21:34: das ist Generationen hinter dem, was Open AI bietet. Also das muss man nicht dann betrachten.
00:21:39: Die haben das völlig verpennt. Google hat mit Gemini sicherlich aufgeholt, ist aber
00:21:43: auch noch schlechter als Open AI oder auch als, weiß ich nicht, als Entropic. Ich sehe
00:21:48: so ein bisschen tatsächlich, selbst bei den großen Big Tax, bilden sich neue Player,
00:21:54: neue Protokonesten. Ich meine, guckt ihr die Markkapitalisierung von Open AI oder auch
00:21:59: von Perplexity an. Da passiert gerade ganz, ganz viel und selbst die müssen ja ein Stück
00:22:04: weit Angst haben. Wenn ich am Ende nur noch einen Assistenten habe, der mir, du willst
00:22:08: ja die Metabrile holen, der mir im Ohr hängt, dann guckst du auch nicht mehr auf dein iPhone,
00:22:13: ja, weil dann guckst du halt auf die Straße und dann zwitschert die in dem Fall, ich weiß
00:22:17: gar nicht, also in dem Fall ist es ja Meta AI, dann die entsprechenden Informationen ins
00:22:21: Ohr. Hoffen wir es. Noch darfst du jetzt nicht in Deutschland, sondern nur in anderen europäischen
00:22:26: Ländern, aber vielleicht wird es bald. Aber ja, also du hast recht, ich glaube auch das
00:22:30: sind so die neuen, die neuen potenziellen Wettbewerber, gar nicht so die typischen Big Tax, vielleicht
00:22:35: ist es die Hyperscaler, vielleicht ist es die neuen AI Modellierer. Feststeht, du kannst
00:22:40: es halt irgendwie relativ selbst einfach lösen, ne, wenn du so ein bisschen Prompting und
00:22:46: so ein paar Hecks halt irgendwie kennst und auch das haben wir ja auch in den letzten Monaten
00:22:50: schmerzlich gelernt, wir beide, du nördest dich irgendwie kompliziert bis auf Solos 17 auf
00:22:55: irgendwelche Themen ein, zwei von später gibt es halt irgendwie ein Stück Code in irgendeine
00:23:00: Applikation, die das genau das für dich tut, wo du halt gehangt mehr machen musst, also
00:23:03: irgendwie eine Halbsatze irgendwie gerade ausschreiben können in einem vernünftigen
00:23:07: Deutsch oder Englisch. Und das was du sagst, also mein Sohn macht gerade eine Ausbildung
00:23:12: als Anwendungsentwickler, weil wir gedacht haben, deswegen ging es cooles Ding, ich würde
00:23:15: sagen, aus heutiger Sicht nur eine Mittelgut der Entscheidung, weil viele Sachen werden
00:23:22: sich in der Tat verändern und die Dynamik ist halt total krass. Lass uns doch mal auf
00:23:27: die News gucken, da gab es ja auch zwei, drei und ich würde einfach anfangen, weil du immer
00:23:32: noch ein bisschen angeschlagen bist und du sneaks dann einfach rein, du siehst, ihr seht
00:23:36: Sascha Niche sitzt wirklich mit leicht gequältem, fast schon fiebrigen Gesicht und eine Tasse,
00:23:41: was ist das? Krok rum, hoffe ich. Langweiliger Kräuter Tee. Ja, Kräuter Tee. Wir haben eben
00:23:48: über das Thema Automatisierung gesprochen und da passende Nachricht zu, nämlich Open AI
00:23:53: steht wohl, Gerüchten nach kurz vor der Markteinführung von sogenannten KI-Agenten. Das haben wir
00:23:59: schon mal von anderen gesehen, es gibt diese Demo, die hatten wir glaube ich im vorletzten
00:24:03: Podcast von Anthropic, wo im Prinzip die App in dem Fall, die auf dem Desktop installiert
00:24:10: ist, anfangen kann mit dem Computer zu interagieren und auch Task ausführen kann. Und vor allen
00:24:16: kann man task miteinander verknüpfen.
00:24:18: Den ersten Schritt zu einem solchen KI-Agenten hat ChabGbT tatsächlich, wie ich finde, mit dem aktuellen Release der Desktop-App auf dem Mac zumindest gemacht,
00:24:28: weil dort würde ich jetzt seit gestern oder vorgestern, also seit kurzer Zeit, angeboten oder gefragt, ob ChabGbT auf installierte Applications zugreifen kann.
00:24:40: Unter anderem Xcode, dann diverse Editoren und dann kannst du quasi ChabGbT schon bitten, Code zu schreiben und dann wird es nicht mehr nur im Fenster gemacht,
00:24:50: sondern es wird dann direkt nach Xcode übermittelt.
00:24:52: Das ist jetzt noch nicht so richtig KI-Agent, weil KI-Agent bedeutet, da kann man natürlich, werden Apps miteinander verknüpft,
00:25:00: soweit ist man noch nicht, aber es scheint wohl so zu sein, dass sich OpenAI genau mit diesem Thema beschäftigt und ja,
00:25:07: obwohl vor einer Markdownführung, wann immer Design wird, steht.
00:25:11: Allzu lange wird es wohl nicht mehr dauern, so die Gerüchte.
00:25:14: Ich habe mir ein Paper gefunden, was das Team von Sam Altman gestern release hat dazu und das deutet auf Januar 25 hin,
00:25:22: zumindest erwähnen Sie es dort und Sie nennen das Ding Operator.
00:25:26: Auch so ganz spannend.
00:25:27: Also das soll genau, was wir mal, glaube ich, von Jarvis, also den KI-Agenten von Google schon diskutiert hier,
00:25:33: haben hier der MbCenter schon eingeführt werden soll dieses Jahr, mehr oder weniger so ein Blueprint davon werden.
00:25:39: Das heißt, das kann dann irgendwie dein Computer steuern und eigenständig auf Code zugreifen, diesen Schreiben verändern,
00:25:46: reisen für dich buchen, so, solche Sachen.
00:25:49: Die nächste Nachricht, ich hoffe, da kannst du ein bisschen mehr zu sagen, nicht weil ich sie nicht gelesen habe oder vielleicht doch,
00:25:56: weil ich sie nur die Überschrift gelesen habe, aber OpenAI hat erkannt und das ist natürlich ein Problem,
00:26:01: dass AI nicht mehr so schnell wachsen kann, wie das, also die Sprünge sind nicht mehr so groß, wie sie am Anfang waren,
00:26:08: so, die sind kleiner und man arbeitet jetzt an einer Strategie, um die Verlangsamung von Verbesserungen im AI-Umfeld
00:26:17: da entgegenzuwirken.
00:26:18: Also man möchte gerne den PACE quasi aufrecht erhalten und dort arbeitet man gerade an einer Strategie,
00:26:23: die das sprechen, ja, nicht befeuert, sondern die dafür dazu beitragen soll, dass eben diese Verlangsamung
00:26:31: nicht mehr in der Form stattfindet.
00:26:33: Naja, ich habe es gar nicht gelesen, aber ich kann es mir, glaube ich, so ganz gut erklären.
00:26:37: Wir haben ja hier immer mal wieder auf dieses berühmte Habsburger Prinzip, was Philipp Plöcknam also genannt hat,
00:26:42: hengedeutet, ja, das KI in der Inferenz, also in dem Ausspucken von Informationen, ja, immer mal wieder halluziniert
00:26:49: und dann diese Arten von, also komplett ausgegebenen Output, dann auch wieder ins Training zurückkommt
00:26:55: und dann quasi so ihr eigenes, erbrochenes, halt irgendwie auch wieder weiter konsumiert.
00:27:00: Oder auch trainiert.
00:27:02: Und das sorgt natürlich zum einen dafür, dass die Informationen jetzt nicht mehr unbedingt primär quellen,
00:27:07: sondern schon virtuell erarbeitete Quellen dann sind.
00:27:12: Und gleichzeitig haben wir halt das große Problem, dass in den großen Sprachmodellen,
00:27:17: die bis jetzt innerhalb der letzten zwei Jahre halt auch für sehr viel Geld aufgebaut wurden,
00:27:21: einfach schon sehr, sehr viel Wissen aus eigentlich dem gesamten Internet,
00:27:24: aus allen möglichen Blogs, mittlerweile Zeitungen, Zeitschriften, Büchern, vor allem von Google Books,
00:27:29: aber mittlerweile natürlich auch aus Bildern, aus Interaktionen mit Menschen, Interaktionen mit anderen Maschinen,
00:27:35: aber eben auch aus YouTube-Videos und Code drin steckt und irgendwann gibt es einfach keine weiteren Primärquellen mehr,
00:27:42: die nutzbar sind, um so dieses nächste große Modell, vor allem das nächste große Reasoning-Modell zu bauen.
00:27:47: Und OpenAI wollte ja eigentlich Orion rausbringen, das ist ja so ein bisschen der Code-Name von GPT5,
00:27:53: also dieser ersten AGI, die ja irgendwo schon heimlich im Keller schlummern soll.
00:27:57: Und jetzt haben die Menschen um Sam Ordmann von OpenAI bekannt gegeben, glaube ich,
00:28:02: letzte Woche, dass sie dieses Jahr auf jeden Fall noch nicht rausbringen, weil sie so ein bisschen,
00:28:06: wie du es gerade beschrieben hast, Probleme darin sehen, dass sich die Errungenschaften nicht mehr ganz so schnell umsetzen lassen wie zuvor.
00:28:14: Dazu passt auch die nächste Nachricht so ein bisschen, nämlich du hast es gerade beschrieben,
00:28:18: OpenAI oder LLMs, large language Models leben von Daten, die braucht ist
00:28:24: und wo werden immer noch viele Daten generiert, nämlich von Nachrichtenportalen.
00:28:29: Und die finden das natürlich nur so mittelkohl, dass die ganzen LLMs auf diese Daten zugreifen.
00:28:35: Da gibt es ja diverse Klagen, manchmal gibt es Kooperationen, wie in Deutschland mit dem Springerverlag,
00:28:40: manchmal gibt es aber auch eben Klagen gerade in den USA und jetzt auch in die indische Nachrichtenagentur,
00:28:45: hat nämlich jetzt eine, wie ich finde, doch recht umfangreiche Klage, nämlich 287 Seiten,
00:28:51: genau zu sein, gegen OpenAI eingereicht, weil nämlich sie verhindern möchten, dass OpenAI und die LLMs dort auf die Informationen zugreifen,
00:29:01: die von den entsprechenden Agenturen kommt.
00:29:04: Wie ich finde, sehr spannend werden in Zukunft, weil Daten, diese sind das neue Gold, das stimmt, das ist in der Tat so.
00:29:12: Und ich glaube, das wird sich noch sehr viel, ja, das wird noch ein Momentum bekommen, einfach auch vor dem Hintergrund,
00:29:20: weil man natürlich möchte, oder mit diesen Daten auch Geld verdienen zu können.
00:29:26: Und in dem Moment, wo Informationen frei zugänglich sind, Wikipedia und Co.
00:29:30: und die ganzen LLMs diese Daten abgreifen, dann sind sie halt weg.
00:29:34: Und das ist halt natürlich schlecht für Betreiber von Nachrichtenseiten beispielsweise,
00:29:38: wenn die Nachricht dann nicht mehr bei Spiegel Online, sondern dann auf einmal bei Chatchabit stattfindet.
00:29:43: Ich glaube, da wird noch einiges passieren.
00:29:45: Ich glaube, wir werden sehr viel mehr Paywalls sehen, sehr viel mehr wird kostenpflichtiger werden
00:29:49: und nur mit Accountzugang und es ist jetzt schon so, dass man ja schon Scrawler aussperren kann.
00:29:56: Aber wie das so ist, also ich glaube, da wird noch eine Menge passieren und passt zu dem, was wir gerade eben besprochen haben.
00:30:02: Genau, dann haben wir eben, das haben wir ja vorweggenommen, das Thema Perplexity.
00:30:07: Perplexity bringt einen Kali gesteuerten Shopping-Assistenten.
00:30:09: Ich will das gar nicht lang wiederholen.
00:30:11: Im Grunde genau das, was ich beschrieben habe.
00:30:14: Man kann halt Perplexity dann sagen, ich brauche XY und zu einem entsprechenden Event oder ich brauche ein bestimmtes Werkzeug oder, oder, oder, oder.
00:30:22: Und Perplexity findet nicht nur das, was ich suche, sondern bietet mir auch dann direkt den Kauf an.
00:30:28: Und das, wie gesagt, alles nahtlos, wie ich finde, das, was wir damals immer gesagt haben,
00:30:33: als so Alexa und Co. auf den Markt kam nach dem Motto "Sauer", dann das ganze E-Commerce wird auf links gedreht,
00:30:39: weil alle nur noch über die ganzen Sprachassistenten anfangen zu bestellen.
00:30:43: Das hat sich, glaube ich, so nicht bewahrheitet.
00:30:45: In diesem konkreten Fall bin ich mir nicht sicher, ob es jetzt anders sein wird.
00:30:51: Oder an sich, ich könnte mir vorstellen, dass es jetzt tatsächlich anders ist.
00:30:54: Passend dazu, ich springe ein bisschen Sascha, also wundere dich nicht.
00:30:57: Seit gestern, wir haben da schon drüber gesprochen, Rufus, furchtbarer Name für einen Assistenten.
00:31:03: Ich muss immer an Igor, Rufus, irgendwie Frankenstein, Horror-Movie denken.
00:31:08: Ist der Diener nicht Rufus? Ich weiß es nicht.
00:31:11: Jedenfalls ist Rufus live in der Amazon-App, also ausgerollt, ich glaube seit gestern oder vorgestern.
00:31:17: Und dann hat jetzt rechts unten in seiner Amazon-App auf dem iPhone und auf dem Android einen kleinen Button.
00:31:22: Da kann man dann drauf klicken und kann dann sagen, ich suche ein passendes Gewürz für,
00:31:28: ich suche, keine Ahnung, was ich möchte, einen schnellen Brüter zu Hause bauen,
00:31:32: weil Atomkraftwerke wieder innen sind und dann gibt es eine Bauanleitung für den schnellen Brüter.
00:31:36: Da lachst du, ja, du kannst halt wirklich relativ frei fragen.
00:31:40: Aber es gibt auch Fragen, ich habe es getestet, man kann nicht alles fragen.
00:31:43: Also der perfekte Mord wird auch damit nicht möglich sein, dann sagt er dann,
00:31:46: ach nee, damit kenn ich mich nicht aus. Also da gibt es dann offensichtlich eine Schranke.
00:31:50: Aber ich habe das getestet und ich fahre überrascht, wie gut das funktioniert.
00:31:54: Jetzt bin ich eher jemand, der so relativ klar weiß, alles klar, ich brauche irgendwas und dann bestelle ich das.
00:32:00: Aber man kann jetzt wirklich, wenn man jetzt Geburtstagsgeschenke sucht oder so,
00:32:04: kann man jetzt das in einen Prompt reinschreiben und bekommt, wie ich finde, gute Ergebnisse.
00:32:08: Also auch da die Integration von AI im E-Commerce.
00:32:12: Ja, es hilft halt auch, wenn du so ein bisschen, keine Ahnung, jetzt vor Weihnachten oder vor einem Geburtstag
00:32:17: so ein bisschen lost bist und sagst, okay, ich suche halt irgendwie ein Geschenk für meine Kinder,
00:32:22: meine Frau, meine Eltern und kannst dann so ein bisschen mit dem chatten
00:32:26: und er macht dir dann sofort quasi Vorschläge.
00:32:29: Das finde ich, glaube ich, ganz gut und ich denke deswegen bringen Sie es auch jetzt raus, damit es vor allem für Weihnachten wirklich schon Anwendung findet.
00:32:35: Total, das finde ich, es wundert mich nicht.
00:32:38: Also für deine Kinder und deine Frau ist das natürlich ein wahrer Segen.
00:32:41: Endlich mal keine Schokolade mehr zu Weihnachten.
00:32:43: Schokolade, es gibt Zockung.
00:32:45: Und in dem Stil vielleicht noch, ich war gerade auf dem Mute und habe losgeplaudert,
00:32:50: aber du hast mich nicht gesehen und bist natürlich auch so ignorant, dass du nicht mal auf den Bildschirm schaust
00:32:54: und mich wild wegen Kind vor dir siehst.
00:32:57: Aber was ich noch ein ganz schönes Feature bei Perplexity finde,
00:33:01: bei diesem Buy with Pro, was du gerade eingeführt hast,
00:33:03: die haben jetzt was Neues, das nennt sich auch Snap to Shop.
00:33:06: Das ist quasi eine visuelle Suche.
00:33:09: Das heißt, ich kann, wenn ich auf deine wundervollen Caps, die du ja immer trägst,
00:33:15: mit tollen Motto oben drauf, wenn ich da irgendwie auch draufstehe,
00:33:18: davon jetzt ein Foto mache,
00:33:20: kann ich das bei Perplexity hochladen und kriege quasi sofort einen relevanten Produkt vor Schlag dazu
00:33:24: und kann das dann wiederum über meine Shopping Pro-Ariante dann auch sofort kaufen.
00:33:29: Ich glaube, das wird auch vielen Leuten gefallen, wenn sie es wirklich nutzen,
00:33:32: das müssen wir natürlich erstmal kommunizieren.
00:33:34: Daran waren ja auch viele andere Händler, ich glaube, Zahllando, About You,
00:33:38: Amazon sowieso, auch schon immer sehr lange dran.
00:33:40: Aber ich glaube, wenn das gut funktioniert und wenn ihr halt irgendwie ihre Bilderdatenbank sauber füttern könnt,
00:33:45: dann ist das ein richtig cooles Feature.
00:33:47: Und das zeigt, was ich total cool finde auch,
00:33:50: dass Perplexity sich auch mit anderen betriebswirtschaftlichen Modellen auseinandersetzt
00:33:54: und nicht einfach nur sagt, okay, wir wollen halb subscription.
00:33:56: Das waren die ersten, die halt irgendwie auch das Thema Search eingeführt haben
00:33:59: und da wirklich einen signifikanten Teil dieses großen Searchkuchen,
00:34:03: das haben wir schon dreimal hier drüber gesprochen,
00:34:04: da braucht man die nochmal zu machen, sich zu erobern.
00:34:06: Aber jetzt eben auch durch so was und ich glaube am Ende,
00:34:09: keine Ahnung, es ist ein Revenue Share Modell, ein Affiliate Modell,
00:34:12: was auch immer, sie werden damit relevanter aus Kundinnen und Kundenperspektive,
00:34:16: ganz sicher auch natürlich auch aus Händler Perspektive und Kooperationspartner,
00:34:20: also Nurtchen Perspektive.
00:34:21: Und natürlich verdienen sie damit wahrscheinlich irgendwann auch wirkliches Geld.
00:34:25: Machen wir weiter.
00:34:26: Wir nutzen also ich zumindest, du wahrscheinlich weniger, weil du ja was Fremdsprachen betrifft,
00:34:32: also sprichst ja glaube ich 47 Sprachen, zumindest in Saarweihenglisch und ich glaube Spanisch ganz gut.
00:34:36: Nichtsdestotrotz gibt es eine sehr gute Lösung, nämlich aus dem schönen Rheinland, aus Köln.
00:34:41: Viele werden sie kennen, nämlich Diepel.
00:34:43: Und Diepel hat jetzt Diepel Voice eingeführt.
00:34:46: Und das ist Diepel Voice. Diepel Voice sind echt Zeit Captions, also Untertitel für Teams,
00:34:53: also für alle möglichen Videokonferenzen und Co.
00:34:56: Und wer Diepel mal genutzt hat, ich bin mir ziemlich sicher, viele haben es schon genutzt,
00:35:00: der weiß, dass die Qualität schon recht gut ist.
00:35:02: Also es ist ein recht wirklich gutes Tool, was auch Native Speaker sagen,
00:35:06: die Übersetzung passt meistens zu 99 Prozent.
00:35:09: Und ja, die Kollegen aus dem Rheinland haben jetzt eine entsprechende Lösung für den professionellen Bereich vorgestellt.
00:35:16: Die Firmen, also Unternehmen integrieren können,
00:35:19: so dass dann Team-Meeting-Meetings oder Zoom-Meetings in echt Zeit übersetzt werden.
00:35:24: Das heißt, alle können frei reden und darunter wird der entsprechende Untertitel angezeigt.
00:35:30: Microsoft hat sich gedacht, das ist doch ein alter Hut.
00:35:33: Ja, und die machen nämlich jetzt ein bisschen was anderes.
00:35:37: Ja, so Untertitel ist so 90er, sondern die machen jetzt direkt die Übersetzung.
00:35:40: Das Teams möchte nämlich in Zukunft die Stimme direkt in der entsprechenden Sprache oder Fransprache übersetzen.
00:35:46: Wie das funktioniert wird spannend sein.
00:35:49: Könnte mir natürlich wie immer vorstellen, dass das schon ganz gut funktioniert.
00:35:52: Passt da irgendwie ganz gut zu der Meldung von Diepel.
00:35:55: Zwei Lösungen, die uns den Arbeitsalltag oder auch die Konnektivität zwischen Menschen erleichtern sollen.
00:36:01: Aber da bin ich echt gespannt, wie das bei Teams wirkt.
00:36:03: Also die haben ja mittlerweile eine geile Captions bei so ziemlich allen Sprachen.
00:36:08: Wir nutzen das bei der DKB echt viel, weil wir natürlich auch viele internationale Menschen bei uns in der Cod Factory haben.
00:36:13: Bei so großen Tauma-Meetings und Allhands und so was.
00:36:16: Aber jetzt ist es ja wirklich angedacht, dass, wenn ich jetzt spreche,
00:36:19: kann sich der Zuhörer in seiner individuellen Sprache das Thema anzeigen,
00:36:25: oder nicht anzeigen, sondern wirklich vorsprechen lassen, aber in meiner Stimme.
00:36:29: Das heißt, ich spreche dann fließend nicht nur irgendwie englisch-französisch-panisch, sondern eben auch italienisch, japanisch-koreanisch.
00:36:34: Also wirklich komplexe Sprachen. Ich glaube, Mandarin soll auch von Anfang an dabei sein.
00:36:39: Habe ich gelesen, bei Cushies Blog irgendwo, glaube ich, hast du das gefunden.
00:36:43: Und das ist schon richtig cool, wenn das funktioniert.
00:36:47: Ja, ich bin auch sehr gespannt, muss ich sagen. Also das wäre eine große Hilfe, weil mein Englisch nicht so gut ist wie das.
00:36:54: Dann, nachdem du ja die, ich glaube, die Vision Pro hast du ja zu den Akten gelegt.
00:36:59: Ich glaube, das Thema ist rum.
00:37:00: Ja, kleiner Spoiler, du kannst mich ja jetzt alle, können mich nicht sehen, aber du kannst mich sehen, ja.
00:37:06: Ich habe hier auch noch schicke Brille.
00:37:09: Das ist die MetaQuest.
00:37:11: Und so wie wir bei Meta sind, Ray-Ban und Meta arbeiten ja jetzt schon seit vielen Monaten nur,
00:37:16: ich glaube, seit wenigen Jahren zusammen, wenn es um intelligente Brille geht, und die sehen auch ehrlicherweise gar nicht so schlecht aus.
00:37:23: Und Problem war bisher immer, du hast es eben schon mal gesagt, dass die KI-Funktionen, die nicht die MetaQuest,
00:37:29: sondern in dem Fall die Ray-Ban Meta-Glaces mit sich bringt, viele davon sind in Deutschland nicht nutzbar.
00:37:36: Das wird sich wohl ändern, zumindest für Europa. Du hast gerade eben Deutschland ausgeklammert, ich weiß gar nicht warum.
00:37:41: Noch ja, also die, also seit Montag können, also die hat ja verschiedene Funktionsumfänger.
00:37:46: Und ich sage mal, wenn wir beide das nächste Mal aufnehmen, wirst du mich mit dieser Brille hoffentlich sehen, wenn sie dann geliefert ist.
00:37:51: Hast du bestellt?
00:37:52: Ich habe sie bestellt, aber zwei bis drei Wochen Lieferzeit, weil ich sie mir natürlich auch in meiner echten Sehstärke bestellt habe.
00:38:00: Und eigentlich ist es ja nur eine Sonnenbrille, aber ich habe so eine Polarisierende, die sich irgendwie unterschiedlich einfärbt.
00:38:05: Das sehe ich schon ein bisschen aus wie Heino wahrscheinlich, aber schauen wir mal.
00:38:08: Aber also, sie hat wirklich coole Funktionen dafür, dass sie relativ leichtes, gute Akkulaufzeit hat, aber am Ende will ich es vor allem testen.
00:38:15: Und ich will vor allem diesen KI-Assistenten testen. Denn MetaAI steckt dahinter, das ist ja dieses Lama-LM.
00:38:22: Und du kannst es am Ende genauso nutzen, auch mit Memory Funktionen wie jetzt ein ChatGPT oder Perplexity.
00:38:28: Und musst dazu aber halt nicht dein Handy rauskamen, sondern kannst einfach mit dem Ding sprechen.
00:38:33: Du hast integrierte Lautsprecher, die das Ganze quasi ins Ohr flüstern.
00:38:37: Du kannst auch Musik hören, kannst telefonieren und co.
00:38:39: All die anderen Funktionen sind jetzt, glaube ich, für mich als Nicht-Creator auf Insta und Facebook nicht so wahnsinnig relevant.
00:38:45: Aber die Sachen will ich auf jeden Fall ausprobieren.
00:38:48: Ist allerdings seit Montag können User in Spanien, in UK, Frankreich und Italien das nutzen.
00:38:56: Deutschland noch nicht. Sie sind wohl sehr positiv, dass sie es auch bald in Deutschland bringen können.
00:39:00: Und ganz am Ende, wenn sie es in Spanien und Italien halt irgendwie bringen können,
00:39:04: die ja auch sowohl GDPA-seitig als auch eine starke Gesetzgebungskomponente im EUAI-Akt haben, dann sollte das hier auch klappen.
00:39:15: Machen wir weiter mit der nächsten Nachricht, die ich als äußerst unterhaltsam empfunden habe und in der Tat sehr, sehr innovativ.
00:39:23: Nämlich, ich fasse das mal unter dem Titel zusammen, "Omis gegen Scam".
00:39:28: Und zwar gibt es eine Lösung in UK von O2, die sie gebaut haben, die letztendlich gegen Scammer vorgehen soll.
00:39:37: Also das sind ja die Menschen, die anrufen und sagen, "Hallo, lieber Mike, im sehr schlechten Englisch meistens."
00:39:42: Wie ich gerade sehe, ist ein Paypal-Konto gesperrt, gibt mir doch mal deine Log-In-Daten, um das Paypal-Konto wieder zu entsperren.
00:39:48: Oder gibt mir am besten noch deine Log-In-Daten für Amazon und alles, was dazugehört.
00:39:52: Und das geht ja so Richtung Engl-Drick.
00:39:55: Und was sie sich überlegt haben, finde ich wirklich ehrlicherweise fast schon genial.
00:39:59: Die haben mich eine KI entwickelt, die sogenannte Scammer einfach in furchtbar lange Gespräche verfügelt.
00:40:06: Das heißt, sie haben also eine KI wie eine ältere Dame spricht.
00:40:10: Und diese ältere Dame bekommt halt nicht so viel auf die Kette.
00:40:15: Das heißt, sie klickt falsch, sie muss immer wieder nachfragen.
00:40:19: Und die Idee dahinter ist natürlich genial, weil in dem Moment, wo ein Scammer eine halbe Stunde,
00:40:24: dreiviertel Stunde, Stunde wie lang auch immer mit dieser Dame, die es ja nicht gibt, sich beschäftigt,
00:40:30: kann ja niemand anderen weh tun.
00:40:31: Und das ist eine, wie ich finde, hervorragende Idee, um gegen Scammer vorzugehen.
00:40:36: Und ich fand mich, wie gesagt, sehr, sehr witzig in UK von O2.
00:40:42: Du findest nicht so witzig?
00:40:44: Ich find's witzig, aber ich glaube, es ist überhaupt nicht effizient.
00:40:48: Also ich glaube, die wird sofort entlarvt.
00:40:51: Und ich glaube, es ist PR.
00:40:54: Ganz am Ende, ich kann mir nicht vorstellen, dass da Scammer wirklich in relevante Quantität drauf reinfallen.
00:41:02: Weil auch die können, glaube ich, BBC lesen.
00:41:04: Aber wenn wir beide telefonieren, fällst du auch immer drauf rein.
00:41:07: Glaubst du, Elfer, dass du mit mir sprichst?
00:41:09: Ich glaube, ich spreche mit dir.
00:41:10: Du bist langsamer als jedes LLL-Tentstörung.
00:41:12: Also von daher, es kannst nur du sein.
00:41:14: Aber wir werden sehen.
00:41:16: Also mal gucken, was wir darüber lesen.
00:41:17: Ich glaube, das ist auf jeden Fall witzig.
00:41:19: Also welche Fragen sich stellt, ist halt irgendwie auch super witzig.
00:41:23: Ich hab's irgendwie eben kurz wieder, und du gesprochen hast, nachgelesen, dass sie ja sagt,
00:41:27: ja, ich kann ja gar nichts mehr sehen.
00:41:28: Da ist ein Katzenbilder auf meinem Rechner und sowas.
00:41:31: Das ist wirklich amüsant.
00:41:33: Wo wir gerade bei witzig sind, vielleicht eher ein bisschen cringe.
00:41:36: Wir haben immer gesagt, das Thema AI wird natürlich als erstes,
00:41:39: insbesondere wenn es um Bildgenerierende und Videogenerierende AI geht.
00:41:43: In der Werbeindustrie einzughalten, das passiert gerade in diesem Moment.
00:41:47: Allerdings ist nicht alles, was da passiert, gut oder wird gut angenommen.
00:41:51: Coca-Cola hat ja den, wie sagt man, ikonischen Werbespot,
00:41:54: der immer vor Weihnachten gezeigt wird, aus dieser Coca-Cola-Truck,
00:41:57: der durch den Schnee fährt und, ja,
00:42:00: ein Weihnachtsmann, der da irgendwie drauf ist.
00:42:03: Also dieser sehr ikonische Werbespot, der jedes Jahr irgendwie kommt,
00:42:06: der kommt auch dieses Jahr, kann man sich bei YouTube anschauen.
00:42:09: Wir packen es natürlich in die Show-Nauts.
00:42:11: Und sie haben es in diesem Jahr durch AI generieren lassen.
00:42:15: Und was soll man sagen?
00:42:16: Es sieht wirklich furchtbar aus.
00:42:19: Also wenn man sich die Kommentare durchliest,
00:42:22: und es gibt wirklich viele Kommentare, dann muss man dem wirklich zustimmen.
00:42:26: Es könnte ein nicht lebloserer Werbespot sein.
00:42:29: Also man sieht in jeder Mikrosekunde die Künstlichkeit.
00:42:34: Also es sieht einfach wirklich furchtbar aus.
00:42:36: Auch wenn es beeindruckend ist, dass es irgendwie echt aussieht,
00:42:39: aber es fehlt halt einfach Seele.
00:42:41: Und das war für mich so ein kurzes Moment,
00:42:43: wo ich dachte, na ja, vielleicht ist die Filminustrie doch noch nicht am Arsch,
00:42:46: weil irgendwie das nicht so richtig gut ist,
00:42:50: wie so eine AI so einen Spot und solche Filme macht.
00:42:53: Also das sieht wirklich nicht gut aus oder aber sie haben schlecht gepromptet.
00:42:56: Ich weiß es nicht.
00:42:56: Also wir packen die Show-Nauts.
00:42:58: Grandio schlecht.
00:42:59: Ich lasse es gerade laufen.
00:43:00: Das ist ja so...
00:43:02: Also schlimm, oder?
00:43:03: Ja.
00:43:03: Coca Cola, der ist auch nicht irgendwer.
00:43:05: Also von, weiß ich nicht, aber Coca Cola.
00:43:08: Na ja.
00:43:09: Ouch.
00:43:10: Absolut, absolut.
00:43:11: Wir kommen langsam zum Ende unserer Nachrichten.
00:43:13: Wir packen noch ein paar Sachen in die Show-Nauts mit rein,
00:43:16: auch weil wir schon vorgestritten Zeit haben.
00:43:18: Aber ich finde eine Nachricht noch ganz witzig oder auch interessant.
00:43:20: Der Song der Beatles.
00:43:23: Wie hieß er denn jetzt nochmal?
00:43:24: Ich komme nicht mehr drauf.
00:43:25: Ich komme nicht drauf.
00:43:28: Dieser eine Song.
00:43:29: Ah.
00:43:29: Dieser eine Song.
00:43:30: Haben die mehr gemacht als einen?
00:43:32: Die haben mehr gemacht, aber sie haben von einem halben Jahr
00:43:34: oder vor langer Zeit nochmal einen Song gefunden,
00:43:36: wo John Lennon halt so ein Demotape in furchtbar schlechter Qualität
00:43:40: dieses Lied gesungen hat.
00:43:41: Und das Lied an sich ist wohl gar nicht,
00:43:43: das ist nicht schlecht, das kann man sich halt anhören.
00:43:44: Und sie haben es sehr aufwendig mit AI restauriert.
00:43:48: Und dieser AI generierte Song sozusagen,
00:43:51: also ganz generiert ist er ja nicht,
00:43:53: sondern man hat eher AI genutzt.
00:43:55: Die ganzen Tonspuren zu trennen
00:43:56: und die Stimme besser hervorzuheben.
00:43:59: Hat dann alte Stücke, die die anderen Beatles mit eingespielt haben,
00:44:03: instrumental damit eingebunden,
00:44:05: sodass daraus ein Song wurde.
00:44:06: Natürlich unter Beteiligung der noch lebenden Beatles,
00:44:08: also viel sind es ja nicht mehr.
00:44:10: Und dieser Song ist jetzt für den Grammy nominiert,
00:44:13: was ich irgendwie ganz schön finde,
00:44:15: weil er sonst immer beim Thema AI insbesondere,
00:44:19: wenn es um Kunst geht, um Musik geht,
00:44:22: man sehr, sehr skeptisch ist,
00:44:24: in dem Fall mal ein Anwendungsbeispiel dafür,
00:44:26: dass nicht alles böse ist, was da passiert.
00:44:28: Es gibt noch Tools, auch die packen wir in die Show Notes.
00:44:31: Also wir haben eben schon gesagt,
00:44:32: "Napkin AI, schönes Tool, Sascha nutzt es auch."
00:44:35: Dann Gamma haben wir auch letztes Mal schon mal angeteasert.
00:44:38: Wie ich finde, auch ein schönes Tool,
00:44:39: wenn man irgendwie schnell mal eine Präsentation erstellen muss.
00:44:42: Ich darf das gar nicht laut sagen,
00:44:44: alle glauben jetzt, ich würde damit alle meine Präsis machen.
00:44:46: Nee, mach ich nicht, aber es ist schon ein Nuderstattpunkt.
00:44:48: Dann gibt es einen Link, den finde ich ganz witzig,
00:44:52: und zwar LM Arena.ai.
00:44:54: Dort kann man LMMs gegeneinander antreten lassen,
00:44:58: um da zu gucken, wie ist die Geschwindigkeit.
00:45:00: Und was ich ganz spannend finde,
00:45:02: also man kann im Prinzip einen Prompt schreiben,
00:45:04: und man bekommt dann von, man wählt die sich aus,
00:45:06: von zwei LMMs gleichzeitig das Ergebnis dargestellt
00:45:10: und kann dann so ein bisschen gucken,
00:45:11: was sagt eigentlich Gemini zu einer Fragestellung
00:45:14: oder was sagt ein Tropic zu einer Fragestellung.
00:45:16: Das packen wir mit rein.
00:45:17: Dann habe ich einen Tool gefunden,
00:45:19: du hast ja gerade gesagt,
00:45:20: du bist nicht in diesem Social-Media-Space unterwegs,
00:45:23: das weiß ich, das würde ich dir auch nicht zutrauen,
00:45:25: bist ja eher so der Altgebliebene.
00:45:26: Aber du hast vielleicht schon mal diese Clips gesehen,
00:45:30: diese kurzen Clips, so eine Minute bei TikTok,
00:45:32: wo unten so der Text auch so eingeblendet wird,
00:45:36: wo so Kernaussagen aus einem Vortrag oder aus einem Film
00:45:41: oder was auch immer irgendwie so ganz Intelligenz rausgestätten wird.
00:45:44: Da gibt es einen Tool, das heißt opus.pro.
00:45:47: Und dort kannst du jedes beliebige YouTube-Video
00:45:50: oder Vimeo-Video angeben.
00:45:51: Und was macht dieses Tool?
00:45:53: Der guckt sich, also das guckt sich,
00:45:55: in Anfangsstrichen das Video an
00:45:57: und packt dann die relevanten Kernaussagen in diesen Clips,
00:46:00: direkt mit diesen schönen Text Snippets,
00:46:02: unten drunter als Clip, die dann eine halbe Minute,
00:46:05: eine Minute lang sind, schneidet er die raus.
00:46:07: Und das kannst du direkt nutzen, um es dann
00:46:09: in sozialen Kanälen zu scheren.
00:46:12: Also wenn du demnächst nochmal auf einem Panel sitzt,
00:46:13: da können dann man diese Aufnahme dann da rein,
00:46:17: obwohl vielleicht findet er bei dir jetzt keine relevante Aussage,
00:46:19: aber wenn es so wäre, würde er das entsprechend dann zurechtschneiden.
00:46:23: Genau, schönes Tool.
00:46:25: Mike on Fire, ladies and gentlemen.
00:46:28: Mike on Fire.
00:46:29: Letztes Tool, magicquill.art, da muss ich sagen,
00:46:32: ich hab es nicht testen können, weil es bei mir immer abstürzt,
00:46:34: also nicht, das ist nicht lokal, aber der Server war irgendwie ausgelasselt.
00:46:37: Aber die Demo, die ich dazugesehen hab, war ganz cool.
00:46:40: Da letzt du halt jedes beliebige Bild rein
00:46:42: und kannst dann auf dem Bild zum Beispiel die Augen markieren
00:46:46: und kannst dann sagen, mach da mal eine Sonnenbrille hin.
00:46:48: Also im Prinzip das, was wir von Adobe Firefly kennen,
00:46:51: halt nur in einfach, aber gleichzeitig auch in gut,
00:46:55: wenn der Server nicht ausgelasselt ist.
00:46:56: Ich hab auch ganz viele chinesische Schriftzeichen gesehen,
00:46:59: also deswegen, obacht bei privaten Bildern, die du hochlässt,
00:47:02: wahrscheinlich landen die alle dann irgendwo weit weg.
00:47:06: Aber zum Rumspielen oder zum Bilder mal für ein Geburtstag zu verändern,
00:47:10: ist das glaube ich ein schönes Tool.
00:47:11: Genau, das so in Schnelldurchlauf, wie sagst du immer,
00:47:15: im Schweinsgalopp sieh ich die Nachrichten, Diebdive und den Tools,
00:47:20: die wir mitgebracht haben.
00:47:21: Ja geil, das war auf jeden Fall ein guter Mike-Sgalopp heute,
00:47:24: ich glaub mit irgendwie 95 Prozent Monolog bist du heute davon gekommen.
00:47:28: Erst mal vielen Dank an dich, dass du in meinen diversen Hustenanfällen
00:47:32: heute gut weggeredet hast.
00:47:33: Ich glaube die meisten sind gar nicht aufgefallen,
00:47:35: ein paar müssen wir glaube ich noch raus schneiden.
00:47:37: Vielleicht musst du auch noch ein bisschen unsinniges Fiebergequatsche
00:47:40: von mir ausschreiben.
00:47:41: Ich fand es richtig gut, spannende Sachen dabei
00:47:43: und ich glaube tatsächlich jetzt mit fast 50 Minuten sind wir irgendwie auch durch.
00:47:46: Wir haben noch ein paar Sachen, die können vielleicht nächste Woche
00:47:48: nochmal mit einwursten an News, die auch ein bisschen vielleicht
00:47:52: ein längerer Diskussion mal zwischen uns beiden bedürftet.
00:47:56: Ich bin sehr gespannt und ich freue mich auf die nächste Woche.
00:48:00: Ich wünsche dir lieber Sascha alles absolut denklich,
00:48:03: gute allen Hörerinnen und Hörer da draußen.
00:48:05: Wünsch Sascha, schickt eure Wirtes Gesundheitsgeneßungswünsche.
00:48:09: Ja, bompt ihn zu mit vielen Nachrichten.
00:48:11: Nein, Spaß beiseite, alles Gute, gute Besserungen euch liebe Hörerinnen,
00:48:15: vielen Dank, dass ihr zugehört habt.
00:48:16: Wenn ihr Feedback habt, schreibt uns eine E-Mail.
00:48:19: Wenn ihr unseren Podcast mögt, dann lasst uns ein Like da.
00:48:24: Wenn ihr den Podcast nicht mögt, lasst uns auch ein Like da.
00:48:27: Wir freuen uns wie gesagt sehr über Feedback und Kritik
00:48:29: und wir freuen uns auf die nächste Woche und auf die nächste Folge.
00:48:33: Alles Gute, bis bald.
00:48:35: Ciao.
Neuer Kommentar