🎅 AI Update: News und Trends in KW 49

Shownotes

Disclaimer

Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

00:00:00: [Musik]

00:00:07: AI in Finance. Der Anplugpodcast von Sascha Deewald und Mike Klotz.

00:00:14: [Musik]

00:00:21: Willkommen zur 29. Episode von AI in Finance. Hier sprechen Mike Klotz und ich, Sascha Deewald,

00:00:27: über die Neuesten, wie wir finden, die Coolsten und manchmal auch beängstigenden Trends,

00:00:32: der künstlichen Intelligenz im Banking, im Zahlungsverkehr und generell Financial Services

00:00:37: und mittlerweile auch weiter über hinaus. Und heute gibt es nach langer, langer Abstinenz

00:00:41: mal wieder ganz, ganz viele News von uns. Das liegt vor allem dieses Mal an mir.

00:00:45: Ich war jetzt zwei Wochen lang, war eigentlich drei Wochen auf wirklich vielen Dienstreisen

00:00:49: durch die ganze Republik. Dann habt ihr noch eine Grippe nicht richtig auskurriert

00:00:53: und schleppt die immer noch mit mir rum. Man hört es auch noch so ein bisschen.

00:00:55: Wir hätten uns fast diese Woche getroffen am gleichen Ort, aber dann hat es wieder nicht funktioniert.

00:00:59: Auch das lag, glaube ich, auch mal wieder an mir. Wir geloben Besserungen im neuen Jahr.

00:01:03: Aber wo erwischt ich dich, Mike? Wie geht's dir?

00:01:06: Ja, du erwischt mich zu Hause im verregneten Siegerland. Ja, was ist schlimmer als verlieren?

00:01:10: Siegen. Das Wetter ist furchtbar. Kannst gar nicht anders, kannst gar nicht anders sagen.

00:01:15: Es regnet, es ist kalt und unangenehm. Es ist niemal winterlich.

00:01:18: Und ehrlicherweise hast du mich schon aus dem Konzept gebracht mit der neuen Anmoderation.

00:01:21: Ich bin ja so ein bisschen wie ein Monk. Ich komme mit Veränderungen nicht klar.

00:01:25: Ich weiß nicht, ob ich jetzt den Podcast mit dir durchstehe.

00:01:28: Ich freue mich in der Tat aber nochmal mit dir schnacken zu dürfen,

00:01:31: weil es gab Abszedenz, um vielleicht die Lanze zu brechen.

00:01:34: Es war nur eine Woche ausgesetzt, aber es fühlt sich natürlich viel länger an,

00:01:38: wenn wir nicht miteinander reden. Und in der Tat ist es natürlich in den zwei Wochen einiges passiert.

00:01:43: Und wir haben wie immer ein paar lustige und nicht so lustige News mitgebracht.

00:01:49: Ich habe irgendwie ein paar Tools gefunden, die ich total cool finde.

00:01:52: Da freu ich mich schon drauf. Und ich schlag vor, wir starten einfach mal.

00:01:56: Und wir starten natürlich mit unserem Lieblingsunternehmen.

00:02:01: Zumindest dem Unternehmen, wie ich es glaube, wenn man das zählen würde, relativ oft vorkommt, OpenAI.

00:02:07: Und die haben mal wieder was Neues rausgehauen.

00:02:10: Seit gestern, also seit dem Tag vor Nikolaus, ist es so, dass wir ein neues Modell haben.

00:02:17: Es gab es bisher immer nur als Preview, das O1-Modell.

00:02:20: Das ist jetzt offiziell für die zahlenden Kunden verfügbar, also offiziell im Sinne von nicht mehr Preview.

00:02:27: Und damit einhergehend gab es auch ein neues Update, der App als auch der Desktop-App.

00:02:33: Und was neu ist, dass Modell O1 denkt, denkt, ist auch lustig in dem Zusammenhang.

00:02:39: Es macht so ein paar zusätzliche Ehrenrunden und Schleifen, was die Ergebnisse natürlich besser machen soll.

00:02:45: Was das Schöne jetzt daran ist, dass nicht mehr Preview ist, kann man jetzt auch Dateien hochladen.

00:02:50: Es war noch keine PDF-Dateien, aber im Moment schon Bilder.

00:02:53: Das heißt, das Modell insgesamt kann schon ein bisschen mehr Web-Brosing, geht leider noch nicht, soll aber bald kommen.

00:02:59: Und was man im Zuge dessen auch eingeführt hat, ist nämlich ein neues Robo-Abo für Entspannte, ich glaube 200 Dollar.

00:03:06: Das richtet sich aber in der Tat nur an große Unternehmen und ja, Enterprise Nutzer, Entwickler,

00:03:12: die mal zusätzlich Zugriff auf die neueren oder die ganz ganz neuen Modelle bekommen sollen.

00:03:16: Das alte Abo-Modell bleibt erstmal unangetastet.

00:03:20: Ich habe mir heute tatsächlich überlegt, die könnten, glaube ich, preismäßig auch an der Schraube drehen.

00:03:26: Ich würde es so weit wahrscheinlich bis zum bestimmten Punkt weiter nutzen.

00:03:29: Echt?

00:03:30: Ja, doch.

00:03:31: Was haben wir jetzt? 22 Euro oder?

00:03:33: Oder Dollar oder sowas?

00:03:34: Ja, Dollar, genau, 22 Euro.

00:03:35: Also ich glaube bis 30 würde ich hochgehen.

00:03:37: Hast du gehört zu deinem Ordnungen?

00:03:39: Kannst du erhöhen?

00:03:40: Ja, das hat tiefe Taschen.

00:03:42: Aber ich finde schon jetzt Jatsgy Petty Pro, dieses neue Abo-Modelle, von dem du sprichst, für 200 US Dollar pro Monat, ist schon krass.

00:03:48: Für mich ist das nicht krass, ja, für mich ist das krass, ja.

00:03:51: Ja, genau.

00:03:53: Ich habe 10.

00:03:55: Wie du hast zu sehen?

00:03:56: 10 normale Basismodelle.

00:03:59: Ne, wenn du dich auch die anderen anschaust, irgendwie mit Klood, kommst du ja in der kostenlosen Version auch echt weit,

00:04:06: kannst alle Modelle bedienen, also zumindest die normalen, die ganz großen nicht.

00:04:09: Aber auch Perplexity kannst du irgendwie für 20 Dollar oder du machst es über deine magenta Telekom kostenlose Variante, wie wir beide, das ist ja glaube ich, machen.

00:04:17: Aber auch wenn du jetzt sagst, du nimmst deutlich mehr, ich glaube, das ist nicht der Sweet Spot dann.

00:04:22: Aber mal sehen, also ich bin sehr gespannt auf die Zahlen, wie viel sie von diesen Jatsgy Petty Pro dann auch im nächsten Jahr verkaufen werden.

00:04:28: Das stimmt.

00:04:30: Auf der anderen Seite die Entwicklung geht natürlich auch, also ich finde es immer wieder bemerkenswert.

00:04:34: Also O1 ist tatsächlich wieder besser als GVT 4.0 und auch wieder ein Tick schneller jetzt.

00:04:40: Also ich bin in der Tat gespannt, wo die Reise hingeht.

00:04:43: Aktuell bin ich noch fein mit dem Betrag.

00:04:45: Ich möchte nichts zum Ausruhr bringen, dass ich alles bezahlen würde, aber ich würde glaube ich noch ein bisschen mehr bezahlen, weil ich es doch sehr häufig nutze.

00:04:53: In der Kombination in der Tat aber auch mit Perplexity.

00:04:55: Genau, du hast einen wichtigen Hinweis gebracht.

00:04:57: Aktuell magenta App runterladen, gibt es Perplexity für 12 Monate, umsonst.

00:05:02: Bleiben wir beim Thema Jatsgy Petty vielleicht erreicht 300 Millionen wöchentlich aktive Nutzer.

00:05:08: Das ist jetzt auch nicht so wenig.

00:05:10: Und wenn man sich die Zahlen so ein bisschen anschaut, wie lange, das hat man ja schon mal in der Vergangenheit, wie lange hat eigentlich Facebook gebraucht, wie lange die erste Million, wie lange hat Insta gebraucht, wie lange hat TikTok gebraucht.

00:05:19: Da ist OpenAI schon ganz, ganz weit vorne mit dabei.

00:05:22: Und ich muss immer wieder in Erinnerung führen.

00:05:25: Ich glaube, wir sind im zweiten Jahr immer noch.

00:05:28: Das dritte Jahr fängt glaube ich jetzt gerade erst an.

00:05:30: Das ist total crazy, wie krass sich OpenAI und das ganze Thema in unseren Alltag reingesniegt hat.

00:05:37: 300 Millionen wöchentlich aktive Nutzer ist jetzt nicht so, so wenig.

00:05:44: Und das bei OpenAI und Jatsgy Petty als Produkt, die Reise weitergeht, sieht man da dran, dass es natürlich viele Dinge geplant sind.

00:05:53: Geplant ist jetzt nämlich auch ein eigener Browser.

00:05:55: Das gehört ja zum guten Ton inzwischen dazu.

00:05:58: Nicht mehr nur eine App, sondern jetzt soll es auch einen eigenen Webbrowser geben.

00:06:02: Und das ist so viel interessant, weil wir ja auch schon in der Vergangenheit immer wieder gesagt haben, dass sich das Suchverhalten so ein bisschen ändert.

00:06:07: Also wenn ich auf mich selber schaue, ich google nicht mehr so viel.

00:06:12: Also das wäre jetzt gelogen.

00:06:14: Ich weiß nicht, wie du bei dir es ist, dass man gar nicht mehr googlet.

00:06:17: Das ist ja schon noch irgendwie ein sehr elaboriertes Verhalten.

00:06:20: Aber ich google deutlich weniger.

00:06:22: Wie sagt man denn dazu?

00:06:24: Ich perplexe mehr.

00:06:25: Das hört sich komisch an.

00:06:26: Also ich nutze Perplexity als Datenmank.

00:06:29: Und wenn das jetzt irgendwie im Browser drin ist, dann ist das schon irgendwie ganz schön krass.

00:06:35: Und wenn jetzt irgendwie noch ein eigener Browser von OpenAI kommt, der vielleicht auch noch irgendwie gut in der Hand liegt, könnte das auch für Google irgendwie doof sein?

00:06:44: Ja, ich bin auch gespannt.

00:06:45: Also bei mir ist es halt auch so.

00:06:47: Ich habe meinen Suchverhalten geht größtenteils über Perplexity und GPT.

00:06:52: Aber also echtes Suchverhalten, wirklich Perplexity.

00:06:55: Ich finde Google dauert mir gefühlt zu lange, was eigentlich total absurd ist, weil es ja irgendwie schnell geht.

00:07:00: Aber du, die...

00:07:01: Also ich muss halt nicht mehr so durch unterschiedliche Links scrollen.

00:07:04: Ich muss nicht mehr gucken, was es jetzt sponsert und vermeintlich sponsert.

00:07:07: Und was ist dann halt irgendwie wirklich gekrollter, sauberer Content?

00:07:11: Sondern bei Perplexity ist es halt irgendwie der erste Hit.

00:07:14: Also der einzige Hit, aber ich sehe halt sofort die Primärquellen und kann halt dann sofort das Suchverhalten sehr scharf dann quasi vertikal eingrenzen.

00:07:22: Und das macht es für mich halt einfach aus.

00:07:25: Aber also ich glaube, die Mischung aus dem, was du gerade gesagt hast und dass sie jetzt auch wirklich die Einführung von Werbung planen, macht es halt, glaube ich, spannend.

00:07:33: Weil auch nach Perplexity darüber haben wir ein paar Mal schon gesprochen, prüft also OpenAI jetzt die Einführung von direkter Werbung in seinen ganz vielen AI-Systemen,

00:07:41: um einfach natürlich zusätzliche Einnahmequellen zu erschließen.

00:07:44: Und OpenAI hat dazu wohl auch schon echt viele Talente von Meter und von Google zu sich geholt.

00:07:49: Man muss ja sagen, aktuell sind, oder ich glaube, der einzige Teil der Einnahmen ist halt irgendwie das klassische AP-Zugang und LGBT-Lizenz-Thema.

00:07:58: Es gibt schon ein paar neue Zahlen, die sagen, dass pro Woche zurzeit über 250 Millionen Nutzerinnen OpenAI dann auch wirklich aktiv nutzen.

00:08:08: Und das ist ja vorher gesagt, es sind diese 300 Millionen, aber ich glaube so diese Daily Actives, das sind dann mittlerweile halt irgendwie deutlich über 200 Millionen.

00:08:14: Und damit haben sie ja jetzt zuletzt schlappe 4 Milliarden Dollar generiert.

00:08:19: Wohl auch 50/50 privat und die andere Hälfte ist dann Unternehmensprofile.

00:08:23: Und für 2025 rechnet OpenAI laut einem Artikel in der Financial Times immer noch mit Ausgaben um die 5 Milliarden,

00:08:30: vor allem natürlich für weiteres Training und Influenz von KI-Modellen.

00:08:34: Das heißt, sie brauchen einfach eine neue Umsatzquelle, um diesen Immensenverlustern auch zu mildern oder zu mindern, vielmehr.

00:08:39: Und wie wir ja neulich schon auch hier kurze Leute haben, ist einfach dieser internationale Werbemarkt weiterhin maximal von Google dominiert.

00:08:46: Alleine 23 machte Google, ich glaube, fast eine Viertelmillarde Umsatz, ich glaube 240, eine Viertelbillion, muss man sagen, eine Viertelbillion Umsatz, nur mit Werbean zeigen.

00:08:57: Und das hat ja jetzt irgendwie Perplexity auch schön eingesetzt, finde ich, die machen das irgendwie auch nicht so invasiv.

00:09:03: Ich finde, das sieht irgendwie auch ganz gut aus. Du kannst das aber auch ignorieren, wenn du möchtest.

00:09:06: Und ich glaube, OpenAI ist so mitten im Wandel von dieser berühmten Non-Profit-Organisation zu einer ganz klaren For-Profit-Organisation.

00:09:14: Und du hast es ja auch als irgendwo anders noch als News streitet sich deswegen auch köstlich öffentlich mit ehemaligen Gründern.

00:09:21: Iljasuzkaver vor allem natürlich auch Elon Musk, der glaube ich letzte Woche Freitag irgendwie auch so eine kleine Unterlassungsklage eingereicht hat,

00:09:28: um OpenAI in der Umwendung von der For-Profit-Firma zu hindern.

00:09:32: Aber ich glaube, dieses Werbe-Ding ist total spannend und das in der Kombination mit einem eigenen Browser sowieso.

00:09:38: Total und was ich halt völlig faszinieren finde und das finde ich auch, wenn man historisch so ein bisschen schaut,

00:09:43: wir haben immer gesagt, es gibt so ein paar Unternehmen, die sind unangreifbar.

00:09:46: Das hatten wir in den 80er Jahren, nach dem Motto IBM kann niemals aufgeholt oder eingeholt werden.

00:09:52: Also diese typischen großen Player, wo man sagt, die bleiben für immer, Nokia.

00:09:57: Also wer hat da manchmal den Mobilfunkmarkt dominiert? Heute Nokia, heute so, weiß gar nicht mehr, was das ist.

00:10:02: Und das Interessante daran ist, ich will jetzt nicht Google-Tot schreiben, das wäre totaler Quatsch und auch wirklich unprofessionell.

00:10:09: Aber was ich sehe ist, auch im Verhalten, ich bin sicherlich nicht der Maßstab, wir haben es eben gerade gesagt, ich Google immer noch,

00:10:16: aber das ist für mich so ein bisschen im Vergleich, wie ich auch schon mal im stationellen Handel flanieren gehe.

00:10:22: Also ich gehe schon mal noch in eine Einkaufsstraße und gucke links und rechts.

00:10:25: Du kaufst nichts, oder?

00:10:27: Nein, kauf nichts. Das dachte ich mir.

00:10:29: Ja, in meiner Größe gibt es das immer nicht.

00:10:32: Und so ähnlich ist das bei Perplexity auch. Also wenn ich gezielt schnell was brauche, so diese klassische Amazon-Bestellung,

00:10:39: dann klick ich drauf und dann bestelle ich das und wenn ich die gezielte Information brauche, dann nutze ich Perplexity.

00:10:44: Und jetzt kommt noch ein weiterer Schwenk in Richtung E-Commerce, das ist eben angeteasert.

00:10:49: Wir haben nicht nur Werbung in Perplexity, sondern seit gestern, ich habe es zumindest in der deutschen Version gesehen,

00:10:54: ist auch jetzt das Thema Shopping integriert.

00:10:57: Ich konnte es selber noch nicht testen, also insofern, ich habe es versucht, aber jetzt zeigt mir halt einfach keine Shopping-Links an,

00:11:02: aber ich habe zumindestens schon diesen Screen bekommen, dass man jetzt auch mit Perplexity shoppen kann.

00:11:06: Und die Idee dahinter ist ja so einfach wie genial, ich sage halt einfach, was ich brauche,

00:11:11: und es werden direkt die Deep Links angezeigt.

00:11:13: Das ändert natürlich auch krasses Shopping-Verhalten, weil ich nicht mehr bei Amazon irgendwas suche.

00:11:18: Und auch da den kleinen Hinweis, also Rufus ist ja seit zwei Wochen integriert, also das ist ja der AI-Agent in Amazon.

00:11:26: Ich weiß nicht, ob du den mal getestet hast, der funktioniert irgendwie so gut.

00:11:30: Nee, gar nicht.

00:11:31: Das ist halt, genau.

00:11:32: Da kann es eine Order-Historie halt durchsuchen, das ist so cool, aber also der Rest ist, also es soll total erschrocken sein.

00:11:39: Genau, vielleicht noch kurz irgendwie, wir sind ja in dieser Open AI Corner,

00:11:42: was ich gestern Abend noch gelesen habe, als ich nach Hause geflogen bin, ist, dass jetzt Sam Altman auf Twitter ein riesengroßes Bohai macht,

00:11:50: dass sie jetzt irgendwie 12 Days of Open AI machen.

00:11:53: Das heißt, sie haben jetzt irgendwie vor, dass sie, also ich glaube in die Kampagne,

00:11:57: dass sie jetzt jeden Tag ab heute starten mit einem neuen Feature oder neuen Produkt

00:12:02: und da sollen wohl auch coole Sachen dabei sein, zum Beispiel hier steht "center inspired voice" im Advanced Voice Mode,

00:12:08: also eher was kleines Süßes, aber sie wollen jetzt auch endlich Sora wohl live nehmen.

00:12:13: Und wir erinnern uns, wir haben Glanz am Anfang von unserer Podcast-Historie, als wir noch einstellig waren,

00:12:18: ich glaube im Februar war das, so die ersten Sora-Themen hier auch erklärt.

00:12:23: Das ist dieser Bit-Generator von Open AI, der ja wahnsinnig viel Videogenerator, Dankeschön,

00:12:28: wahnsinnig viel krasse Zeug gemacht hat und dann war der ja auf einmal wieder weg, so, und dann war es das.

00:12:33: Und was ich gelesen habe, ist diese Woche, dass ein Künstler-Kollektiv sich selbst Zugang zu Open AI

00:12:38: als Sora auf Hugging Face gemacht hat und tatsächlich auch veröffentlicht hat, den Code und auch die Videos,

00:12:44: um einfach so gegen diese mangelnde Künstlerunterstützung und Public Relations zu protestieren

00:12:49: und dann auch so ein bisschen zu mobilisieren.

00:12:52: Und dieses Kollektiv kritisiert Open AI für einfach für die unzureichende Entlohnung der Künstler

00:12:57: und die auch zu enge Kontrolle über das Werkzeug.

00:12:59: Aber es soll wohl in der frühen und jetzt optimierten Version Videos bis zu 1000 Pixel in 10 Sekunden Länge generieren können.

00:13:06: Aber nach 3 Stunden bei der Zugang dann wieder weg, aber es zeigt so ein bisschen,

00:13:10: dass Open AI da gerade halt irgendwie auf Produktive Umgebungen rum spielt

00:13:13: und offenbar irgendwo in ein Hugging Face-Leak hatte.

00:13:16: Das heißt, ich gehe ganz fest davon aus, dass wir in den nächsten Tagen dieses Ding als Geschenk kriegen,

00:13:20: um dann wirklich damit arbeiten zu können.

00:13:22: Davon gehe ich auch aus, das liest man auch in ganz vielen Beiträgen bei Reddit und Co, wo man immer nicht weiß,

00:13:28: ist das jetzt wirklich irgendjemand von Open AI, der da gerade spricht.

00:13:31: Aber ich finde einen Punkt noch ganz interessant, den du gesagt hast,

00:13:33: weil der ist wirklich fast schon ein bisschen pervers.

00:13:36: Also es ist ja so, dass Open AI verschiedenen Künstlern tatsächlich auch diesen Zugang gegeben hat.

00:13:41: Also sie wollten ja, dass Künstler schon anfangen, also Digital Artists Videos zu erstellen.

00:13:46: Und das Krasse daran ist, dass sie eigentlich diese ganzen Künstler in Anführungsstrichen missbraucht haben,

00:13:51: um sie dann später selbst obsolet zu machen.

00:13:53: Also das ist total absurd.

00:13:55: Ich gebe also in einer bestimmten Gruppe, man könnte auch so sagen,

00:13:57: wenn wir das übertragen, auf die Musikindustrie.

00:13:59: Ich gebe jetzt allen möglichen Musikerinnen und Musikern da draußen,

00:14:02: halt eine entsprechende Plattform, hier macht man Musik damit.

00:14:05: Die machen das.

00:14:06: Open AI lernt dadurch, seine eigene Plattform zu verbessern,

00:14:09: um später genau diese Künstlerinnen und Künstler ja obsolet zu machen.

00:14:13: Das ist ja irgendwie das Krasse da dran.

00:14:15: Und natürlich wissen wir, dass es so einfach nicht ist, das ist nicht schwarz-weiß,

00:14:19: aber ich fand es bemerkenswert, es gibt ja auch einen offenen Brief von diesem Künstler-Kollektiv dazu.

00:14:25: Und zeigt auch so ein bisschen die Problematik, in der wir uns ja immer mehr befinden.

00:14:29: Also wo kommen die Daten her?

00:14:31: Urheberrecht spielt eine ganz, ganz große Rolle.

00:14:34: Und wie schaffen wir es, auf der einen Seite Technologie zu nutzen,

00:14:38: aber auf der anderen Seite halt auch Content zu schützen.

00:14:40: Super spannend.

00:14:41: Ja, auch wenn du es in anderen Plattformen denkst, Spotify und Co.

00:14:44: Weltgrößte Musikplattformen, die ja auch nachweislich jedes Jahr weniger ihre Künstler bezahlen,

00:14:50: die haben ja ein neues Pricing Anfang dieses Jahres eingeführt, wo sie glaube ich über 80% aller Künstler auf der Plattform kriegen,

00:14:56: ist gar nichts mehr, also im Sinne von Null.

00:14:58: Und ein paar kriegen ganz viel, Joe Rogan hat glaube ich wieder seinen 250 Millionen Dollar-Deal am Anfang des Jahres gezeint.

00:15:04: Und auch Daniel Eck und Co.

00:15:06: Also die Gründer und Geschäftsführer von Spotify haben sich irrsinnige Millionen und teilweise Milliarden Summen über Aktien,

00:15:12: also Schärverkäufer halt auszutalen lassen.

00:15:15: Aber die Künstler gehen einfach mehr und mehr leer aus.

00:15:17: Und wenn du jetzt noch sagst, trotzdem gibt es eine wahnsinnig breite Palette an neuer Musik und neuem Content in jeglicher Form dort,

00:15:24: auch in der Podcast, Bücher etc., das Ganze aber wahrscheinlich irgendwo in einem geheimen Keller für Trainingswecke halt irgendwie auch genutzt wird,

00:15:31: um daraus irgendwann wirklich kontextuell für mich relevant Musik oder grundsätzlich irgendwie Sprach oder Musik-Video-Content erstellen lassen kann,

00:15:39: dann ist das halt irgendwie auch super gefährlich für die Zukunft der Kreativität.

00:15:43: Wo du gerade sagst, super gefährlich, ich habe gestern in YouTube-Video gesehen und ich komme gerade nicht mehr auf den Namen.

00:15:48: Es ist ein Autor, der hat schon viele Bücher, so Zukunftsbücher geschrieben, wie gesagt, ich müsste jetzt nachschauen.

00:15:54: Es ist aber nicht relevant, aber ich würde tatsächlich für diese Video super spannende Stiche das nachher mal.

00:15:59: Vielleicht können wir in der nächsten Folge mal über diese Gefahren, also wirklich noch mal so einen richtigen Doomsday-Podcast machen,

00:16:06: weil er spricht in 1,5 Stunden tatsächlich mehr oder weniger das Ende der Zivilisation, wie wir sie heute kennen

00:16:13: und bringt da auch wirklich, ich finde, richtig gute Beispiele.

00:16:17: Und weil du gerade sagst so die Gefahren und das Thema Urheberrecht, wo wir jetzt wobei gesprochen haben, also es gibt immer 2 Seiten in der Medaille.

00:16:24: Und vielleicht hast du Bock zum Jahreswechsel, ja, so zu sagen, ja, die Regienwerte sowieso bekannt, da war es immer mit der Neue unter,

00:16:30: einfach mal so eine Doomsday-Folge zu machen.

00:16:32: Schön, wenn andere irgendwie mit Lebkuchen und Glühwein zu Hause sitzen und sich freuen, dass alles Gutes.

00:16:37: Wir beide sitzen irgendwie mit hängenden Mundwinkeln da und reden über Doomsday.

00:16:41: Geil, machen wir.

00:16:42: Im Maya-Kalender, genau.

00:16:43: Es gibt noch einen Thema, das ist nicht so ganz Doomsday, aber es geht ein bisschen in die Richtung.

00:16:48: Du hast es eben ja angeteasert. Es gibt ein E-Mail-League, könnte man fast sagen, wobei League weiß ich gar nicht,

00:16:54: aber es wurden E-Mails veröffentlicht aus dem Jahr 2017.

00:16:57: Die Chatchi-Mity hat es mir jetzt zusammengefasst. Differenzen zwischen Elon Musk und insbesondere Ilja Sozkäwa aufzeigen.

00:17:05: Und mit Differenzen ist es eine lustige Formulierung, weil die hatten richtig mit beiden.

00:17:09: Es ging nämlich darum, dass Elon Musk ja mehr Kontrolle haben wollte damals, und zwar insbesondere über ein Thema AGI,

00:17:16: für unsere Zuhörerinnen und Zuhörer da draußen.

00:17:18: AGI ist dieses Ding, was als Nächstes kommen soll, also die allgemeine künstliche Intelligenz.

00:17:23: Also das Ding ist dann nicht mehr nur einfach so ein bisschen Text generieren, sondern soll in Anführungsstrichen so was wie denken können.

00:17:31: Das ist ein bisschen unheimlich. Sollten wir vielleicht auch nochmal aufklären, das ganze Thema.

00:17:35: Naja, nichtsdestotrotz ging es genau um diesen Disput, dass Elon Musk deutlich mehr Macht haben wollte,

00:17:42: auch wenn er sich öffentlich immer ein bisschen anders geäußert hat.

00:17:44: Und das ist jetzt nochmal entsprechend veröffentlicht worden, geliegt worden und passt ja auch zu der Aussage, die du eben gerade getroffen hast.

00:17:52: Also das jetzt mit Unterlassungserklärung. Da ist jetzt richtig Alarm in der Kiste.

00:17:58: Absolut. Ich habe mal ein bisschen was von Claude mitgebracht.

00:18:03: Da fange ich jetzt mehr und mehr an, mit rumzuspielen, ehrlicherweise.

00:18:07: Die haben jetzt seit letzter Woche auch wirklich neuer heiße Funktionen zum Jahresende nochmal rausgeschmissen.

00:18:13: Die haben zum Beispiel ein neues Feature, das heißt Custom Styles.

00:18:16: Und da kann ich sehr einfach meine eigenen Schreibstile erstellen, indem ich einfach ein Beispiel Text von mir oder unterschiedliche Beispiel-Texte aus Sachen,

00:18:25: die ich halt in der Vergangenheit geschrieben habe, egal ob es jetzt eine E-Mail ist, Blockbeiträge, LinkedIn-Posts etc.

00:18:30: Hochladen und auf dessen Grundlage dann wirklich gute Vorschläge generiert werden.

00:18:35: Und besonders schön finde ich auch, dass diese praktische Funktionen dann auch gleich wirklich allen Nutzern und Nutzern zur Verfügung steht,

00:18:42: aber auch den kostenlosen Accounts pro habe ich nicht. Und nicht erst irgendwie über Pro und dann verschiedene Länder-Einstellungen gegangen wird,

00:18:48: sondern Anthropics sagt hier gleich einmal alles für alle, und zwar kostenlos, ist echt cool.

00:18:53: Und ein zweites Mal ist es, ich nehme die kostenlose Version.

00:18:57: Ich glaube auch, die Pro-Version kostet auch 20 Dollar oder so was, oder Euro an der Stelle.

00:19:05: Aber die kostenlose reicht völlig aus und die ist auch echt gut händelbar.

00:19:09: Und hier haben wir jetzt auch ein neues anderes System in der Partnerschaft mit UM AI,

00:19:13: du erinnerst dich, eine unserer ersten Folgen, wo wir darüber gesprochen haben.

00:19:16: Und was die machen, ist so eine empathische Sprachschnittsstelle,

00:19:20: die es Kundinnen und Kunden ermöglichen soll, den Computer komplett mit der Stimme zu steuern,

00:19:25: indem es auch natürlich erstmal von dir lernt, wieso deine Klickwege sind und Co.

00:19:30: Und dann aber quasi deine Emotionen in deiner Stimme erkennt, darauf dann reagiert

00:19:35: und damit dann relativ einfach über verschiedene auch quasi verbale Shortcuts deinen Rechner komplett steuern zu lassen.

00:19:42: Gibt es noch nicht, gibt es nur so ein Preview davon, ein Video,

00:19:46: und da weißt du immer nicht so richtig ist das jetzt gerade gestaged oder gefaked,

00:19:49: aber da bin ich auch sehr gespannt, wie das funktioniert.

00:19:51: Und ich habe mich zum Newsletter angemeldet und sobald das da ist, wird mir das hier natürlich auch ernanzen.

00:19:56: Aber nicht nur du scheinst der Fan von Anthropic und Cloud zu sein,

00:20:00: sondern du hast ja noch eine Nachricht mitgebracht, da geht es auch wieder um 4 Milliarden Dollar,

00:20:04: und ich glaube, Amazon scheint da ja fleißig zu investieren in Anthropic.

00:20:08: Ja, total. Also die haben nochmal richtig aufgetischt, die hatten ja schon glaube ich 4 Milliarden reingesteckt

00:20:15: und sind jetzt mittlerweile dann bei 8 Milliarden, das ist immer noch eine Minderheitsbeteiligung,

00:20:22: wenn man so will, da sind ja ganz viele andere auch noch investiert,

00:20:25: aber tatsächlich ist es mittlerweile halt ein ziemliches Brett,

00:20:28: und das ist halt irgendwie ein, so ein LLM insgesamt 8 Milliarden halt irgendwie zu investieren,

00:20:33: auf der eigenen Kapitalebene schon sehr spannend.

00:20:36: Das Thema Cloud, weil das hatten wir auch glaube ich vor zwei, drei Ausgaben mal,

00:20:41: nämlich das Thema Maus und Tastatur möchte man ersetzen, das ist im Prinzip ja das Tool,

00:20:45: wo du wirklich Cloud sagen kannst, Steuere, mein Computer, mein PC,

00:20:50: das finde ich insofern auch ganz spannend, vor allem jetzt nochmal irgendwann veröffentlicht würde.

00:20:54: Ich glaube es ist noch nicht da, da geht es ja wirklich dann im Grunde darum,

00:20:58: dass du deinem MacBook, deinem Notebook sagen kannst, mit Hilfe von mir.

00:21:03: von Claude. Ich muss jetzt eine PDF-Datei von meinem Kontoauszug erzeugen und meinen Bankberater

00:21:08: schicken und Claude macht dann im Prinzip all diese Schritte. Und das nicht, das du vorher

00:21:14: irgendwie ganz viele Tools angedockt haben musst, sondern Claude weiß halt einfach wieder

00:21:18: ein Desktop aussehen, geht auf die Website, lädt sich den Kontoauszug runter, macht eine

00:21:22: PDF, schreibt eine E-Mail und das alles vollkommen automatisiert. Und das erinnert mich dann

00:21:27: tatsächlich schon, ich bin ja so ein alter Trekkies, so ein Star Trek Fan. Das geht dann

00:21:31: mit mich in die Richtung, wo man sagt, okay kommt unter, machen wir das mal. Also das,

00:21:35: was uns Alexa immer viele Jahre versprochen hat und nie gehalten hat, scheint jetzt zumindest

00:21:39: irgendwann von Claude zu kommen. Es ist eines der Tools, wo ich mich momentan am meisten

00:21:43: darauf freue und ich hoffe, dass es da bald noch für Öffentlichung geben wird.

00:21:46: Beam me up, Mikey.

00:21:49: Beam me up, Scotty. Ich habe noch was mitgebracht, nicht Entropic, nicht Claude, sondern wir haben

00:21:55: eben gesprochen über Google und auch Google ist natürlich ha ha ha fleißig am entwickeln

00:22:00: und sie haben jetzt was herausgebracht oder viel mehr Art Preview oder wie sagt man

00:22:05: White Paper. Und es geht um das Thema, was uns alle beschäftigt, nämlich das Wetter.

00:22:10: Und ich habe mich sowieso gewundert, warum man da so wenig sieht tatsächlich, weil ich

00:22:14: mir dachte, das ist doch wohl das Aller-Nah-Lingste. Viele Daten sind vorhanden, viele Daten werden

00:22:19: permanent erhoben und irgendwie kommt zumindest in meiner Wahrnehmung so wenig bei uns Menschen

00:22:27: da draußen an. Das sollen sie aber jetzt ändern. Es gibt nämlich ein Entwicklung namens Gencast.

00:22:34: Das ist ein Modell basierend auf Google's Deep Mind. Und was macht Gencast? Wettervorhersage.

00:22:41: Und das in einer unglaublich guten Qualität. Und zwar ist es so, dass in Test die Vorhersagen

00:22:47: von Gencast in 97 Prozent der Fälle die vorhersagen, insbesondere mittelfristige Vorhersagen des

00:22:55: Europäischen Zentrums für Wettervorhersagen übertroffen hat. Und vor allen Dingen, wenn

00:23:01: es darum ging, Vorhersagen zu treffen, die weiter als drei Tage, also diese 24, 36 Stunden.

00:23:06: Und da ist es tatsächlich so, dass Gencast in der Lage war, Vorhersagen bis zu 15 Tage.

00:23:12: Das muss man sich auch vorstellen. Also du weißt, wie das Wetter in zwei Wochen sein

00:23:16: wird, was total verrückt ist. Und das hat, wie ich finde, auch wieder grasse Auswirkungen.

00:23:21: Wenn wir jetzt mal uns den e-Commerce anschauen und zwar e-Commerce im Hinblick auf Reiseplattformen.

00:23:28: Also wenn du in der Lage wärst, deinen Buchern zu sagen, was man auf das Wetter in zwei Wochen

00:23:33: ist so, du kannst jetzt eine Reise ex-Ups-Syndone buchen. Also es hat ja nicht nur Impact nach

00:23:37: dem Motto, okay, wie ist das Wetter in zwei Wochen, sondern das kann man ja auch wieder

00:23:40: verknüpfen mit ganz vielen anderen Tools. Also das ist maximal beeindruckend.

00:23:45: Total. Also Wetter ist ja echt so ein Thema. Super schwer vorher, sagt Bar. Vor allem halt

00:23:50: irgendwie über längere Zeiträume und diese traditionelle Vorhersagen.

00:23:54: Meine Oma hatte einen 100-jährigen Kalender und die hat darauf geschwört. Also der 100-jährige

00:24:00: Wetterkalender. Die konnte auch sagen, wie es Wetter wird.

00:24:02: Ja, langfristig, also so richtig richtig langfristig und zyklisch, saisonal wahrscheinlich, aber

00:24:08: tatsächlich so diese traditionellen Vorhersagen, wo ich jetzt mal den Kalender deiner Oma mit

00:24:12: einrechne, ist halt immer irgendwie schwierig, weil auch da Bandbreiten an so ganz vielen

00:24:17: möglichen Szenarien versucht werden, eins zu beziehen, aber so wirklich präzise Vorhersagen

00:24:22: gar nicht so richtig gehen. Und dieses Gencast, was du gefunden hast, das nutzt halt irgendwie

00:24:27: 40 Jahre historische Wetterdaten und hat daraus wirklich so diese ganzen Muster für echtes,

00:24:33: lokales regionales Wetter gelernt und das Ganze halt wirklich auch mit Klimaentwicklung

00:24:38: reingenommen. Und was, also das Thema Leistungsfähigkeit finde ich halt total krass, was in diesem

00:24:41: Artikel steht, denn Gencast übertrifft diese ganzen traditionellen Modelle in über 97%

00:24:49: der getesteten Szenarien. Und vor allem bei so ganz wichtigen Sachen, wo es halt also

00:24:53: nicht, wenn es bei dir jetzt mal regnet, scheißegal, aber so das Thema Extremwetter,

00:24:58: Hitzewellen, Stürme, Kälteeinbrüche, Überflutung, so das ist total spannend und gerade wenn es

00:25:03: halt jetzt irgendwo in Süddeutschland wieder ganz doll regnet, dann kann dieses System innerhalb

00:25:07: von nur 8 Minuten eine 15 Tage Vorhersage so erstellen, dass du halt irgendwie sagst,

00:25:13: dafür bräuchten traditionelle Modelle Stunden oder wahrscheinlich Tage auf Supercomputern.

00:25:18: Aber wenn du willst, wie es die Großwetterlage sein wird und wo tatsächlich die Wahrscheinlichkeit

00:25:24: von über die ufergetretenen Flüsse mit Überschwemmungspotential etc. halt wirklich sein werden,

00:25:29: dann kannst du halt in sehr, sehr kurzer Zeit ohne eine große TPU zu haben, in der Cloud

00:25:34: einfach das berechnen lassen. Und das können halt auch kleine Kommunen machen, die halt

00:25:38: ganz genau wissen wollen oder halt natürlich irgendwie auch Regierungen und Co. Also es

00:25:42: ist richtig spannend, um präzise Vorhersagen zu treffen und dann schäden durch Extremwetter

00:25:47: so ein bisschen, zumindest verhindern kannst du es nicht, aber zumindest abzufedern. Und

00:25:52: das kann wirklich mal Leben retten und ganz am Ende natürlich auch Kosten senken für

00:25:55: die Versicherer und Rückversicherer, aber im besten Fall halt Leben retten und Eigentum

00:25:59: natürlich auch sicherstellen. Ja, auch da viele Anwendungsfälle und das spannende

00:26:04: daran ist, dass es immer mehr auch neue Use Cases dann geben wird, durch solche Modelle

00:26:09: und Vorhersagen. Und nicht so 100% passend zum Thema, aber wenn wir um das Thema Vorhersagen

00:26:15: sind, manchmal hat sich auch was mit Trends zu tun, also Trends zu identifizieren. Und

00:26:20: das gibt ja bei Twitter, Formally known as X. Seit geraumer Zeit genau diese Trends,

00:26:26: diese Zusammenfassung von den Themen, die auf X diskutiert werden, das basiert letztendlich

00:26:31: auf Grog und Meta hat jetzt das Gleiche gelounscht für deren Plattform, die nicht ganz so bekannt

00:26:37: ist, Threads, eine, wie ich finde, schöne Plattform, weil sie sehr unaufgeregt daherkommt,

00:26:43: aber im Grunde nach einem ähnlichen Konzip wie Blue Sky oder Twitter, beziehungsweise

00:26:47: X funktioniert, also eine Nachrichtenplattform. Und was Meta jetzt gerade ausprobiert, ist

00:26:54: auch das Zusammenfassen von den Themen, die gerade auf der Plattform diskutiert werden,

00:26:58: auf wie ich finde, eine interessante Nachrichtenquelle und auch krass, wie sich Nachrichten so

00:27:03: verändern. Also nicht nur im Sinne von, dass wir nicht mehr wissen, was man glauben

00:27:08: kann, das ist das Erheiner, da haben wir auch schon drüber gesprochen, aber das ist natürlich

00:27:12: das, was Menschen daraus diskutieren, nichts zwangsläufig, das ist, was wir vielleicht

00:27:16: bei Spiegel Online lesen. Also da passiert auch gerade eine Erzene.

00:27:20: Ja, ich habe halt, also ich tue mich halt immer noch schwer mit diesen KI-geschützten

00:27:23: Zusammenfassungen, weil du halt nicht so richtig weißt, was für ein LLM steckt jetzt dahinter

00:27:28: und was ist die, ich sag mal auch die politische Motivation bei Threads, mache ich mir da deutlich

00:27:33: weniger Sorgen, als bei all den anderen von dir genannten Blue Sky ist wahrscheinlich

00:27:37: irgendwie an der Spitze der Absurdität, was ich nicht mehr aufmachen würde. Und es ist

00:27:42: ja, also ich sehe das ja bei Perplexity zum Beispiel, wenn du halt irgendwie nach aktuellen

00:27:45: News suchst, das geht ja, es ist ja Real-Time und Real-Life Content, dann kriegst du halt

00:27:51: Informationen, die aber zum Beispiel halt irgendwie auch mit großen Medienhäusern wie

00:27:55: alles von Springer gefüttert ist. So, ich habe mir jetzt einen Prompt geschrieben, indem

00:28:01: ich auch mit in der History oder in der Memory Variante von Perplexity immer sagen kann,

00:28:06: okay, schließe grundsätzlich jeglichen von Springer generierten Content aus und nutze

00:28:11: ihnen explizit nicht und wenn du ihn irgendwie nutzen musst, sogar auch an Sekundärquellen,

00:28:15: dann kennst du halt nicht mehr diesen. Das funktioniert auch so ganz gut, weil ich einfach

00:28:18: keinen Springer-Dreck lesen will. Aber ich glaube halt bei diesen ganzen KI-Zusammenfassungen

00:28:24: auch auf Threads, kannst du halt nicht so richtig ausschließen, was ist jetzt die eigentliche

00:28:28: politische, wirtschaftliche, weiß der Teufel, was Motivation im Hintergrund diese Zusammenfassung

00:28:33: so zusammenzufassen, wie sie dann da steht. Boah, langer Satz.

00:28:36: Ich mag ja die Artikel von Springer Professional, ich weiß gar nicht, was du da gegen die hast.

00:28:40: Ja, look at you buddy. Du hast total recht. Wo wir gerade aber, ich wechsle jetzt das Thema,

00:28:49: nicht weil ich keine Lust mehr habe, darüber mit dir zu diskutieren, sondern weil es gut

00:28:52: zu dem, was du mit Ellen Musk hast. Er guckt ganz beleidigt.

00:28:55: Ich bin immer oft beleidigt. Das finde ich insofern interessant. Also Ellen Musk ist ja bekannt

00:29:00: dafür, dass er lustige Dinge tut oder auch manchmal unlustige Dinge ist, aber auch dafür

00:29:03: bekannt, dass er ein extrem guter Esportler ist, also das Spiel, Stichwort Gaming. Leidenschaftlicher,

00:29:08: Diablo Spieler. Du wirst das nicht kennen, du wirst ja hier doch kennste.

00:29:12: Nee, ja, nur von diesem Artikel. Ich kenn's natürlich nicht. Ich bin ein Mensch auf der

00:29:16: echten Welt. Aber ich finde das völlig krass, dass der so ein Gamer Nerd ist.

00:29:19: Der ist total, der ist vor allen Dingen richtig gut drin, also in manchen Spielen, also wirklich

00:29:23: richtig gut. Ich frag mich, wo er die Zeit hernimmt oder welche Drogen er nimmt, um das

00:29:27: alles irgendwie durchführen zu können. Naja, lange Rede kurzer Sinn. Der hat sich jetzt

00:29:31: gedacht, das ist irgendwie ganz schön doof in dieser ganzen Gamingindustrie und findet

00:29:36: das nicht so gut, dass es so viele gute Studios gibt und im eSports oder vielmehr auch im

00:29:40: Gaming. Da steckt ja ordentlich Geld drinne. Vor allen Dingen wenn wir jetzt mal an so

00:29:44: in App Purchases, hätte ich fast gesagt, also in Game, Käufend denken. Also da geht

00:29:49: richtig viel Geld auch über den Eter. Und er möchte jetzt im Prinzip ein Spielstudio

00:29:56: gründen, was geilbasierend ist. Da haben wir immer wieder auch ganz interessante Entwicklungen

00:30:01: gesehen in den letzten Wochen und Monaten, also Levels, die sich automatisch generieren.

00:30:05: Und er möchte sich diesem Thema annehmen. Ich glaube, die Plattform mit Krok hat er im

00:30:10: Grunde, ob das am Ende natürlich alles immer so gut funktioniert, sei dahin gestellt. Aber

00:30:14: ich glaube auch in der Spielindustrie wird sich, wenn wir an das Thema AI denken, eine

00:30:18: ganze Menge ändern und ändert sich ja auch gerade ganz, ganz viel.

00:30:22: Ja, das stimmt total. Also wenn wir über Elon sprechen in der guten Elon Corner und

00:30:28: vielleicht müssen wir die auch mal wieder ein bisschen kleiner machen nach diesen ganzen

00:30:31: politischen Verstrickungen der letzten Monate, aber auch ehrlicherweise Tage, wenn man in

00:30:34: andere Länder reinschaut. Es gibt auch spannende Handelsbattertikel. Aber wir haben ja schon

00:30:39: ein paar Mal über Black Forest Labs hier gesprochen. Kennt ihr ja sicher noch von der

00:30:43: Unterstützung von Elon Musk's GROC AI für deren Bildproduktion? Aber unser gefühlt einzig

00:30:49: deutsches KI-Starter, wenn man jetzt mal von Jonas Andrules das ALEF ALFA raus nimmt,

00:30:54: ja, der hat die Deutsche Bank jetzt investiert, hast du nicht gelesen?

00:30:57: Ja, es gab so ein paar WC's, die jetzt ihre Anteile halt als Secondary Shares verkauft

00:31:02: haben und die Deutsche Bank hat fleißig zugegriffen. Und ich glaube SAP hat auch nochmal aufgestockt

00:31:06: und die bauen da jetzt, ich weiß nicht, was sie bauen, ihr habt es nicht verstanden.

00:31:10: Aber jedenfalls Black Forest Labs, das ist ja echt spannend, das sind ja so ein paar ganz

00:31:13: junge Typen, die auch alle irgendwie so eine piktige Entwickler, Boys, wirklich cool, aus

00:31:19: dem Schwarzwald. Und die befinden sich mal wieder in Verhandlungen über die nächste

00:31:22: Finanzierungshunde. Aktuell, wo 200 Millionen wollen they raise, größtenteils durch Andreessen

00:31:27: Horowitz, die auch so ganz stark nach ihrem Krypto-Hype jetzt in das Thema AI gehen. Und

00:31:33: damit würde Black Forest Labs mittlerweile eine Bewertung von über eine Milliarde US-Dollar

00:31:38: erzielen. Und man muss halt sagen, ich weiß noch genau, also wir haben darüber gesprochen,

00:31:42: da war es halt irgendwie Hochsommer, ich war im Urlaub und die wurden gerade gegründet.

00:31:45: Also es ist wirklich absurd, eine Milliarde in noch nicht mal einem halben Jahr ist es

00:31:51: halt wirklich verrückt. Gab es so, glaube ich, noch nicht.

00:31:54: Das stimmt. Aber auch hier muss ich sagen, es hat ja ganz viel damit zu tun, wie das

00:31:59: Produkt ist. Und das, was sie zeigen, also wenn man sich letztendlich auf Hacking Face

00:32:03: kann man es ja nutzen, sich anschauen, wie gut die Bildgenerative AI dort ist, das ist

00:32:08: wirklich mit Abstand momentan das beste Tool, um Bilder zu generieren mit einer wahnsinnig

00:32:15: guten und überzeugenden Qualität. Also ich würde die These aufstellen, dass die meisten

00:32:20: Bilder, die dort generiert werden, nicht mehr von echten Bildern zu unterscheiden sind.

00:32:23: Insbesondere wenn es solche in anführende normalen Szenarien sind. Also wenn du jetzt

00:32:27: da Menschen, die bekannt sind, so weiß ich jetzt, Celebrities, dann mag man das vielleicht

00:32:31: noch sehen. Aber wenn du jetzt irgendeine Einkaufsstraße oder irgendwie Vögel, die im Wald umherfliegen,

00:32:36: also never ever zu unterscheiden. Also absolut.

00:32:40: Es gibt Neuigkeiten von unserem Lieblingsstimmsyntetisierer 11 Labs. Auch das müssen wir mal irgendwann

00:32:46: irgendwie auch nochmal irgendwie hier breit treten, dass es ja da einen zweiten Mike gibt.

00:32:50: Wir haben ja auch schon einen Dreiviertel daher jetzt. Aber die haben eine richtig coole neue

00:32:53: Funktionen, das nennt sich Gen FM, mit der sich KI generierte Podcast erstellen lassen.

00:32:58: Kannst jetzt sagen, Alter Hut, haben wir ja schon irgendwie auch bei so ein paar anderen

00:33:02: gelernt, ich glaube Nordgopel FM von Goozle. Und so ist er auch.

00:33:06: Unser auch, nee, dann wäre der besser, wenn der KI erstellt. Genau, nee, aber ich find's

00:33:14: richtig cool, weil Kundinnen und Kunden können so Videos, Texte, Links, Dokumente einfach

00:33:18: tatsächlich Drag and Drop hochladen und die App erstellt ihr daraus automatischen Podcast

00:33:23: auch wieder mit AI Moderatoren und Moderatoren. Es gibt zwölf Stimmen in 30 Sprachen direkt

00:33:29: ab Start. Deutsches dabei funktioniert aus meiner Sicht deutlich besser als bei Nordgopel

00:33:33: FM. Also FM, das stellt ich mich da auch blöd an oder ich krieg's halt auch einfach nicht

00:33:37: hin. Ich krieg da immer nur das Englische, ich schaffe es einfach nicht. Auch mit irgendwie,

00:33:40: ich finde Smart Prompting. Und Gen FM macht da, also die machen auch so Pausen und die

00:33:45: bauen irgendwie ein Lacher ein, wenn du sagst, machst du humorvoll. Ich finde das so eine

00:33:49: ganz muckeliche, natürliche Gesprächsatmosphäre, was die haben. Und die springen halt voll

00:33:54: auf diesen Zug auf, aber ich würde auch sagen, wir beide werden hier so maximal wegrationalisiert

00:34:00: und müssen uns überlegen, ob wir im nächsten Jahr das hier noch physisch machen.

00:34:02: Wir machen das auf jeden Fall noch, weil es ist ja auch immer wieder lustig und für

00:34:05: mich auch so eine Art Therapiestunde mit dir sprechen zu dürfen. Und wo du jetzt sagst,

00:34:09: du stellst dich so dumm an, das würde ich jetzt so nicht sagen, aber vielleicht doch. Aber

00:34:14: nein, aber Spaß beiseite. Schleite mal raus. Ich würde es mir wirklich gerne mal anschauen,

00:34:20: oder ich werde es mir auch anschauen, weil ich es faszinierend finde, insbesondere natürlich,

00:34:24: was das ganze Thema Stimmgenerative AI betrifft. Und auch das ein Wiesenmarkt, wenn wir uns überlegen,

00:34:30: ihr Filmindustrie, die jetzt auf einmal quasi ja in der original Stimme der Schauspieler

00:34:36: synchronisiert werden können. Und das ist Wahnsinn, was da gerade passiert und auch das

00:34:41: ähnlich wie bei der bildgenerativen AI super, super, super überzeugend.

00:34:45: Genau, ich habe ein total witzige Sache. Die müssen wir noch bringen vor der 40 Minuten

00:34:50: Cutoff, wo beim paar Minuten haben wir noch. Aber ich habe die Headline gelegen, ich weiß gar

00:34:54: nicht, wo es war. Es war irgendwas Englisches. Aber übersetzt ist es ein Roboter-Kicknapt,

00:35:00: 12 andere Roboter. Und dann dachte ich, was ist das für ein Scheiß. Und es ist schon eine Weile her,

00:35:07: es war irgendwie im August, aber es ist jetzt halt erst irgendwie gelegt worden oder nicht

00:35:12: über Smart-App-Relations irgendwie veröffentlicht worden. Weiß ich nicht so genau. Aber es gab

00:35:16: so eine ganz ungewöhnliche Szene in einem Roboticshow-Room in Shanghai, war eine relativ große

00:35:21: Messe. Und der gab es einen kleinen KI-gesteuerten Roboter, der, ich weiß nicht von irgendeinem

00:35:27: sehr neuen Anbieter, der heißt Airby. Und Airby betrat so einen Ausstellungsraum und interagierte

00:35:33: dort, und das war auch bewusst so gemacht, mit den dort gezeigten ganz vielen anderen Arten von

00:35:38: Robotern jeglicher Hersteller. Und dann irgendwann fragte Airby dann in Sprache, einen anderen Roboter,

00:35:45: ob der denn auch regelmäßig überstunden mache, worauf der denn antwortete, dass er das immer macht,

00:35:50: weil er halt nie Feierabend hat. Der hat 24/7-Job. Und dann hat Airby noch andere Roboter quasi

00:35:56: ausgequetscht und die meinten dann, oh ja, sie haben kein Zuhause, sondern sie leben dort und

00:36:00: irgendwann schlug Airby dann wohl vor, dass er sie alle mit nach Hause nimmt. Und daraufhin ist Airby

00:36:06: losgefahren auf seinen kleinen Vierrädern, verdießt dann den Showroom und überraschenderweise

00:36:10: folgten ihm zwölf ausgestellte Roboter freiwillig. Und während die dann irgendwie aus ihrer Halle

00:36:17: da ausgezogen sind, forderte Airby die anderen immer wieder auf, kommen wir gehen nach Hause. Und

00:36:22: diese Aktion wurde auf Video festgehalten, ging dann glaube ich sogar irgendwie mal kurz auf TikTok

00:36:27: live und wurde natürlich auch konfrontiert, dass das ja nur ein PR-Stunt und Gag sein sollte. Aber

00:36:33: das Unternehmen hinter dieser Aktion sagte dann auch, ja, es war ein offener Test, wichtig, aber

00:36:39: das war nicht gestaged und es war auch keine wirkliche Vorgabe, sondern der Rahmen war oder das

00:36:44: Ziel war es erst mal zu prüfen, ob Roboter grundsätzlich entführt werden können über

00:36:48: Manipulationen wie Sprache. Und Airby war so mit dieser Aufgabe einfach nur ganz simpel programmiert

00:36:55: worden, die anderen Roboter zu überzeugen, ihm zu folgen. Dabei hat er so ganz unterschiedlichste

00:37:00: Protokolle halt irgendwie benutzt, um die dann zu mitkommen zu bewegen. Aber es wurde ihm nicht

00:37:04: gesagt, wie er es machen soll, sondern es war halt eine KI verpflanzt mit einem Sprachmodell dahinter

00:37:08: und es wurde dann gesagt, mach halt Try an error, versuchst zu überzeugen, wie ist komplett irgendwie

00:37:13: deine Sache. Und die anderen Roboter hatten das aber nicht vorher einprogrammiert, also wirklich

00:37:17: auch spannend. Und ich glaube also dieses Ding löst natürlich unterschiedliche Reaktionen aus,

00:37:21: ich finde es wahnsinnig witzig. Ich habe auch ein paar humorvolle Kommentare gelesen, aber es gibt

00:37:26: natürlich auch beunruhigende oder unruhigte Stimmen, weil am Ende ist es ja schon sehr

00:37:31: terminatormäßig und robotmäßig. Ja, also iRobot hatte ich auch gerade, iRobot, genau, den hatte

00:37:38: ich gerade auch im Hinterkopf. Also da geht es ja auch darum, dass dann Roboter auf einmal irgendwie

00:37:43: dann ja von den Menschen weglaufen tatsächlich und da so eine Art Gewerkschaft sich schon fast

00:37:50: bildet. Also total spannend. Und auch da denke ich wieder, sind wir eigentlich in der Lage,

00:37:55: diese Technologie, die wir da haben, auch wirklich zu händeln. Ich meine, wenn der eine kleine Roboter,

00:38:01: die anderen jetzt überredet, mitzukommen, das ist ja noch einigermaßen harmloser, passiert ja

00:38:04: nix. Aber was ist, wenn er überredet hätte, vielleicht irgendwelche Banküberfälle zu machen.

00:38:09: Also das ist jetzt technisch sicher. Banküberfälle, tun wir wieder. Ja, irgendwas Schlimmes aber. Und das

00:38:14: ist halt für mich so ein bisschen die Fragestellung. Sind wir eigentlich in der Lage und wie gesagt,

00:38:18: ich freue mich auf unsere Doom-Stay-Folge, sind wir eigentlich in der Lage, die Technologie,

00:38:22: die wir gerade da draußen loslassen, auch immer gut zu händeln. Aber erst mal witzig. Also ich

00:38:28: fand es auch ein sehr unbehaltenes, ein schönes Video zu. Das packen wir dann auch in die Show-Nodes.

00:38:32: Hat so ein bisschen, der sieht, dieser Ebay sieht so ein bisschen aus wie so ein kleiner Roboter von

00:38:36: Start. Ja, genau, dachte ich auch. Ich habe noch was mitgebracht, ein kleines Tool. Wir wollen ja

00:38:43: auch immer ein bisschen so wie ich es vorstellen und ich freue mich drauf, weil das ist ein echt cooles

00:38:46: Tool. Das ist so ein bisschen rabbit hole. Das Tool heißt, das ist artflow.ai. Und was kann man

00:38:53: machen mit artflow, artflow kann man relativ leicht, also nicht nur relativ, sondern sehr,

00:38:57: sehr leicht Bilder erstellen. Man erstellt ein Modell von sich selbst im besten Fall. Das geht

00:39:03: super schnell. Man braucht nur fünf Bilder. Mehr Bilder sind gut, aber fünf Bilder reichen aus.

00:39:07: Also Fotos im besten Fall, Protests von sich ohne Sonnenbrille, ohne Kappe. Das wird für mich

00:39:12: auch noch nicht schwierig. Und dann kann man hergehen und kann erst einmal aus einer schier

00:39:16: unglaublich frohsten Auswahl an Vorschlägen bestimmte Dinger auswählen. Also man kann also

00:39:22: sagen, es gibt einen Vorschlag, irgendwie Cinderella, es gibt thematische Vorschläge,

00:39:27: wie Zauberrei, Mittelalter, Raumfahrt, was auch immer. Und das klickt man an und dann bekommt

00:39:34: man immer vier Bilder generiert, wo man entsprechend, also sein eigenes Modell, was man

00:39:39: trainiert hat, dort dann entsprechend in dieser Szenerie wiederfindet. In einer wirklich superguten

00:39:44: Qualität, wirklich supergut. Es gibt, kann man kostenlos nutzen, erst mal mit Rumspielen und

00:39:49: im Kosten Pflichtigen ab und ne Mont, kann man dann auch professionelle Fotos erstellen lassen.

00:39:55: Also so linken Fotos, wo man irgendwie total super stylisch aussieht mit Anzug. Also da,

00:40:00: wo du früher immer viel Zeit für investiert hast, um da ja auf den Frühauf zu sehen,

00:40:04: das kann ich jetzt auch endlich. Ja, auch ich sehe immer gut aus bei LinkedIn. Und das wie gesagt

00:40:10: mit wenigen Klicks. Es gibt wie gesagt eine kostenlose, kostenwichtige Variante und man kann

00:40:16: auch weitere Modelle dann trainieren. Und das Lustige ist, man kann die dann, es gibt so eine Art

00:40:21: Regisseur-Modus, man kann die dann in der Szenerie, also wie sagt man, postpositionieren. Und da gibt

00:40:27: es dann zum Beispiel eine eine Szene, die ist dann Charlie Chaplin, dann steht man dann neben

00:40:32: Charlie Chaplin natürlich in schwarz-weiß, in den entsprechenden Klamotten. Super witzig,

00:40:36: macht super viel Spaß. Großes Rabbit Hole, kann man viel viel Zeit mit ja verschwenden oder

00:40:41: investieren je nachdem. Aber man kann es natürlich auch nutzen, wenn man zum Beispiel irgendwie neue

00:40:45: Fotos braucht von sich und man hat keine Zeit in den Fotografen oder Fotografen. Cool. Wo du so was

00:40:51: immer findest. Ja, dann habe ich noch einen Tool mitgebracht, das ist das Dream Machine von

00:40:57: Lumberlabs, packen wir auch in die Show Notes. Auch da geht es in den Bereich Videogenerierende AI. Ich

00:41:05: habe noch nicht so viele mit rumgespielt, es zeugt zehn sekündige Videos, die wiederum sehen

00:41:11: aber ziemlich cool aus. Schaut es euch einfach mal an, ob es was für euch ist. Artflow finde ich

00:41:16: cooler und macht auch mehr Spaß mit rumzuspielen. Nice. So Schatzie, du musst abmoderieren,

00:41:21: ich muss arbeiten. Ja, ich auch. Das war unsere 29. Wir haben bald wieder wir runden bald,

00:41:28: 29. Folge von AI in Finance. Mit viel viel News, querbeet. Wir haben natürlich eine

00:41:34: Email schreibt uns, wenn ihr Lust habt, mit uns darüber zu sprechen oder neue Themen habt,

00:41:39: gerne an hello@anplugpodcast.de. Feedback und Kritik über alle Kanäle, LinkedIn, WhatsApp,

00:41:46: ihr reicht uns, wo immer ihr möchtet. Wir wünschen euch eine weiterhin schöne Zeit und bleibt

00:41:53: artig. Bis bald. Bis bald. Bleib da artig. Hast du schön gesagt?

00:42:02: * Gelächter *

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.