🎅 AI Update: News und Trends in KW 49
Shownotes
- OpenAI rüstet ChatGPT auf: Neuer Modell-Zugang und Pro-Abo für Power-User: https://stadt-bremerhaven.de/openai-ruestet-chatgpt-auf-neuer-modell-zugang-und-pro-abo-fuer-power-user/
- Musk vs. Altman: Interne E-Mails zeigen Machtkampf bei OpenAI: https://t3n.de/news/musk-vs-altman-interne-e-mails-zeigen-machtkampf-bei-openai-1658780/
- ChatGPT erreicht 300 Millionen wöchentlich aktive Benutzer: https://www.pymnts.com/artificial-intelligence-2/2024/chatgpt-reaches-300-million-weekly-active-users/
- Jetzt kommt auch noch ein eigener Browser: OpenAI greift Google an: https://m.winfuture.de/news/146969
- OpenAI plant Einführung von Werbung: https://www.ft.com/content/9350d075-1658-4d3c-8bc9-b9b3dfc29b26
- OpenAI’s Sora Video Generator Leaked: https://techcrunch.com/2024/11/26/artists-appears-to-have-leaked-access-to-openais-sora/
- GenCast: Googles neues KI-Modell für präzisere Wettervorhersagen: https://deepmind.google/discover/blog/gencast-predicts-weather-and-the-risks-of-extreme-conditions-with-sota-accuracy/
- Threads testet KI-gestützte Zusammenfassungen von Trendthemen: https://techcrunch.com/2024/11/22/taking-a-cue-from-x-threads-tests-ai-powered-summaries-of-trending-topics/
- Elon Musk kündigt die Pläne von xAI an, ein KI-Spielestudio zu gründen: https://cryptobriefing.com/ai-gaming-studio-plans/
- Amazon stellt “Nova”-LLMs vor: https://techcrunch.com/2024/12/03/amazon-announces-nova-a-new-family-of-multimodal-ai-models/
- Amazon investiert weitere 4 Milliarden Dollar in Anthropic: https://www.cnbc.com/2024/11/22/amazon-to-invest-another-4-billion-in-anthropic-openais-biggest-rival.html
- Eigene Schreibstile mit Claude erstellen: https://www.linkedin.com/posts/jens-polomski_ki-ai-snipki-activity-7267424416391729152-YeeK
- Claude AI – Maus und Tastatur durch Stimme ersetzen: https://www.techradar.com/computing/artificial-intelligence/this-voice-controlled-ai-might-one-day-replace-your-mouse-and-keyboard
- ElevenLabs: Stellt Tool für AI-Podcasts vor: https://techcrunch.com/2024/11/27/elevenlabs-new-feature-is-a-notebooklm-competitor-for-creating-genai-podcasts/
- Roboter kidnappt zwölf andere Roboter: https://t3n.de/news/ki-roboter-entfuehrt-12-andere-aus-showroom-1659970/
Disclaimer
Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: [Musik]
00:00:07: AI in Finance. Der Anplugpodcast von Sascha Deewald und Mike Klotz.
00:00:14: [Musik]
00:00:21: Willkommen zur 29. Episode von AI in Finance. Hier sprechen Mike Klotz und ich, Sascha Deewald,
00:00:27: über die Neuesten, wie wir finden, die Coolsten und manchmal auch beängstigenden Trends,
00:00:32: der künstlichen Intelligenz im Banking, im Zahlungsverkehr und generell Financial Services
00:00:37: und mittlerweile auch weiter über hinaus. Und heute gibt es nach langer, langer Abstinenz
00:00:41: mal wieder ganz, ganz viele News von uns. Das liegt vor allem dieses Mal an mir.
00:00:45: Ich war jetzt zwei Wochen lang, war eigentlich drei Wochen auf wirklich vielen Dienstreisen
00:00:49: durch die ganze Republik. Dann habt ihr noch eine Grippe nicht richtig auskurriert
00:00:53: und schleppt die immer noch mit mir rum. Man hört es auch noch so ein bisschen.
00:00:55: Wir hätten uns fast diese Woche getroffen am gleichen Ort, aber dann hat es wieder nicht funktioniert.
00:00:59: Auch das lag, glaube ich, auch mal wieder an mir. Wir geloben Besserungen im neuen Jahr.
00:01:03: Aber wo erwischt ich dich, Mike? Wie geht's dir?
00:01:06: Ja, du erwischt mich zu Hause im verregneten Siegerland. Ja, was ist schlimmer als verlieren?
00:01:10: Siegen. Das Wetter ist furchtbar. Kannst gar nicht anders, kannst gar nicht anders sagen.
00:01:15: Es regnet, es ist kalt und unangenehm. Es ist niemal winterlich.
00:01:18: Und ehrlicherweise hast du mich schon aus dem Konzept gebracht mit der neuen Anmoderation.
00:01:21: Ich bin ja so ein bisschen wie ein Monk. Ich komme mit Veränderungen nicht klar.
00:01:25: Ich weiß nicht, ob ich jetzt den Podcast mit dir durchstehe.
00:01:28: Ich freue mich in der Tat aber nochmal mit dir schnacken zu dürfen,
00:01:31: weil es gab Abszedenz, um vielleicht die Lanze zu brechen.
00:01:34: Es war nur eine Woche ausgesetzt, aber es fühlt sich natürlich viel länger an,
00:01:38: wenn wir nicht miteinander reden. Und in der Tat ist es natürlich in den zwei Wochen einiges passiert.
00:01:43: Und wir haben wie immer ein paar lustige und nicht so lustige News mitgebracht.
00:01:49: Ich habe irgendwie ein paar Tools gefunden, die ich total cool finde.
00:01:52: Da freu ich mich schon drauf. Und ich schlag vor, wir starten einfach mal.
00:01:56: Und wir starten natürlich mit unserem Lieblingsunternehmen.
00:02:01: Zumindest dem Unternehmen, wie ich es glaube, wenn man das zählen würde, relativ oft vorkommt, OpenAI.
00:02:07: Und die haben mal wieder was Neues rausgehauen.
00:02:10: Seit gestern, also seit dem Tag vor Nikolaus, ist es so, dass wir ein neues Modell haben.
00:02:17: Es gab es bisher immer nur als Preview, das O1-Modell.
00:02:20: Das ist jetzt offiziell für die zahlenden Kunden verfügbar, also offiziell im Sinne von nicht mehr Preview.
00:02:27: Und damit einhergehend gab es auch ein neues Update, der App als auch der Desktop-App.
00:02:33: Und was neu ist, dass Modell O1 denkt, denkt, ist auch lustig in dem Zusammenhang.
00:02:39: Es macht so ein paar zusätzliche Ehrenrunden und Schleifen, was die Ergebnisse natürlich besser machen soll.
00:02:45: Was das Schöne jetzt daran ist, dass nicht mehr Preview ist, kann man jetzt auch Dateien hochladen.
00:02:50: Es war noch keine PDF-Dateien, aber im Moment schon Bilder.
00:02:53: Das heißt, das Modell insgesamt kann schon ein bisschen mehr Web-Brosing, geht leider noch nicht, soll aber bald kommen.
00:02:59: Und was man im Zuge dessen auch eingeführt hat, ist nämlich ein neues Robo-Abo für Entspannte, ich glaube 200 Dollar.
00:03:06: Das richtet sich aber in der Tat nur an große Unternehmen und ja, Enterprise Nutzer, Entwickler,
00:03:12: die mal zusätzlich Zugriff auf die neueren oder die ganz ganz neuen Modelle bekommen sollen.
00:03:16: Das alte Abo-Modell bleibt erstmal unangetastet.
00:03:20: Ich habe mir heute tatsächlich überlegt, die könnten, glaube ich, preismäßig auch an der Schraube drehen.
00:03:26: Ich würde es so weit wahrscheinlich bis zum bestimmten Punkt weiter nutzen.
00:03:29: Echt?
00:03:30: Ja, doch.
00:03:31: Was haben wir jetzt? 22 Euro oder?
00:03:33: Oder Dollar oder sowas?
00:03:34: Ja, Dollar, genau, 22 Euro.
00:03:35: Also ich glaube bis 30 würde ich hochgehen.
00:03:37: Hast du gehört zu deinem Ordnungen?
00:03:39: Kannst du erhöhen?
00:03:40: Ja, das hat tiefe Taschen.
00:03:42: Aber ich finde schon jetzt Jatsgy Petty Pro, dieses neue Abo-Modelle, von dem du sprichst, für 200 US Dollar pro Monat, ist schon krass.
00:03:48: Für mich ist das nicht krass, ja, für mich ist das krass, ja.
00:03:51: Ja, genau.
00:03:53: Ich habe 10.
00:03:55: Wie du hast zu sehen?
00:03:56: 10 normale Basismodelle.
00:03:59: Ne, wenn du dich auch die anderen anschaust, irgendwie mit Klood, kommst du ja in der kostenlosen Version auch echt weit,
00:04:06: kannst alle Modelle bedienen, also zumindest die normalen, die ganz großen nicht.
00:04:09: Aber auch Perplexity kannst du irgendwie für 20 Dollar oder du machst es über deine magenta Telekom kostenlose Variante, wie wir beide, das ist ja glaube ich, machen.
00:04:17: Aber auch wenn du jetzt sagst, du nimmst deutlich mehr, ich glaube, das ist nicht der Sweet Spot dann.
00:04:22: Aber mal sehen, also ich bin sehr gespannt auf die Zahlen, wie viel sie von diesen Jatsgy Petty Pro dann auch im nächsten Jahr verkaufen werden.
00:04:28: Das stimmt.
00:04:30: Auf der anderen Seite die Entwicklung geht natürlich auch, also ich finde es immer wieder bemerkenswert.
00:04:34: Also O1 ist tatsächlich wieder besser als GVT 4.0 und auch wieder ein Tick schneller jetzt.
00:04:40: Also ich bin in der Tat gespannt, wo die Reise hingeht.
00:04:43: Aktuell bin ich noch fein mit dem Betrag.
00:04:45: Ich möchte nichts zum Ausruhr bringen, dass ich alles bezahlen würde, aber ich würde glaube ich noch ein bisschen mehr bezahlen, weil ich es doch sehr häufig nutze.
00:04:53: In der Kombination in der Tat aber auch mit Perplexity.
00:04:55: Genau, du hast einen wichtigen Hinweis gebracht.
00:04:57: Aktuell magenta App runterladen, gibt es Perplexity für 12 Monate, umsonst.
00:05:02: Bleiben wir beim Thema Jatsgy Petty vielleicht erreicht 300 Millionen wöchentlich aktive Nutzer.
00:05:08: Das ist jetzt auch nicht so wenig.
00:05:10: Und wenn man sich die Zahlen so ein bisschen anschaut, wie lange, das hat man ja schon mal in der Vergangenheit, wie lange hat eigentlich Facebook gebraucht, wie lange die erste Million, wie lange hat Insta gebraucht, wie lange hat TikTok gebraucht.
00:05:19: Da ist OpenAI schon ganz, ganz weit vorne mit dabei.
00:05:22: Und ich muss immer wieder in Erinnerung führen.
00:05:25: Ich glaube, wir sind im zweiten Jahr immer noch.
00:05:28: Das dritte Jahr fängt glaube ich jetzt gerade erst an.
00:05:30: Das ist total crazy, wie krass sich OpenAI und das ganze Thema in unseren Alltag reingesniegt hat.
00:05:37: 300 Millionen wöchentlich aktive Nutzer ist jetzt nicht so, so wenig.
00:05:44: Und das bei OpenAI und Jatsgy Petty als Produkt, die Reise weitergeht, sieht man da dran, dass es natürlich viele Dinge geplant sind.
00:05:53: Geplant ist jetzt nämlich auch ein eigener Browser.
00:05:55: Das gehört ja zum guten Ton inzwischen dazu.
00:05:58: Nicht mehr nur eine App, sondern jetzt soll es auch einen eigenen Webbrowser geben.
00:06:02: Und das ist so viel interessant, weil wir ja auch schon in der Vergangenheit immer wieder gesagt haben, dass sich das Suchverhalten so ein bisschen ändert.
00:06:07: Also wenn ich auf mich selber schaue, ich google nicht mehr so viel.
00:06:12: Also das wäre jetzt gelogen.
00:06:14: Ich weiß nicht, wie du bei dir es ist, dass man gar nicht mehr googlet.
00:06:17: Das ist ja schon noch irgendwie ein sehr elaboriertes Verhalten.
00:06:20: Aber ich google deutlich weniger.
00:06:22: Wie sagt man denn dazu?
00:06:24: Ich perplexe mehr.
00:06:25: Das hört sich komisch an.
00:06:26: Also ich nutze Perplexity als Datenmank.
00:06:29: Und wenn das jetzt irgendwie im Browser drin ist, dann ist das schon irgendwie ganz schön krass.
00:06:35: Und wenn jetzt irgendwie noch ein eigener Browser von OpenAI kommt, der vielleicht auch noch irgendwie gut in der Hand liegt, könnte das auch für Google irgendwie doof sein?
00:06:44: Ja, ich bin auch gespannt.
00:06:45: Also bei mir ist es halt auch so.
00:06:47: Ich habe meinen Suchverhalten geht größtenteils über Perplexity und GPT.
00:06:52: Aber also echtes Suchverhalten, wirklich Perplexity.
00:06:55: Ich finde Google dauert mir gefühlt zu lange, was eigentlich total absurd ist, weil es ja irgendwie schnell geht.
00:07:00: Aber du, die...
00:07:01: Also ich muss halt nicht mehr so durch unterschiedliche Links scrollen.
00:07:04: Ich muss nicht mehr gucken, was es jetzt sponsert und vermeintlich sponsert.
00:07:07: Und was ist dann halt irgendwie wirklich gekrollter, sauberer Content?
00:07:11: Sondern bei Perplexity ist es halt irgendwie der erste Hit.
00:07:14: Also der einzige Hit, aber ich sehe halt sofort die Primärquellen und kann halt dann sofort das Suchverhalten sehr scharf dann quasi vertikal eingrenzen.
00:07:22: Und das macht es für mich halt einfach aus.
00:07:25: Aber also ich glaube, die Mischung aus dem, was du gerade gesagt hast und dass sie jetzt auch wirklich die Einführung von Werbung planen, macht es halt, glaube ich, spannend.
00:07:33: Weil auch nach Perplexity darüber haben wir ein paar Mal schon gesprochen, prüft also OpenAI jetzt die Einführung von direkter Werbung in seinen ganz vielen AI-Systemen,
00:07:41: um einfach natürlich zusätzliche Einnahmequellen zu erschließen.
00:07:44: Und OpenAI hat dazu wohl auch schon echt viele Talente von Meter und von Google zu sich geholt.
00:07:49: Man muss ja sagen, aktuell sind, oder ich glaube, der einzige Teil der Einnahmen ist halt irgendwie das klassische AP-Zugang und LGBT-Lizenz-Thema.
00:07:58: Es gibt schon ein paar neue Zahlen, die sagen, dass pro Woche zurzeit über 250 Millionen Nutzerinnen OpenAI dann auch wirklich aktiv nutzen.
00:08:08: Und das ist ja vorher gesagt, es sind diese 300 Millionen, aber ich glaube so diese Daily Actives, das sind dann mittlerweile halt irgendwie deutlich über 200 Millionen.
00:08:14: Und damit haben sie ja jetzt zuletzt schlappe 4 Milliarden Dollar generiert.
00:08:19: Wohl auch 50/50 privat und die andere Hälfte ist dann Unternehmensprofile.
00:08:23: Und für 2025 rechnet OpenAI laut einem Artikel in der Financial Times immer noch mit Ausgaben um die 5 Milliarden,
00:08:30: vor allem natürlich für weiteres Training und Influenz von KI-Modellen.
00:08:34: Das heißt, sie brauchen einfach eine neue Umsatzquelle, um diesen Immensenverlustern auch zu mildern oder zu mindern, vielmehr.
00:08:39: Und wie wir ja neulich schon auch hier kurze Leute haben, ist einfach dieser internationale Werbemarkt weiterhin maximal von Google dominiert.
00:08:46: Alleine 23 machte Google, ich glaube, fast eine Viertelmillarde Umsatz, ich glaube 240, eine Viertelbillion, muss man sagen, eine Viertelbillion Umsatz, nur mit Werbean zeigen.
00:08:57: Und das hat ja jetzt irgendwie Perplexity auch schön eingesetzt, finde ich, die machen das irgendwie auch nicht so invasiv.
00:09:03: Ich finde, das sieht irgendwie auch ganz gut aus. Du kannst das aber auch ignorieren, wenn du möchtest.
00:09:06: Und ich glaube, OpenAI ist so mitten im Wandel von dieser berühmten Non-Profit-Organisation zu einer ganz klaren For-Profit-Organisation.
00:09:14: Und du hast es ja auch als irgendwo anders noch als News streitet sich deswegen auch köstlich öffentlich mit ehemaligen Gründern.
00:09:21: Iljasuzkaver vor allem natürlich auch Elon Musk, der glaube ich letzte Woche Freitag irgendwie auch so eine kleine Unterlassungsklage eingereicht hat,
00:09:28: um OpenAI in der Umwendung von der For-Profit-Firma zu hindern.
00:09:32: Aber ich glaube, dieses Werbe-Ding ist total spannend und das in der Kombination mit einem eigenen Browser sowieso.
00:09:38: Total und was ich halt völlig faszinieren finde und das finde ich auch, wenn man historisch so ein bisschen schaut,
00:09:43: wir haben immer gesagt, es gibt so ein paar Unternehmen, die sind unangreifbar.
00:09:46: Das hatten wir in den 80er Jahren, nach dem Motto IBM kann niemals aufgeholt oder eingeholt werden.
00:09:52: Also diese typischen großen Player, wo man sagt, die bleiben für immer, Nokia.
00:09:57: Also wer hat da manchmal den Mobilfunkmarkt dominiert? Heute Nokia, heute so, weiß gar nicht mehr, was das ist.
00:10:02: Und das Interessante daran ist, ich will jetzt nicht Google-Tot schreiben, das wäre totaler Quatsch und auch wirklich unprofessionell.
00:10:09: Aber was ich sehe ist, auch im Verhalten, ich bin sicherlich nicht der Maßstab, wir haben es eben gerade gesagt, ich Google immer noch,
00:10:16: aber das ist für mich so ein bisschen im Vergleich, wie ich auch schon mal im stationellen Handel flanieren gehe.
00:10:22: Also ich gehe schon mal noch in eine Einkaufsstraße und gucke links und rechts.
00:10:25: Du kaufst nichts, oder?
00:10:27: Nein, kauf nichts. Das dachte ich mir.
00:10:29: Ja, in meiner Größe gibt es das immer nicht.
00:10:32: Und so ähnlich ist das bei Perplexity auch. Also wenn ich gezielt schnell was brauche, so diese klassische Amazon-Bestellung,
00:10:39: dann klick ich drauf und dann bestelle ich das und wenn ich die gezielte Information brauche, dann nutze ich Perplexity.
00:10:44: Und jetzt kommt noch ein weiterer Schwenk in Richtung E-Commerce, das ist eben angeteasert.
00:10:49: Wir haben nicht nur Werbung in Perplexity, sondern seit gestern, ich habe es zumindest in der deutschen Version gesehen,
00:10:54: ist auch jetzt das Thema Shopping integriert.
00:10:57: Ich konnte es selber noch nicht testen, also insofern, ich habe es versucht, aber jetzt zeigt mir halt einfach keine Shopping-Links an,
00:11:02: aber ich habe zumindestens schon diesen Screen bekommen, dass man jetzt auch mit Perplexity shoppen kann.
00:11:06: Und die Idee dahinter ist ja so einfach wie genial, ich sage halt einfach, was ich brauche,
00:11:11: und es werden direkt die Deep Links angezeigt.
00:11:13: Das ändert natürlich auch krasses Shopping-Verhalten, weil ich nicht mehr bei Amazon irgendwas suche.
00:11:18: Und auch da den kleinen Hinweis, also Rufus ist ja seit zwei Wochen integriert, also das ist ja der AI-Agent in Amazon.
00:11:26: Ich weiß nicht, ob du den mal getestet hast, der funktioniert irgendwie so gut.
00:11:30: Nee, gar nicht.
00:11:31: Das ist halt, genau.
00:11:32: Da kann es eine Order-Historie halt durchsuchen, das ist so cool, aber also der Rest ist, also es soll total erschrocken sein.
00:11:39: Genau, vielleicht noch kurz irgendwie, wir sind ja in dieser Open AI Corner,
00:11:42: was ich gestern Abend noch gelesen habe, als ich nach Hause geflogen bin, ist, dass jetzt Sam Altman auf Twitter ein riesengroßes Bohai macht,
00:11:50: dass sie jetzt irgendwie 12 Days of Open AI machen.
00:11:53: Das heißt, sie haben jetzt irgendwie vor, dass sie, also ich glaube in die Kampagne,
00:11:57: dass sie jetzt jeden Tag ab heute starten mit einem neuen Feature oder neuen Produkt
00:12:02: und da sollen wohl auch coole Sachen dabei sein, zum Beispiel hier steht "center inspired voice" im Advanced Voice Mode,
00:12:08: also eher was kleines Süßes, aber sie wollen jetzt auch endlich Sora wohl live nehmen.
00:12:13: Und wir erinnern uns, wir haben Glanz am Anfang von unserer Podcast-Historie, als wir noch einstellig waren,
00:12:18: ich glaube im Februar war das, so die ersten Sora-Themen hier auch erklärt.
00:12:23: Das ist dieser Bit-Generator von Open AI, der ja wahnsinnig viel Videogenerator, Dankeschön,
00:12:28: wahnsinnig viel krasse Zeug gemacht hat und dann war der ja auf einmal wieder weg, so, und dann war es das.
00:12:33: Und was ich gelesen habe, ist diese Woche, dass ein Künstler-Kollektiv sich selbst Zugang zu Open AI
00:12:38: als Sora auf Hugging Face gemacht hat und tatsächlich auch veröffentlicht hat, den Code und auch die Videos,
00:12:44: um einfach so gegen diese mangelnde Künstlerunterstützung und Public Relations zu protestieren
00:12:49: und dann auch so ein bisschen zu mobilisieren.
00:12:52: Und dieses Kollektiv kritisiert Open AI für einfach für die unzureichende Entlohnung der Künstler
00:12:57: und die auch zu enge Kontrolle über das Werkzeug.
00:12:59: Aber es soll wohl in der frühen und jetzt optimierten Version Videos bis zu 1000 Pixel in 10 Sekunden Länge generieren können.
00:13:06: Aber nach 3 Stunden bei der Zugang dann wieder weg, aber es zeigt so ein bisschen,
00:13:10: dass Open AI da gerade halt irgendwie auf Produktive Umgebungen rum spielt
00:13:13: und offenbar irgendwo in ein Hugging Face-Leak hatte.
00:13:16: Das heißt, ich gehe ganz fest davon aus, dass wir in den nächsten Tagen dieses Ding als Geschenk kriegen,
00:13:20: um dann wirklich damit arbeiten zu können.
00:13:22: Davon gehe ich auch aus, das liest man auch in ganz vielen Beiträgen bei Reddit und Co, wo man immer nicht weiß,
00:13:28: ist das jetzt wirklich irgendjemand von Open AI, der da gerade spricht.
00:13:31: Aber ich finde einen Punkt noch ganz interessant, den du gesagt hast,
00:13:33: weil der ist wirklich fast schon ein bisschen pervers.
00:13:36: Also es ist ja so, dass Open AI verschiedenen Künstlern tatsächlich auch diesen Zugang gegeben hat.
00:13:41: Also sie wollten ja, dass Künstler schon anfangen, also Digital Artists Videos zu erstellen.
00:13:46: Und das Krasse daran ist, dass sie eigentlich diese ganzen Künstler in Anführungsstrichen missbraucht haben,
00:13:51: um sie dann später selbst obsolet zu machen.
00:13:53: Also das ist total absurd.
00:13:55: Ich gebe also in einer bestimmten Gruppe, man könnte auch so sagen,
00:13:57: wenn wir das übertragen, auf die Musikindustrie.
00:13:59: Ich gebe jetzt allen möglichen Musikerinnen und Musikern da draußen,
00:14:02: halt eine entsprechende Plattform, hier macht man Musik damit.
00:14:05: Die machen das.
00:14:06: Open AI lernt dadurch, seine eigene Plattform zu verbessern,
00:14:09: um später genau diese Künstlerinnen und Künstler ja obsolet zu machen.
00:14:13: Das ist ja irgendwie das Krasse da dran.
00:14:15: Und natürlich wissen wir, dass es so einfach nicht ist, das ist nicht schwarz-weiß,
00:14:19: aber ich fand es bemerkenswert, es gibt ja auch einen offenen Brief von diesem Künstler-Kollektiv dazu.
00:14:25: Und zeigt auch so ein bisschen die Problematik, in der wir uns ja immer mehr befinden.
00:14:29: Also wo kommen die Daten her?
00:14:31: Urheberrecht spielt eine ganz, ganz große Rolle.
00:14:34: Und wie schaffen wir es, auf der einen Seite Technologie zu nutzen,
00:14:38: aber auf der anderen Seite halt auch Content zu schützen.
00:14:40: Super spannend.
00:14:41: Ja, auch wenn du es in anderen Plattformen denkst, Spotify und Co.
00:14:44: Weltgrößte Musikplattformen, die ja auch nachweislich jedes Jahr weniger ihre Künstler bezahlen,
00:14:50: die haben ja ein neues Pricing Anfang dieses Jahres eingeführt, wo sie glaube ich über 80% aller Künstler auf der Plattform kriegen,
00:14:56: ist gar nichts mehr, also im Sinne von Null.
00:14:58: Und ein paar kriegen ganz viel, Joe Rogan hat glaube ich wieder seinen 250 Millionen Dollar-Deal am Anfang des Jahres gezeint.
00:15:04: Und auch Daniel Eck und Co.
00:15:06: Also die Gründer und Geschäftsführer von Spotify haben sich irrsinnige Millionen und teilweise Milliarden Summen über Aktien,
00:15:12: also Schärverkäufer halt auszutalen lassen.
00:15:15: Aber die Künstler gehen einfach mehr und mehr leer aus.
00:15:17: Und wenn du jetzt noch sagst, trotzdem gibt es eine wahnsinnig breite Palette an neuer Musik und neuem Content in jeglicher Form dort,
00:15:24: auch in der Podcast, Bücher etc., das Ganze aber wahrscheinlich irgendwo in einem geheimen Keller für Trainingswecke halt irgendwie auch genutzt wird,
00:15:31: um daraus irgendwann wirklich kontextuell für mich relevant Musik oder grundsätzlich irgendwie Sprach oder Musik-Video-Content erstellen lassen kann,
00:15:39: dann ist das halt irgendwie auch super gefährlich für die Zukunft der Kreativität.
00:15:43: Wo du gerade sagst, super gefährlich, ich habe gestern in YouTube-Video gesehen und ich komme gerade nicht mehr auf den Namen.
00:15:48: Es ist ein Autor, der hat schon viele Bücher, so Zukunftsbücher geschrieben, wie gesagt, ich müsste jetzt nachschauen.
00:15:54: Es ist aber nicht relevant, aber ich würde tatsächlich für diese Video super spannende Stiche das nachher mal.
00:15:59: Vielleicht können wir in der nächsten Folge mal über diese Gefahren, also wirklich noch mal so einen richtigen Doomsday-Podcast machen,
00:16:06: weil er spricht in 1,5 Stunden tatsächlich mehr oder weniger das Ende der Zivilisation, wie wir sie heute kennen
00:16:13: und bringt da auch wirklich, ich finde, richtig gute Beispiele.
00:16:17: Und weil du gerade sagst so die Gefahren und das Thema Urheberrecht, wo wir jetzt wobei gesprochen haben, also es gibt immer 2 Seiten in der Medaille.
00:16:24: Und vielleicht hast du Bock zum Jahreswechsel, ja, so zu sagen, ja, die Regienwerte sowieso bekannt, da war es immer mit der Neue unter,
00:16:30: einfach mal so eine Doomsday-Folge zu machen.
00:16:32: Schön, wenn andere irgendwie mit Lebkuchen und Glühwein zu Hause sitzen und sich freuen, dass alles Gutes.
00:16:37: Wir beide sitzen irgendwie mit hängenden Mundwinkeln da und reden über Doomsday.
00:16:41: Geil, machen wir.
00:16:42: Im Maya-Kalender, genau.
00:16:43: Es gibt noch einen Thema, das ist nicht so ganz Doomsday, aber es geht ein bisschen in die Richtung.
00:16:48: Du hast es eben ja angeteasert. Es gibt ein E-Mail-League, könnte man fast sagen, wobei League weiß ich gar nicht,
00:16:54: aber es wurden E-Mails veröffentlicht aus dem Jahr 2017.
00:16:57: Die Chatchi-Mity hat es mir jetzt zusammengefasst. Differenzen zwischen Elon Musk und insbesondere Ilja Sozkäwa aufzeigen.
00:17:05: Und mit Differenzen ist es eine lustige Formulierung, weil die hatten richtig mit beiden.
00:17:09: Es ging nämlich darum, dass Elon Musk ja mehr Kontrolle haben wollte damals, und zwar insbesondere über ein Thema AGI,
00:17:16: für unsere Zuhörerinnen und Zuhörer da draußen.
00:17:18: AGI ist dieses Ding, was als Nächstes kommen soll, also die allgemeine künstliche Intelligenz.
00:17:23: Also das Ding ist dann nicht mehr nur einfach so ein bisschen Text generieren, sondern soll in Anführungsstrichen so was wie denken können.
00:17:31: Das ist ein bisschen unheimlich. Sollten wir vielleicht auch nochmal aufklären, das ganze Thema.
00:17:35: Naja, nichtsdestotrotz ging es genau um diesen Disput, dass Elon Musk deutlich mehr Macht haben wollte,
00:17:42: auch wenn er sich öffentlich immer ein bisschen anders geäußert hat.
00:17:44: Und das ist jetzt nochmal entsprechend veröffentlicht worden, geliegt worden und passt ja auch zu der Aussage, die du eben gerade getroffen hast.
00:17:52: Also das jetzt mit Unterlassungserklärung. Da ist jetzt richtig Alarm in der Kiste.
00:17:58: Absolut. Ich habe mal ein bisschen was von Claude mitgebracht.
00:18:03: Da fange ich jetzt mehr und mehr an, mit rumzuspielen, ehrlicherweise.
00:18:07: Die haben jetzt seit letzter Woche auch wirklich neuer heiße Funktionen zum Jahresende nochmal rausgeschmissen.
00:18:13: Die haben zum Beispiel ein neues Feature, das heißt Custom Styles.
00:18:16: Und da kann ich sehr einfach meine eigenen Schreibstile erstellen, indem ich einfach ein Beispiel Text von mir oder unterschiedliche Beispiel-Texte aus Sachen,
00:18:25: die ich halt in der Vergangenheit geschrieben habe, egal ob es jetzt eine E-Mail ist, Blockbeiträge, LinkedIn-Posts etc.
00:18:30: Hochladen und auf dessen Grundlage dann wirklich gute Vorschläge generiert werden.
00:18:35: Und besonders schön finde ich auch, dass diese praktische Funktionen dann auch gleich wirklich allen Nutzern und Nutzern zur Verfügung steht,
00:18:42: aber auch den kostenlosen Accounts pro habe ich nicht. Und nicht erst irgendwie über Pro und dann verschiedene Länder-Einstellungen gegangen wird,
00:18:48: sondern Anthropics sagt hier gleich einmal alles für alle, und zwar kostenlos, ist echt cool.
00:18:53: Und ein zweites Mal ist es, ich nehme die kostenlose Version.
00:18:57: Ich glaube auch, die Pro-Version kostet auch 20 Dollar oder so was, oder Euro an der Stelle.
00:19:05: Aber die kostenlose reicht völlig aus und die ist auch echt gut händelbar.
00:19:09: Und hier haben wir jetzt auch ein neues anderes System in der Partnerschaft mit UM AI,
00:19:13: du erinnerst dich, eine unserer ersten Folgen, wo wir darüber gesprochen haben.
00:19:16: Und was die machen, ist so eine empathische Sprachschnittsstelle,
00:19:20: die es Kundinnen und Kunden ermöglichen soll, den Computer komplett mit der Stimme zu steuern,
00:19:25: indem es auch natürlich erstmal von dir lernt, wieso deine Klickwege sind und Co.
00:19:30: Und dann aber quasi deine Emotionen in deiner Stimme erkennt, darauf dann reagiert
00:19:35: und damit dann relativ einfach über verschiedene auch quasi verbale Shortcuts deinen Rechner komplett steuern zu lassen.
00:19:42: Gibt es noch nicht, gibt es nur so ein Preview davon, ein Video,
00:19:46: und da weißt du immer nicht so richtig ist das jetzt gerade gestaged oder gefaked,
00:19:49: aber da bin ich auch sehr gespannt, wie das funktioniert.
00:19:51: Und ich habe mich zum Newsletter angemeldet und sobald das da ist, wird mir das hier natürlich auch ernanzen.
00:19:56: Aber nicht nur du scheinst der Fan von Anthropic und Cloud zu sein,
00:20:00: sondern du hast ja noch eine Nachricht mitgebracht, da geht es auch wieder um 4 Milliarden Dollar,
00:20:04: und ich glaube, Amazon scheint da ja fleißig zu investieren in Anthropic.
00:20:08: Ja, total. Also die haben nochmal richtig aufgetischt, die hatten ja schon glaube ich 4 Milliarden reingesteckt
00:20:15: und sind jetzt mittlerweile dann bei 8 Milliarden, das ist immer noch eine Minderheitsbeteiligung,
00:20:22: wenn man so will, da sind ja ganz viele andere auch noch investiert,
00:20:25: aber tatsächlich ist es mittlerweile halt ein ziemliches Brett,
00:20:28: und das ist halt irgendwie ein, so ein LLM insgesamt 8 Milliarden halt irgendwie zu investieren,
00:20:33: auf der eigenen Kapitalebene schon sehr spannend.
00:20:36: Das Thema Cloud, weil das hatten wir auch glaube ich vor zwei, drei Ausgaben mal,
00:20:41: nämlich das Thema Maus und Tastatur möchte man ersetzen, das ist im Prinzip ja das Tool,
00:20:45: wo du wirklich Cloud sagen kannst, Steuere, mein Computer, mein PC,
00:20:50: das finde ich insofern auch ganz spannend, vor allem jetzt nochmal irgendwann veröffentlicht würde.
00:20:54: Ich glaube es ist noch nicht da, da geht es ja wirklich dann im Grunde darum,
00:20:58: dass du deinem MacBook, deinem Notebook sagen kannst, mit Hilfe von mir.
00:21:03: von Claude. Ich muss jetzt eine PDF-Datei von meinem Kontoauszug erzeugen und meinen Bankberater
00:21:08: schicken und Claude macht dann im Prinzip all diese Schritte. Und das nicht, das du vorher
00:21:14: irgendwie ganz viele Tools angedockt haben musst, sondern Claude weiß halt einfach wieder
00:21:18: ein Desktop aussehen, geht auf die Website, lädt sich den Kontoauszug runter, macht eine
00:21:22: PDF, schreibt eine E-Mail und das alles vollkommen automatisiert. Und das erinnert mich dann
00:21:27: tatsächlich schon, ich bin ja so ein alter Trekkies, so ein Star Trek Fan. Das geht dann
00:21:31: mit mich in die Richtung, wo man sagt, okay kommt unter, machen wir das mal. Also das,
00:21:35: was uns Alexa immer viele Jahre versprochen hat und nie gehalten hat, scheint jetzt zumindest
00:21:39: irgendwann von Claude zu kommen. Es ist eines der Tools, wo ich mich momentan am meisten
00:21:43: darauf freue und ich hoffe, dass es da bald noch für Öffentlichung geben wird.
00:21:46: Beam me up, Mikey.
00:21:49: Beam me up, Scotty. Ich habe noch was mitgebracht, nicht Entropic, nicht Claude, sondern wir haben
00:21:55: eben gesprochen über Google und auch Google ist natürlich ha ha ha fleißig am entwickeln
00:22:00: und sie haben jetzt was herausgebracht oder viel mehr Art Preview oder wie sagt man
00:22:05: White Paper. Und es geht um das Thema, was uns alle beschäftigt, nämlich das Wetter.
00:22:10: Und ich habe mich sowieso gewundert, warum man da so wenig sieht tatsächlich, weil ich
00:22:14: mir dachte, das ist doch wohl das Aller-Nah-Lingste. Viele Daten sind vorhanden, viele Daten werden
00:22:19: permanent erhoben und irgendwie kommt zumindest in meiner Wahrnehmung so wenig bei uns Menschen
00:22:27: da draußen an. Das sollen sie aber jetzt ändern. Es gibt nämlich ein Entwicklung namens Gencast.
00:22:34: Das ist ein Modell basierend auf Google's Deep Mind. Und was macht Gencast? Wettervorhersage.
00:22:41: Und das in einer unglaublich guten Qualität. Und zwar ist es so, dass in Test die Vorhersagen
00:22:47: von Gencast in 97 Prozent der Fälle die vorhersagen, insbesondere mittelfristige Vorhersagen des
00:22:55: Europäischen Zentrums für Wettervorhersagen übertroffen hat. Und vor allen Dingen, wenn
00:23:01: es darum ging, Vorhersagen zu treffen, die weiter als drei Tage, also diese 24, 36 Stunden.
00:23:06: Und da ist es tatsächlich so, dass Gencast in der Lage war, Vorhersagen bis zu 15 Tage.
00:23:12: Das muss man sich auch vorstellen. Also du weißt, wie das Wetter in zwei Wochen sein
00:23:16: wird, was total verrückt ist. Und das hat, wie ich finde, auch wieder grasse Auswirkungen.
00:23:21: Wenn wir jetzt mal uns den e-Commerce anschauen und zwar e-Commerce im Hinblick auf Reiseplattformen.
00:23:28: Also wenn du in der Lage wärst, deinen Buchern zu sagen, was man auf das Wetter in zwei Wochen
00:23:33: ist so, du kannst jetzt eine Reise ex-Ups-Syndone buchen. Also es hat ja nicht nur Impact nach
00:23:37: dem Motto, okay, wie ist das Wetter in zwei Wochen, sondern das kann man ja auch wieder
00:23:40: verknüpfen mit ganz vielen anderen Tools. Also das ist maximal beeindruckend.
00:23:45: Total. Also Wetter ist ja echt so ein Thema. Super schwer vorher, sagt Bar. Vor allem halt
00:23:50: irgendwie über längere Zeiträume und diese traditionelle Vorhersagen.
00:23:54: Meine Oma hatte einen 100-jährigen Kalender und die hat darauf geschwört. Also der 100-jährige
00:24:00: Wetterkalender. Die konnte auch sagen, wie es Wetter wird.
00:24:02: Ja, langfristig, also so richtig richtig langfristig und zyklisch, saisonal wahrscheinlich, aber
00:24:08: tatsächlich so diese traditionellen Vorhersagen, wo ich jetzt mal den Kalender deiner Oma mit
00:24:12: einrechne, ist halt immer irgendwie schwierig, weil auch da Bandbreiten an so ganz vielen
00:24:17: möglichen Szenarien versucht werden, eins zu beziehen, aber so wirklich präzise Vorhersagen
00:24:22: gar nicht so richtig gehen. Und dieses Gencast, was du gefunden hast, das nutzt halt irgendwie
00:24:27: 40 Jahre historische Wetterdaten und hat daraus wirklich so diese ganzen Muster für echtes,
00:24:33: lokales regionales Wetter gelernt und das Ganze halt wirklich auch mit Klimaentwicklung
00:24:38: reingenommen. Und was, also das Thema Leistungsfähigkeit finde ich halt total krass, was in diesem
00:24:41: Artikel steht, denn Gencast übertrifft diese ganzen traditionellen Modelle in über 97%
00:24:49: der getesteten Szenarien. Und vor allem bei so ganz wichtigen Sachen, wo es halt also
00:24:53: nicht, wenn es bei dir jetzt mal regnet, scheißegal, aber so das Thema Extremwetter,
00:24:58: Hitzewellen, Stürme, Kälteeinbrüche, Überflutung, so das ist total spannend und gerade wenn es
00:25:03: halt jetzt irgendwo in Süddeutschland wieder ganz doll regnet, dann kann dieses System innerhalb
00:25:07: von nur 8 Minuten eine 15 Tage Vorhersage so erstellen, dass du halt irgendwie sagst,
00:25:13: dafür bräuchten traditionelle Modelle Stunden oder wahrscheinlich Tage auf Supercomputern.
00:25:18: Aber wenn du willst, wie es die Großwetterlage sein wird und wo tatsächlich die Wahrscheinlichkeit
00:25:24: von über die ufergetretenen Flüsse mit Überschwemmungspotential etc. halt wirklich sein werden,
00:25:29: dann kannst du halt in sehr, sehr kurzer Zeit ohne eine große TPU zu haben, in der Cloud
00:25:34: einfach das berechnen lassen. Und das können halt auch kleine Kommunen machen, die halt
00:25:38: ganz genau wissen wollen oder halt natürlich irgendwie auch Regierungen und Co. Also es
00:25:42: ist richtig spannend, um präzise Vorhersagen zu treffen und dann schäden durch Extremwetter
00:25:47: so ein bisschen, zumindest verhindern kannst du es nicht, aber zumindest abzufedern. Und
00:25:52: das kann wirklich mal Leben retten und ganz am Ende natürlich auch Kosten senken für
00:25:55: die Versicherer und Rückversicherer, aber im besten Fall halt Leben retten und Eigentum
00:25:59: natürlich auch sicherstellen. Ja, auch da viele Anwendungsfälle und das spannende
00:26:04: daran ist, dass es immer mehr auch neue Use Cases dann geben wird, durch solche Modelle
00:26:09: und Vorhersagen. Und nicht so 100% passend zum Thema, aber wenn wir um das Thema Vorhersagen
00:26:15: sind, manchmal hat sich auch was mit Trends zu tun, also Trends zu identifizieren. Und
00:26:20: das gibt ja bei Twitter, Formally known as X. Seit geraumer Zeit genau diese Trends,
00:26:26: diese Zusammenfassung von den Themen, die auf X diskutiert werden, das basiert letztendlich
00:26:31: auf Grog und Meta hat jetzt das Gleiche gelounscht für deren Plattform, die nicht ganz so bekannt
00:26:37: ist, Threads, eine, wie ich finde, schöne Plattform, weil sie sehr unaufgeregt daherkommt,
00:26:43: aber im Grunde nach einem ähnlichen Konzip wie Blue Sky oder Twitter, beziehungsweise
00:26:47: X funktioniert, also eine Nachrichtenplattform. Und was Meta jetzt gerade ausprobiert, ist
00:26:54: auch das Zusammenfassen von den Themen, die gerade auf der Plattform diskutiert werden,
00:26:58: auf wie ich finde, eine interessante Nachrichtenquelle und auch krass, wie sich Nachrichten so
00:27:03: verändern. Also nicht nur im Sinne von, dass wir nicht mehr wissen, was man glauben
00:27:08: kann, das ist das Erheiner, da haben wir auch schon drüber gesprochen, aber das ist natürlich
00:27:12: das, was Menschen daraus diskutieren, nichts zwangsläufig, das ist, was wir vielleicht
00:27:16: bei Spiegel Online lesen. Also da passiert auch gerade eine Erzene.
00:27:20: Ja, ich habe halt, also ich tue mich halt immer noch schwer mit diesen KI-geschützten
00:27:23: Zusammenfassungen, weil du halt nicht so richtig weißt, was für ein LLM steckt jetzt dahinter
00:27:28: und was ist die, ich sag mal auch die politische Motivation bei Threads, mache ich mir da deutlich
00:27:33: weniger Sorgen, als bei all den anderen von dir genannten Blue Sky ist wahrscheinlich
00:27:37: irgendwie an der Spitze der Absurdität, was ich nicht mehr aufmachen würde. Und es ist
00:27:42: ja, also ich sehe das ja bei Perplexity zum Beispiel, wenn du halt irgendwie nach aktuellen
00:27:45: News suchst, das geht ja, es ist ja Real-Time und Real-Life Content, dann kriegst du halt
00:27:51: Informationen, die aber zum Beispiel halt irgendwie auch mit großen Medienhäusern wie
00:27:55: alles von Springer gefüttert ist. So, ich habe mir jetzt einen Prompt geschrieben, indem
00:28:01: ich auch mit in der History oder in der Memory Variante von Perplexity immer sagen kann,
00:28:06: okay, schließe grundsätzlich jeglichen von Springer generierten Content aus und nutze
00:28:11: ihnen explizit nicht und wenn du ihn irgendwie nutzen musst, sogar auch an Sekundärquellen,
00:28:15: dann kennst du halt nicht mehr diesen. Das funktioniert auch so ganz gut, weil ich einfach
00:28:18: keinen Springer-Dreck lesen will. Aber ich glaube halt bei diesen ganzen KI-Zusammenfassungen
00:28:24: auch auf Threads, kannst du halt nicht so richtig ausschließen, was ist jetzt die eigentliche
00:28:28: politische, wirtschaftliche, weiß der Teufel, was Motivation im Hintergrund diese Zusammenfassung
00:28:33: so zusammenzufassen, wie sie dann da steht. Boah, langer Satz.
00:28:36: Ich mag ja die Artikel von Springer Professional, ich weiß gar nicht, was du da gegen die hast.
00:28:40: Ja, look at you buddy. Du hast total recht. Wo wir gerade aber, ich wechsle jetzt das Thema,
00:28:49: nicht weil ich keine Lust mehr habe, darüber mit dir zu diskutieren, sondern weil es gut
00:28:52: zu dem, was du mit Ellen Musk hast. Er guckt ganz beleidigt.
00:28:55: Ich bin immer oft beleidigt. Das finde ich insofern interessant. Also Ellen Musk ist ja bekannt
00:29:00: dafür, dass er lustige Dinge tut oder auch manchmal unlustige Dinge ist, aber auch dafür
00:29:03: bekannt, dass er ein extrem guter Esportler ist, also das Spiel, Stichwort Gaming. Leidenschaftlicher,
00:29:08: Diablo Spieler. Du wirst das nicht kennen, du wirst ja hier doch kennste.
00:29:12: Nee, ja, nur von diesem Artikel. Ich kenn's natürlich nicht. Ich bin ein Mensch auf der
00:29:16: echten Welt. Aber ich finde das völlig krass, dass der so ein Gamer Nerd ist.
00:29:19: Der ist total, der ist vor allen Dingen richtig gut drin, also in manchen Spielen, also wirklich
00:29:23: richtig gut. Ich frag mich, wo er die Zeit hernimmt oder welche Drogen er nimmt, um das
00:29:27: alles irgendwie durchführen zu können. Naja, lange Rede kurzer Sinn. Der hat sich jetzt
00:29:31: gedacht, das ist irgendwie ganz schön doof in dieser ganzen Gamingindustrie und findet
00:29:36: das nicht so gut, dass es so viele gute Studios gibt und im eSports oder vielmehr auch im
00:29:40: Gaming. Da steckt ja ordentlich Geld drinne. Vor allen Dingen wenn wir jetzt mal an so
00:29:44: in App Purchases, hätte ich fast gesagt, also in Game, Käufend denken. Also da geht
00:29:49: richtig viel Geld auch über den Eter. Und er möchte jetzt im Prinzip ein Spielstudio
00:29:56: gründen, was geilbasierend ist. Da haben wir immer wieder auch ganz interessante Entwicklungen
00:30:01: gesehen in den letzten Wochen und Monaten, also Levels, die sich automatisch generieren.
00:30:05: Und er möchte sich diesem Thema annehmen. Ich glaube, die Plattform mit Krok hat er im
00:30:10: Grunde, ob das am Ende natürlich alles immer so gut funktioniert, sei dahin gestellt. Aber
00:30:14: ich glaube auch in der Spielindustrie wird sich, wenn wir an das Thema AI denken, eine
00:30:18: ganze Menge ändern und ändert sich ja auch gerade ganz, ganz viel.
00:30:22: Ja, das stimmt total. Also wenn wir über Elon sprechen in der guten Elon Corner und
00:30:28: vielleicht müssen wir die auch mal wieder ein bisschen kleiner machen nach diesen ganzen
00:30:31: politischen Verstrickungen der letzten Monate, aber auch ehrlicherweise Tage, wenn man in
00:30:34: andere Länder reinschaut. Es gibt auch spannende Handelsbattertikel. Aber wir haben ja schon
00:30:39: ein paar Mal über Black Forest Labs hier gesprochen. Kennt ihr ja sicher noch von der
00:30:43: Unterstützung von Elon Musk's GROC AI für deren Bildproduktion? Aber unser gefühlt einzig
00:30:49: deutsches KI-Starter, wenn man jetzt mal von Jonas Andrules das ALEF ALFA raus nimmt,
00:30:54: ja, der hat die Deutsche Bank jetzt investiert, hast du nicht gelesen?
00:30:57: Ja, es gab so ein paar WC's, die jetzt ihre Anteile halt als Secondary Shares verkauft
00:31:02: haben und die Deutsche Bank hat fleißig zugegriffen. Und ich glaube SAP hat auch nochmal aufgestockt
00:31:06: und die bauen da jetzt, ich weiß nicht, was sie bauen, ihr habt es nicht verstanden.
00:31:10: Aber jedenfalls Black Forest Labs, das ist ja echt spannend, das sind ja so ein paar ganz
00:31:13: junge Typen, die auch alle irgendwie so eine piktige Entwickler, Boys, wirklich cool, aus
00:31:19: dem Schwarzwald. Und die befinden sich mal wieder in Verhandlungen über die nächste
00:31:22: Finanzierungshunde. Aktuell, wo 200 Millionen wollen they raise, größtenteils durch Andreessen
00:31:27: Horowitz, die auch so ganz stark nach ihrem Krypto-Hype jetzt in das Thema AI gehen. Und
00:31:33: damit würde Black Forest Labs mittlerweile eine Bewertung von über eine Milliarde US-Dollar
00:31:38: erzielen. Und man muss halt sagen, ich weiß noch genau, also wir haben darüber gesprochen,
00:31:42: da war es halt irgendwie Hochsommer, ich war im Urlaub und die wurden gerade gegründet.
00:31:45: Also es ist wirklich absurd, eine Milliarde in noch nicht mal einem halben Jahr ist es
00:31:51: halt wirklich verrückt. Gab es so, glaube ich, noch nicht.
00:31:54: Das stimmt. Aber auch hier muss ich sagen, es hat ja ganz viel damit zu tun, wie das
00:31:59: Produkt ist. Und das, was sie zeigen, also wenn man sich letztendlich auf Hacking Face
00:32:03: kann man es ja nutzen, sich anschauen, wie gut die Bildgenerative AI dort ist, das ist
00:32:08: wirklich mit Abstand momentan das beste Tool, um Bilder zu generieren mit einer wahnsinnig
00:32:15: guten und überzeugenden Qualität. Also ich würde die These aufstellen, dass die meisten
00:32:20: Bilder, die dort generiert werden, nicht mehr von echten Bildern zu unterscheiden sind.
00:32:23: Insbesondere wenn es solche in anführende normalen Szenarien sind. Also wenn du jetzt
00:32:27: da Menschen, die bekannt sind, so weiß ich jetzt, Celebrities, dann mag man das vielleicht
00:32:31: noch sehen. Aber wenn du jetzt irgendeine Einkaufsstraße oder irgendwie Vögel, die im Wald umherfliegen,
00:32:36: also never ever zu unterscheiden. Also absolut.
00:32:40: Es gibt Neuigkeiten von unserem Lieblingsstimmsyntetisierer 11 Labs. Auch das müssen wir mal irgendwann
00:32:46: irgendwie auch nochmal irgendwie hier breit treten, dass es ja da einen zweiten Mike gibt.
00:32:50: Wir haben ja auch schon einen Dreiviertel daher jetzt. Aber die haben eine richtig coole neue
00:32:53: Funktionen, das nennt sich Gen FM, mit der sich KI generierte Podcast erstellen lassen.
00:32:58: Kannst jetzt sagen, Alter Hut, haben wir ja schon irgendwie auch bei so ein paar anderen
00:33:02: gelernt, ich glaube Nordgopel FM von Goozle. Und so ist er auch.
00:33:06: Unser auch, nee, dann wäre der besser, wenn der KI erstellt. Genau, nee, aber ich find's
00:33:14: richtig cool, weil Kundinnen und Kunden können so Videos, Texte, Links, Dokumente einfach
00:33:18: tatsächlich Drag and Drop hochladen und die App erstellt ihr daraus automatischen Podcast
00:33:23: auch wieder mit AI Moderatoren und Moderatoren. Es gibt zwölf Stimmen in 30 Sprachen direkt
00:33:29: ab Start. Deutsches dabei funktioniert aus meiner Sicht deutlich besser als bei Nordgopel
00:33:33: FM. Also FM, das stellt ich mich da auch blöd an oder ich krieg's halt auch einfach nicht
00:33:37: hin. Ich krieg da immer nur das Englische, ich schaffe es einfach nicht. Auch mit irgendwie,
00:33:40: ich finde Smart Prompting. Und Gen FM macht da, also die machen auch so Pausen und die
00:33:45: bauen irgendwie ein Lacher ein, wenn du sagst, machst du humorvoll. Ich finde das so eine
00:33:49: ganz muckeliche, natürliche Gesprächsatmosphäre, was die haben. Und die springen halt voll
00:33:54: auf diesen Zug auf, aber ich würde auch sagen, wir beide werden hier so maximal wegrationalisiert
00:34:00: und müssen uns überlegen, ob wir im nächsten Jahr das hier noch physisch machen.
00:34:02: Wir machen das auf jeden Fall noch, weil es ist ja auch immer wieder lustig und für
00:34:05: mich auch so eine Art Therapiestunde mit dir sprechen zu dürfen. Und wo du jetzt sagst,
00:34:09: du stellst dich so dumm an, das würde ich jetzt so nicht sagen, aber vielleicht doch. Aber
00:34:14: nein, aber Spaß beiseite. Schleite mal raus. Ich würde es mir wirklich gerne mal anschauen,
00:34:20: oder ich werde es mir auch anschauen, weil ich es faszinierend finde, insbesondere natürlich,
00:34:24: was das ganze Thema Stimmgenerative AI betrifft. Und auch das ein Wiesenmarkt, wenn wir uns überlegen,
00:34:30: ihr Filmindustrie, die jetzt auf einmal quasi ja in der original Stimme der Schauspieler
00:34:36: synchronisiert werden können. Und das ist Wahnsinn, was da gerade passiert und auch das
00:34:41: ähnlich wie bei der bildgenerativen AI super, super, super überzeugend.
00:34:45: Genau, ich habe ein total witzige Sache. Die müssen wir noch bringen vor der 40 Minuten
00:34:50: Cutoff, wo beim paar Minuten haben wir noch. Aber ich habe die Headline gelegen, ich weiß gar
00:34:54: nicht, wo es war. Es war irgendwas Englisches. Aber übersetzt ist es ein Roboter-Kicknapt,
00:35:00: 12 andere Roboter. Und dann dachte ich, was ist das für ein Scheiß. Und es ist schon eine Weile her,
00:35:07: es war irgendwie im August, aber es ist jetzt halt erst irgendwie gelegt worden oder nicht
00:35:12: über Smart-App-Relations irgendwie veröffentlicht worden. Weiß ich nicht so genau. Aber es gab
00:35:16: so eine ganz ungewöhnliche Szene in einem Roboticshow-Room in Shanghai, war eine relativ große
00:35:21: Messe. Und der gab es einen kleinen KI-gesteuerten Roboter, der, ich weiß nicht von irgendeinem
00:35:27: sehr neuen Anbieter, der heißt Airby. Und Airby betrat so einen Ausstellungsraum und interagierte
00:35:33: dort, und das war auch bewusst so gemacht, mit den dort gezeigten ganz vielen anderen Arten von
00:35:38: Robotern jeglicher Hersteller. Und dann irgendwann fragte Airby dann in Sprache, einen anderen Roboter,
00:35:45: ob der denn auch regelmäßig überstunden mache, worauf der denn antwortete, dass er das immer macht,
00:35:50: weil er halt nie Feierabend hat. Der hat 24/7-Job. Und dann hat Airby noch andere Roboter quasi
00:35:56: ausgequetscht und die meinten dann, oh ja, sie haben kein Zuhause, sondern sie leben dort und
00:36:00: irgendwann schlug Airby dann wohl vor, dass er sie alle mit nach Hause nimmt. Und daraufhin ist Airby
00:36:06: losgefahren auf seinen kleinen Vierrädern, verdießt dann den Showroom und überraschenderweise
00:36:10: folgten ihm zwölf ausgestellte Roboter freiwillig. Und während die dann irgendwie aus ihrer Halle
00:36:17: da ausgezogen sind, forderte Airby die anderen immer wieder auf, kommen wir gehen nach Hause. Und
00:36:22: diese Aktion wurde auf Video festgehalten, ging dann glaube ich sogar irgendwie mal kurz auf TikTok
00:36:27: live und wurde natürlich auch konfrontiert, dass das ja nur ein PR-Stunt und Gag sein sollte. Aber
00:36:33: das Unternehmen hinter dieser Aktion sagte dann auch, ja, es war ein offener Test, wichtig, aber
00:36:39: das war nicht gestaged und es war auch keine wirkliche Vorgabe, sondern der Rahmen war oder das
00:36:44: Ziel war es erst mal zu prüfen, ob Roboter grundsätzlich entführt werden können über
00:36:48: Manipulationen wie Sprache. Und Airby war so mit dieser Aufgabe einfach nur ganz simpel programmiert
00:36:55: worden, die anderen Roboter zu überzeugen, ihm zu folgen. Dabei hat er so ganz unterschiedlichste
00:37:00: Protokolle halt irgendwie benutzt, um die dann zu mitkommen zu bewegen. Aber es wurde ihm nicht
00:37:04: gesagt, wie er es machen soll, sondern es war halt eine KI verpflanzt mit einem Sprachmodell dahinter
00:37:08: und es wurde dann gesagt, mach halt Try an error, versuchst zu überzeugen, wie ist komplett irgendwie
00:37:13: deine Sache. Und die anderen Roboter hatten das aber nicht vorher einprogrammiert, also wirklich
00:37:17: auch spannend. Und ich glaube also dieses Ding löst natürlich unterschiedliche Reaktionen aus,
00:37:21: ich finde es wahnsinnig witzig. Ich habe auch ein paar humorvolle Kommentare gelesen, aber es gibt
00:37:26: natürlich auch beunruhigende oder unruhigte Stimmen, weil am Ende ist es ja schon sehr
00:37:31: terminatormäßig und robotmäßig. Ja, also iRobot hatte ich auch gerade, iRobot, genau, den hatte
00:37:38: ich gerade auch im Hinterkopf. Also da geht es ja auch darum, dass dann Roboter auf einmal irgendwie
00:37:43: dann ja von den Menschen weglaufen tatsächlich und da so eine Art Gewerkschaft sich schon fast
00:37:50: bildet. Also total spannend. Und auch da denke ich wieder, sind wir eigentlich in der Lage,
00:37:55: diese Technologie, die wir da haben, auch wirklich zu händeln. Ich meine, wenn der eine kleine Roboter,
00:38:01: die anderen jetzt überredet, mitzukommen, das ist ja noch einigermaßen harmloser, passiert ja
00:38:04: nix. Aber was ist, wenn er überredet hätte, vielleicht irgendwelche Banküberfälle zu machen.
00:38:09: Also das ist jetzt technisch sicher. Banküberfälle, tun wir wieder. Ja, irgendwas Schlimmes aber. Und das
00:38:14: ist halt für mich so ein bisschen die Fragestellung. Sind wir eigentlich in der Lage und wie gesagt,
00:38:18: ich freue mich auf unsere Doom-Stay-Folge, sind wir eigentlich in der Lage, die Technologie,
00:38:22: die wir gerade da draußen loslassen, auch immer gut zu händeln. Aber erst mal witzig. Also ich
00:38:28: fand es auch ein sehr unbehaltenes, ein schönes Video zu. Das packen wir dann auch in die Show-Nodes.
00:38:32: Hat so ein bisschen, der sieht, dieser Ebay sieht so ein bisschen aus wie so ein kleiner Roboter von
00:38:36: Start. Ja, genau, dachte ich auch. Ich habe noch was mitgebracht, ein kleines Tool. Wir wollen ja
00:38:43: auch immer ein bisschen so wie ich es vorstellen und ich freue mich drauf, weil das ist ein echt cooles
00:38:46: Tool. Das ist so ein bisschen rabbit hole. Das Tool heißt, das ist artflow.ai. Und was kann man
00:38:53: machen mit artflow, artflow kann man relativ leicht, also nicht nur relativ, sondern sehr,
00:38:57: sehr leicht Bilder erstellen. Man erstellt ein Modell von sich selbst im besten Fall. Das geht
00:39:03: super schnell. Man braucht nur fünf Bilder. Mehr Bilder sind gut, aber fünf Bilder reichen aus.
00:39:07: Also Fotos im besten Fall, Protests von sich ohne Sonnenbrille, ohne Kappe. Das wird für mich
00:39:12: auch noch nicht schwierig. Und dann kann man hergehen und kann erst einmal aus einer schier
00:39:16: unglaublich frohsten Auswahl an Vorschlägen bestimmte Dinger auswählen. Also man kann also
00:39:22: sagen, es gibt einen Vorschlag, irgendwie Cinderella, es gibt thematische Vorschläge,
00:39:27: wie Zauberrei, Mittelalter, Raumfahrt, was auch immer. Und das klickt man an und dann bekommt
00:39:34: man immer vier Bilder generiert, wo man entsprechend, also sein eigenes Modell, was man
00:39:39: trainiert hat, dort dann entsprechend in dieser Szenerie wiederfindet. In einer wirklich superguten
00:39:44: Qualität, wirklich supergut. Es gibt, kann man kostenlos nutzen, erst mal mit Rumspielen und
00:39:49: im Kosten Pflichtigen ab und ne Mont, kann man dann auch professionelle Fotos erstellen lassen.
00:39:55: Also so linken Fotos, wo man irgendwie total super stylisch aussieht mit Anzug. Also da,
00:40:00: wo du früher immer viel Zeit für investiert hast, um da ja auf den Frühauf zu sehen,
00:40:04: das kann ich jetzt auch endlich. Ja, auch ich sehe immer gut aus bei LinkedIn. Und das wie gesagt
00:40:10: mit wenigen Klicks. Es gibt wie gesagt eine kostenlose, kostenwichtige Variante und man kann
00:40:16: auch weitere Modelle dann trainieren. Und das Lustige ist, man kann die dann, es gibt so eine Art
00:40:21: Regisseur-Modus, man kann die dann in der Szenerie, also wie sagt man, postpositionieren. Und da gibt
00:40:27: es dann zum Beispiel eine eine Szene, die ist dann Charlie Chaplin, dann steht man dann neben
00:40:32: Charlie Chaplin natürlich in schwarz-weiß, in den entsprechenden Klamotten. Super witzig,
00:40:36: macht super viel Spaß. Großes Rabbit Hole, kann man viel viel Zeit mit ja verschwenden oder
00:40:41: investieren je nachdem. Aber man kann es natürlich auch nutzen, wenn man zum Beispiel irgendwie neue
00:40:45: Fotos braucht von sich und man hat keine Zeit in den Fotografen oder Fotografen. Cool. Wo du so was
00:40:51: immer findest. Ja, dann habe ich noch einen Tool mitgebracht, das ist das Dream Machine von
00:40:57: Lumberlabs, packen wir auch in die Show Notes. Auch da geht es in den Bereich Videogenerierende AI. Ich
00:41:05: habe noch nicht so viele mit rumgespielt, es zeugt zehn sekündige Videos, die wiederum sehen
00:41:11: aber ziemlich cool aus. Schaut es euch einfach mal an, ob es was für euch ist. Artflow finde ich
00:41:16: cooler und macht auch mehr Spaß mit rumzuspielen. Nice. So Schatzie, du musst abmoderieren,
00:41:21: ich muss arbeiten. Ja, ich auch. Das war unsere 29. Wir haben bald wieder wir runden bald,
00:41:28: 29. Folge von AI in Finance. Mit viel viel News, querbeet. Wir haben natürlich eine
00:41:34: Email schreibt uns, wenn ihr Lust habt, mit uns darüber zu sprechen oder neue Themen habt,
00:41:39: gerne an hello@anplugpodcast.de. Feedback und Kritik über alle Kanäle, LinkedIn, WhatsApp,
00:41:46: ihr reicht uns, wo immer ihr möchtet. Wir wünschen euch eine weiterhin schöne Zeit und bleibt
00:41:53: artig. Bis bald. Bis bald. Bleib da artig. Hast du schön gesagt?
00:42:02: * Gelächter *
Neuer Kommentar