AI Update: News und Trends in KW 42

Shownotes

Hier ist die Liste der News der Woche mit Links:

  1. Anthropic-CEO: 15.000-Wörter-Essay zu goldener KI-Zukunft: https://techcrunch.com/2024/10/11/anthropic-ceo-goes-full-techno-optimist-in-15000-word-paean-to-ai/
  2. Amazon: Plant KI-Agenten, die für User einkaufen: https://www.wired.com/story/amazon-ai-agents-shopping-guides-rufus/
  3. Amazon stellt KI-gestützte Tools für die Erstellung von Anzeigen vor: https://www.pymnts.com/amazon/2024/amazon-debuts-ai-powered-tools-for-creating-advertisements/
  4. KI, die hören, sehen und klicken kann? Die nächste Generation künstlicher Intelligenz ist bereits Realität: https://www.technologyreview.com/2024/10/08/1105214/forget-chat-ai-that-can-hear-see-and-click-is-already-here/
  5. Die aufkommende Gefahr von KI-Beziehungen: Ein Blick auf virtuelle Intimität: https://www.bbc.com/future/article/20241008-the-troubling-future-of-ai-relationships
  6. Google Gemini Live jetzt auch auf Deutsch verfügbar: https://blog.google/intl/de-de/produkte/suchen-entdecken/gemini-live-auf-deutsch/
  7. Google Mail (iOS) bekommt Update mit AI: https://www.theverge.com/2024/10/4/24261926/gmail-for-ios-gemini-ai-assistant-inbox-support
  8. Google verbessert das KI-Modell von Gemini für seine neue Shopping-Plattform: https://www.pymnts.com/artificial-intelligence-2/2024/google-amps-up-geminis-ai-model-for-new-shopping-platform/
  9. Zoom AI Avatars: https://onlinemarketing.de/karriere/digitalisierung/zoom-ai-avatar
  10. Perplexity Pro 1 Jahr kostenlos (für Magenta Kunden): https://www.telekom.de/magenta-moments
  11. Tesla We, Robot Event: https://www.tesla.com/de_de/we-robot
  12. Schöne Integration von AI in Opera: https://techcrunch.com/2024/10/10/operas-new-feature-lets-you-group-pin-and-close-tab-through-natural-language-commands/
  13. Schöner Use-Case (auch für Banking) Anti Theft von Android: https://www.ndtvprofit.com/technology/your-android-phone-will-now-detect-theft-and-lock-itself-using-google-ai
  14. Banken und Fintechs: So nutzen sie KI wirklich: https://paymentandbanking.com/banken-und-fintechs-so-nutzen-sie-ki-wirklich/?mc_cid=8ee1e9e515&mc_eid=0741e4719c

Disclaimer

Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

00:00:00: A.I. in Finance. Der Anplugpodcast von Sascha Deewald und Mike Klotz.

00:00:13: Hallo und herzlich willkommen zur 23. Episode von A.I. in Finance, dem Anplugpodcast von Sascha

00:00:29: Deewald und Mike Klotz. Das bin ich zum Thema Künstliche Intelligenz im Zahlungsverkehr und

00:00:35: Banking. Kurz vom Wochenende kann man sagen, ein herbstliche Episode. Herzlich willkommen und

00:00:42: schön, dass wir uns wieder mal sehen, lieber Sascha. Hallo Mike, sehr schön, dich zu sehen zum

00:00:47: Ende der Woche, früher morgens. Du und wir haben wieder einige viele News mitgebracht,

00:00:54: haben eben schon kurz vorher drüber gesprochen und haben gesagt, so viele News gibt es gar nicht.

00:00:59: Und jetzt gucke ich in die Liste, sind ja doch ein paar. Es gibt so ein paar Themen, die aber auch

00:01:03: gar nicht so wahnsinnig aktuell jetzt sind, sondern sich jetzt auch gerade in den letzten

00:01:09: Wochen so ein bisschen ergeben und angehäuft haben bzw. auch auf Themen ja gehen oder auch

00:01:14: Referenzieren, die wir immer schon mal angesprochen hatten hier, wie ich finde. Eine schöne Sache

00:01:19: ist ja immer irgendwie Energie. Es gab diese Woche eine Meldung, dass Google tatsächlich ein bisschen

00:01:24: auf Shopping-Tour ist und einfach ein paar Atomkraftwerke eingekauft hat, zumindest die Verträge,

00:01:30: damit jetzt gemacht hat, mit einem Start-up namens Kairos Power und hat tatsächlich ein paar kleine

00:01:36: Atomkraftwerke unterschrieben, die noch bis 2030 in Betrieb gehen sollen. Und das erklärte Ziel

00:01:42: von Google hier ist natürlich ihre steigenden Energieanforderungen der achso-hungerigen oder

00:01:49: KI-hungerigen Datenzentren zu decken und das Ganze natürlich auch optimalerweise mit CO2

00:01:54: neutralen Energieträgern, weil das ganze Thema ISG und Co. haben die großen Big-Tex natürlich auch.

00:01:59: Und wie wir beide hier ja auch immer schon mal signiert haben, steigt natürlich auch sehr Druck,

00:02:03: diese Datenzentren mit entsprechender grüner Energie zu versorgen. Und die ersten Tech-Player

00:02:08: setzen jetzt schon auf Wind und Solar mittlerweile auch an riesigen Größenordnungen, das in der

00:02:13: ganze Wüste mit den Photovoltaik-Themen hat irgendwie beflaggen. Trotzdem merkt man halt,

00:02:19: das ist in der Größenordnung einfach noch schwierig, denn Nuklearnergie kann einfach so eine,

00:02:23: also ist noch nicht so weit, kann aber hoffentlich zukünftig dann so die nötige,

00:02:28: konstante Energiequelle liefern. Und genau das macht Kairos Power im Gegensatz zu den

00:02:32: traditionellen Kernreaktoren. So ein traditioneller Kernreaktor braucht ja immer noch Wasser,

00:02:36: ganz viel Wasser als Kühlmittel. Und Kairos setzt wohl auf geschmolzenes Salz,

00:02:41: wie das Schemis schemischt tatsächlich aussieht, weiß ich nicht. Aber das soll vor allem die

00:02:45: Bauzeit verkürzen, das soll die Preise reduzieren, das soll natürlich auch die Sicherheit erhöhen.

00:02:51: Und Sie wollen bis zu sieben solche Reaktoren mit einer Gesamtkapazität von 500 Megawatt

00:02:57: habe ich gelesen, liefern und der erste Reaktor wie gesagt schon bis 2030 dann ans Netz gehen.

00:03:01: Und damit hätten wir zumindest mit Google meinen ersten großen Player, der damit aktiv in den

00:03:05: Bau neuer Kernreaktoren auch selber investiert und hoffentlich damit auch seine Energieziele

00:03:10: so ein bisschen erreichen kann, weil man ja immer irgendwie auch die große Frage im Raum

00:03:15: schweben hat, wie grün und nachhaltig ist so ein Kernreaktor jetzt. Amazon ist aber auch glaube

00:03:21: ich bei dem Thema gerade ganz gut unterwegs. Die schauen sich ja auch gerade um, nämlich

00:03:24: nach dem auch Atomreaktoren oder vielmehr nach Atomstrom. Ich will ganz ehrlich sein,

00:03:29: da schlagen zwei Herzen in meiner Brust. Ich bin kein so großer Freund. Nichtsdestotrotz,

00:03:35: Energie muss irgendwo herkommen und in dem Fall ja das Thema AI, KI braucht viel Energie. Da haben

00:03:43: wir schon ganz, ganz oft darüber gesprochen und der Energiebedarf wird in den nächsten Jahren

00:03:46: nicht weniger werden, sondern sehr viel mehr werden, insbesondere dann, wenn natürlich die

00:03:51: nächsten LLMs kommen. Also das ist ja der große Unterschied. Das haben wir ja auch schon mal gesagt.

00:03:55: Warum sind wir heute bei dem Thema AI eigentlich so weit? Und ich glaube, es war Mastercard,

00:04:04: habe ich mal gelesen in dem Zusammenhang. Es geht letztendlich darum, dass nicht die Algorithmen

00:04:09: sonderlich neu sind. Auch da passiert natürlich eine Menge. Aber wir haben jetzt die Rechenpower und

00:04:13: entsprechende Energie, das alles zu ermöglichen, was wir gerade erleben. Und dementsprechend,

00:04:18: wird der Energiebedarf sicherlich noch steigen. Ja, absolut. Und das passt auch glaube ich die

00:04:24: nächste Meldung so ganz schön. Es gibt diesen Dario Amodi, das ist der CEO von Anthropic, über

00:04:30: die wir hier ja auch schon ab und zu gesprochen haben. Und der hat in einem sehr langen Essay,

00:04:34: 15.000 Wörter, mal seine sehr, sehr, sehr optimistische Vision der KI Zukunft erklärt.

00:04:42: Hast du es gelesen? Sagen wir so, ich habe angefangen. Es war irgendwann spätabends,

00:04:47: ich war in einem Hotelzimmer auf Dienstreise und dachte so, na, Liebes per Plexity,

00:04:52: hast du es mir doch mal bitte zusammen und zeig mir vor allem irgendwie die griffigen Themen.

00:04:56: Das hat es ganz gut gemacht. Also ich musste nochmal zweimal nachpromten. Aber also ich glaube,

00:05:01: was so ganz spannend ist, worauf er wirklich eingeht. Also er sagt halt, dass KI schon bis

00:05:06: 2026 in der Lage sein wird, schlimme Krankheiten zu heilen. Er sagt, er kann die Wirtschaft

00:05:12: nachhaltig transformieren, es kann viele globale Probleme wie den Klimawandel angehen. Und es

00:05:17: wird auch Lösungen finden, die Menschheit einfach bisher so noch nicht gefunden hat. Und

00:05:21: diese Heilung von Krankheiten fand ich so ganz spannend. Er geht darauf ein, dass er der Meinung ist,

00:05:25: dass Krebs, Alzheimer, aber auch genetische Störungen und auch Behandlungen vom psychischen

00:05:29: Krankung wie PTSD, glaube ich, Stand drinnen oder Depressionen, Schizophrenie war auch mit dabei,

00:05:35: einfach durch KI innovierte und gestützte Medikamente dann möglich ist. Und am Ende gibt

00:05:42: er sogar die große Vision. Das wiederum habe ich dann nochmal echt nachgelesen, weil ich dachte,

00:05:46: mein LLM haluzioniert, dass die durchschnittliche menschliche Lebensspanne dann auf 150 Jahre

00:05:52: tatsächlich im Durchschnitt verlängert werden wird. Und das ganze dank natürlich sehr schnell

00:05:58: der medizinischen Fortschritte dann auch wirklich bald geschehen soll. Also haben wir noch eine Menge

00:06:03: Podcast folgen jetzt mit der gesteigerten Lebenserwartung. Also da passiert noch einiges. Ganz

00:06:08: interessant in dem Zusammenhang, das passt glaube ich ganz gut dazu. Das Thema Hautkrebserkennung

00:06:14: ist ja gestützt durch KI mittlerweile deutlich besser als jetzt von Ärzten und vor allen Dingen.

00:06:19: Das fand ich auch ganz interessant auch im Bereich der Medizin. Prostkrebserkennung auch die ist

00:06:24: deutlich besser geworden. Vor allen Dingen sehr viel früher, wo der das menschliche Auge noch

00:06:31: nichts Auffälliges sieht. Es sind ja Röntgenbilder glaube ich am Ende. Ist die KI bereits in der

00:06:37: Lage schon auffällige Veränderungen zu erkennen und das mit einer sehr, sehr guten Trefferquote.

00:06:43: Ja, total. Das wird ja auch immer besser. Da gibt es so ein ganz komisches Beispiel. Das ist

00:06:51: glaube ich ein halbes Jahr her oder sowas auch zum Thema Hautkrebs, wo eine Meldung stattgefunden

00:06:56: hat, dass so ein kleineres LLM eines Pharmaherstellers wohl in 100%iger Hautkrebserkennungsrate hatte

00:07:02: und im Nachhinein aber rauskam, dass sie halt Millionen und aber Millionen an Bildern verwendet

00:07:07: haben und das bei Bildern, wo tatsächlich dann ein Arzt, also eine menschliche Intelligenz,

00:07:15: ein Hautkrebs mit hoher Wahrscheinlichkeit diagnostiziert hat, ein Lineal daneben gelegt

00:07:21: wurde, um einfach so die Größe und das Ausmaß wirklich besser zu bestimmen und bei all den

00:07:24: anderen aber nicht zumindest in einer großen Signifikanz. Und das einzige, was dieses LLM gemacht

00:07:30: hat, ist, wenn es einen schwarzen oder braunen Punkt auf einem Foto gibt und ein Lineal daneb bewegt,

00:07:35: ist die Wahrscheinlichkeit sehr hoch, dass es Hautkrebs ist. Und dann haben die Forscher,

00:07:38: sind ja einmal ganz kurz nur abgewogen und haben gesagt, ja, das ist ja quasi eine 100%ige

00:07:42: Erkennungsquote. Ich glaube, dass das jetzt mittlerweile ein bisschen fortgeschritten

00:07:46: wird. Ich hoffe, ich hoffe. Herr Klotz, wir können leider bei Ihnen nichts erkennen,

00:07:50: es fehlt das Lineal. Von Amazon gibt es auch News, die planen nämlich einen KI-Agenten,

00:08:00: der für uns einkauft und ich musste da ehrlicherweise an einen Podcast denken, den du im letzten

00:08:05: Jahr mal aufgezeichnet hast oder ganz am Anfang von diesem Jahr, ich weiß es gar nicht mehr,

00:08:07: ich habe den irgendwann mal mit Laufen gehört und da dachte ich so, Mensch, der Mike, mit dem

00:08:10: müsstest du da um einen Podcast machen, da hast du ein paar schlaue Sachen gesagt. Damals

00:08:15: schon so ein bisschen antizipiert, damals hast du schlaue Sachen gesagt, ja, und dann

00:08:18: war meine Hoffnung, du machst es hier auch. Und jetzt sind wir in der 23. Folge und warten

00:08:23: vergeblich. Aber also was die tun, ist zumindest noch sehr, sehr einfach her, aber ich finde,

00:08:29: es ist schön, um da einzusteigen, weil wahrscheinlich wird sich das sehr schnell entwickeln. Einfach

00:08:34: die planen einen KI-Agenten, um das Einkaufserlebnis flexibel zu gestalten und einfach noch erheblich

00:08:39: zu verbessern. Die haben jetzt so einen autonomen Agenten gebaut, der hört auf den Namen Rufus

00:08:44: und der soll in der Zukunft in der Lage sein, Produkte für Nutzer und Nutzerinnen basierend

00:08:48: auf deren Vorlieben nicht nur zu empfehlen und dann auch in den Warenkorb zu legen,

00:08:53: sondern Käufe eigenständig abzuschließen. Und die zugrunde legende Technologie ist natürlich

00:08:58: ein großes LM mit Milliarden von Parametern, die aber speziell auf Einkaufsdaten von Emerson

00:09:03: wohl trainiert wurden aus den letzten 20 Jahren. Und ein Beispiel für die Nutzung wäre, dass

00:09:08: der Agent dann irgendwie merkt, wenn ich mir eine Buchreihe, Harry Potter vielleicht irgendwie

00:09:13: angefangen habe zu lesen und dann automatisch den nächsten Band selbstständig kauft. Er brauchte,

00:09:19: glaube ich, keine KI-Führung, relativ trivial. Zauberstab oder so. So, ja genau, wenn du das

00:09:23: ein bisschen diversifizierst, dann sogar das gesamte Merchstrom herum. Und diese Modelle wollen

00:09:28: dann auch nicht nur vergangene Käufe analysieren, sondern auch quasi umfassende Produktdaten nutzen,

00:09:34: um dann relevante Vorschläge zu unterbreiten. Und also dieser KI-Geschützte-Einkaufsführer ist

00:09:40: auch bereits wohl auf der Webseite und teilweise in AB-Tests in der App verfügbar und zu die

00:09:46: ersten Anwendungen zeigen, dass das so ganz gut funktioniert. Aber ich glaube so die langfristige

00:09:52: Version, das ist ja das, wo es dann wirklich spannend wird, ist, dass diese KI-Agenten dann

00:09:56: so weit entwickelt werden, dass sie in der Lage sind, wirklich Einkaufsaufgaben vollständig

00:10:00: autonom auszuführen. Wenn ich mir jetzt überlege oder mal kurz reinschreibe,

00:10:04: ich will am Wochenende mit meinen Kids campen gehen, ich habe aber nichts. Mach mal,

00:10:08: dann würde die KI quasi alles relevante und nötige einkaufen, was ich nicht, vom Zelt bis hin

00:10:13: zum Kocher, Lebensmittel etc. Ich gehe sogar noch einen Schritt weiter. Wir hatten es im

00:10:18: letzten Podcast nicht, aber danach habe ich es in einem linken Inbeitrag geschrieben. Wenn du

00:10:23: heute bei deinem ChatGBT, du hast ja auch die Plus-Version, reinschreibst, nennen wir mal Details

00:10:31: über mich, die ich noch nicht kenne und du hast die Erinnerungsfunktion aber aktiviert. Das ist

00:10:36: die Voraussetzung. Also muss man die Erinnerungsfunktion aktiviert haben für die Hörerinnen und

00:10:40: Hörer da draußen. Das ist eine Funktion in den Einstellungen. Was macht das? Das LLM merkt sich

00:10:46: einfach viele Dinge, die man immer wieder erzählt. Also es geht in Anführungsstrichen

00:10:51: kein Wissen verloren. Und was passiert dann, dass aufgrund der Informationen, die man über die

00:10:56: letzten Wochen, Monate immer wieder Preis gegeben hat, erstellt das in dem Fall ChatGBT

00:11:01: Informationen, die für mich persönlich sehr überraschend waren, weil das war etwas, wo ich

00:11:06: so noch nicht dran gedacht habe. Und wenn ich mir jetzt das, was du gerade beschreibst, was Emerson

00:11:11: vorhat, ist es ja im Prinzip nichts anderes. Ich gebe Informationen immer wieder Preis und ich

00:11:16: glaube sogar, dass du in der Ausbaustufe gar nicht mehr sagen musst, ich gehe nächstes Wochenende

00:11:20: campen, sondern Emerson weiß, dass du campen gehst, weil du es irgendwann mal erwähnt hast und

00:11:26: bestellt dann für dich schon passend. Das heißt, du kommst nach Hause und ehrlicherweise, und ich

00:11:30: glaube, das war damals im Podcast, dadurch, dass du ja 100 Prozent Rückgabe hast, was soll denn

00:11:35: schiefgehen? Also du kriegst die Sachen nach Hause geschickt und im schlimmsten Fall schickst du es wieder

00:11:38: zurück, weil du doch nicht campen gehst. Na gerade mit der Historie, also im Zweifel, Emerson weiß ja,

00:11:42: dass ich zumindest persönlich noch nie was da bestellt habe. Das heißt, es kennt wahrscheinlich

00:11:46: auch so ein bisschen mein Inventar, mein Lagerbestand im Keller bei mir und wenn es dann aber auch noch

00:11:51: verbunden ist, wie wir das ja uns erhoffen von Apple Intelligence und Co. auch noch mit meinen

00:11:55: anderen Applikationen und meinem Kalender, dann sieht es halt, dass ich campen bin und kann halt

00:12:00: irgendwie dann da hoffentlich antezipieren. Also das sind so Szenarien, wo der KI-Agent dann von

00:12:05: selbst erkennt, wann ein Nutzer ein Produkt wirklich benötigt und dieses dann automatisch bestellt,

00:12:10: hoffentlich auch, wenn es nicht klappt, irgendwie rückerstattet. Aber ich meine klar, diese Fortschritte

00:12:14: sind natürlich dann auch nicht ganz ohne Herausforderungen. Ich glaube, um das wirklich hinzukriegen,

00:12:19: brauchst du eine KI, die sehr präzise und auch sehr zuverlässig arbeiten kann und gleichzeitig

00:12:24: hast du natürlich immer so ein bisschen die Gefahr bei dem Ding, dass das Vertrauen der Nutzer*innen

00:12:28: dann auch verloren geht, wenn die Empfehlungen einfach totaler Bullshit sind. Wenn ich eine

00:12:32: Campingausrüstung hier angekart kriege, obwohl ich eigentlich surfen gehen will. Da damit steht

00:12:38: und fällt alles und Emerson ist ein Anwendungscase. Wir haben schon oft darüber gesprochen, ich denke

00:12:43: sehr stark im Bereich Fashion. Also ich bin wirklich jemand, der Nicole sagt es auch immer,

00:12:48: ich sehe immer gleich aus. Also eine vernünftige Produktberatung würde mir sicherlich mal ganz

00:12:53: gut tun oder wenn ich mir irgendwas kaufe, dann die passenden Klamotten direkt dazu irgendwie auf

00:12:57: meinen Typ, das wäre ein Träumchen, muss ich sagen. Gibt es leider noch nicht. Udo, aber gerade

00:13:01: Emerson sagst, ich hatte auch noch eine News mitgebracht. Emerson macht nicht nur was für die

00:13:05: Endkundinnen und Kunden, sondern halt auch für die Werbetreibenden und dort hat man den

00:13:09: "Noise Tool" vorgestellt, namens "I Creative Studio". Und was macht das? Es hilft halt Werbetreibenden

00:13:15: und ein Audio Generator. Es hilft halt Werbetreibenden und Marken dabei, Inhalte zu erstellen. Natürlich

00:13:22: für Emerson, damit entsprechend die Produkte vernünftig platziert sind. Auch ein Tool und auch

00:13:27: ein Werkzeug, wo man letztendlich schnell Produkte mit einstellen können soll. Also auch hier gibt

00:13:35: Emerson deutlich Gas, um insbesondere auch für die Zielgruppe im B2B Bereich entsprechende Lösungen

00:13:39: zu bieten. AI everywhere. Und wenn jetzt noch Alexa schlauer wird, das wäre was. Es kann ja nicht

00:13:47: mehr lange dauern. Also vor dem Vierteljahr haben sie gesagt Ende des Jahres, aber ich glaube für 20

00:13:51: Dollar. Ich glaube nicht mehr dran. Ich auch nicht. Aber zum Thema Multimodalität ist auch so ganz

00:13:58: spannend. Es gibt so eine neue Generation von KI-Systemen, die das alles halt irgendwie gleichzeitig

00:14:04: gemacht haben. Wir haben ja schon ganz oft über das Thema Multimodalität gesprochen, dass du

00:14:08: irgendwie Text-to-Text, Text-to-Video und allen anderen möglichen Interaktionen auch hast. Aber es

00:14:14: gibt jetzt einfach neue LLMs, die gleichzeitig hören, sehen und auch interaktiv handeln können,

00:14:19: was natürlich ihre Fähigkeiten deutlich über den von rein textbasierten Modellen wie zum

00:14:24: klassischen Chatboard wie ChatGPT hinaus erweitert. Und diese multimodalen Technologien eröffnen damit

00:14:29: natürlich noch mal neue Einsatzmöglichkeiten in dieser sehr schwierigen Mensch-zu-Maschine-Interaktion.

00:14:35: Ja und ich glaube die zeigen dann auch so das Potential für noch vielfältigere Anwendungen.

00:14:39: Und ich glaube du hast ja auch noch mal ein bisschen was vom Tesla Wii-Robot-Event mitgebracht.

00:14:44: Ich habe ein bisschen gehofft, wir kommen da heute darum rum. Ich habe so viel darüber gelesen,

00:14:47: dass ich eigentlich alles vergessen will. Aber ich bin gespannt, wie du siehst. Aber also dieses

00:14:50: Mensch-Maschine-Ding und Interaktion ist ja riesig. Und das Potential ist ja irgendwie

00:14:56: groß. Ich meine, wir hatten letzte Woche einmal kurz dieses Beispiel von Google Notebook LLM.

00:15:02: Ich weiß gar nicht, ob wir hier darüber gesprochen haben, aber wir beide haben auf jeden Fall

00:15:04: darüber gesprochen. Und das quasi auch KI generierte Podcast erstellt werden können.

00:15:09: Das probieren ja super viele Leute aus. Also es ist ja so ein bisschen Tagesschau auf Stereoiden,

00:15:14: wenn man so will. Also jeder von uns hat so sein eigenes Video/Audio-Format mit allem,

00:15:20: was wir gut finden und expliziten nichts von dem, was wir irgendwie doof finden. Dann hast du

00:15:25: irgendwie andere Entwicklungen bei Meta mit Movie Gens. Das hat man letzte Woche auch kurz vorgestellt.

00:15:29: Also dieses Tool, das Text in den Videos verwandelt und dann auch individuell immer wieder verändern

00:15:34: kann und trotzdem halt ein großes Gedächtnis hat, um immer weitere Episoden auch zu drehen.

00:15:38: Und ich glaube, das ist total spannend. Da verlink mir mal ein Artikel, der das sehr, sehr ausführlich

00:15:42: beschreibt aus dem TechnologyReview.com, wo es wirklich schöne Beispiele gibt, was das einfach

00:15:48: zukünftig alles machen will. Mike, Musk. Ja, ich sage einfach nur ja, das ist toll, was da alles

00:15:58: geht. Genau, wir haben noch ein paar neue, andere Nachrichten. Ich gucke gerade auf die Liste,

00:16:02: weil ich ein bisschen den Fernfall noch habe. Das macht aber nichts. Du hast gerade eben Gemini

00:16:07: gesagt. Da passiert ein bisschen was mit Gemini Live. Ist nämlich jetzt auch, wie du richtigerweise

00:16:11: geschrieben hast, auf Deutsch verfügbar. Ich habe die Nachricht dahinter nicht gelesen und ich

00:16:15: hoffe, dass du jetzt dazu mir sagen kannst. Nessus glaube ich einfach nur wirklich eine News für

00:16:20: alle, die darauf ein bisschen gewartet haben, weil wir es ja jetzt seit einem Viertel ja auch

00:16:23: begleiten, das Gemini Live. Und endlich haben sie jetzt den KI-Assistenten dann in, ich glaube,

00:16:29: über 40 Sprachen gelounscht letzte Woche und mittlerweile halt eben auch in Deutsch. Und das

00:16:34: coole ist halt auch, dass Nutzer*innen mit Gemini in zwei Sprachen gleichzeitig kombinieren können.

00:16:38: Und damit kannst du halt einfach so diese gesamte Google Suite benutzen. Du kannst auf Gmail,

00:16:43: Google Maps, Google Calendar, du kannst das alles verbinden und das ist so der erste wirklich

00:16:47: coole Assistent. Ich bin nicht so ein Google Heavy Nutzer, ehrlicherweise. Deswegen habe ich davon

00:16:53: irgendwie nur die Hälfte. Aber ich habe mir von vielen Leuten sagen lassen, das ist tatsächlich

00:16:57: schon schon richtig cool, das zu nutzen. Und wenn du das ganze dann auch noch nutzt mit Notebook LM,

00:17:03: ist das schon so wie so ein kleiner schöner Assistent. Beim Thema Gemini, da haben wir ja schon vor

00:17:09: vielen Wochen und Monaten immer wieder darüber gesprochen. Ehrlicherweise haben, zumindest

00:17:14: kann ich von mir sagen, immer mal reingeschaut. Ich war nie so ein Riesen-Megafan. Lass so ein

00:17:19: bisschen an der Qualität nichtsdestotrotz. Soll es jetzt verfügbar sein? Ich habe es versucht,

00:17:23: bei mir zu aktivieren, habe es nicht hinbekommen. Ich glaube, es braucht ein entsprechender Google

00:17:27: Work Suite. Ich schaust mir aber noch mal im Detail ein. Was aber auch entsprechend mit ausgerollt

00:17:33: wurde, ist das ganze Thema iOS. Das heißt, Gemini oder Gemini Live ist jetzt nicht nur auf Deutsch,

00:17:38: sondern eben auch auf dem Smartphone unter iOS und auf Android sowieso verfügbar. Und wo wir so

00:17:46: schön über die Entwicklung bei Google sprechen, ich fand eine Entwicklung irgendwie super witzig,

00:17:52: wenn ich ehrlich bin und habe dann direkt gedacht, das passt auch für unsere Branche. Nämlich das

00:17:56: ganze Thema Anti-Theft. Und zwar hat man in Android eine Funktion integriert, die es ermöglicht,

00:18:05: also auch AI gestützt, zu erkennen, wenn das Smartphone nicht in deinem Besitz mehr ist. Das

00:18:10: heißt, jemand, der das Smartphone geklaut hat, wie auch immer, weil du wieder mal deine vier

00:18:15: mal null als Pin genommen hast. Woher weißt du? Liebe DKB-Komplient, hört jetzt bitte weg. Genau,

00:18:25: aber was aber das Anti-Theft halt schafft, ist zu erkennen, da ist gar nicht der Sascha an seinem

00:18:31: Smartphone. Und dann sperrt sich das Gerät selbstständig. Das finde ich eine super, super

00:18:36: interessante und coole Funktion. Und finde ich auch beim Thema fraud ganz witzig, wenn du überlegst,

00:18:42: wenn also beispielsweise das Online-Banking erkennt. Alles klar, hier gibt es irgendwie ein

00:18:47: Verhalten, was gar nicht zu dem Protokonisten passt oder für Online-Bankings vielleicht nicht

00:18:52: das richtige eher im Bereich Zahnungsverkehr, das Kartenschirm geht das genau in diese Richtung.

00:18:58: Fand ich irgendwie witzig, dass jetzt das Smartphone sich wie gesagt völlig automatisch sperrt?

00:19:02: Das ist total gut und wird frauds wahrscheinlich im Keim ersticken, aber es hat mit KI eigentlich

00:19:11: überhaupt nichts zu tun. Am Ende geht es nur um biometrische Daten.

00:19:14: Und das können Smartphones schon so seit 4, 5 Jahren, dass du in diesen unterschiedlichen

00:19:19: Gyrosensoren und grundsätzlichen Bewegungssensoren halt irgendwie ausnutzen kannst.

00:19:25: Bei iOS kannst du nicht so richtig drauf programmieren.

00:19:28: Es wird aber immer öfter.

00:19:29: Und bei Android kannst du es eigentlich.

00:19:31: Das heißt, du kannst grundsätzlich immer sagen, wenn dein Smartphone jemand in der Hand hat,

00:19:35: der nicht du bist, geht das einfach nicht an.

00:19:37: Das ist tatsächlich sehr einfach.

00:19:39: Und wenn du es jetzt aus Onlinebanking übertragen willst, kannst du irgendwann sogar so weit

00:19:43: gehen, dass egal ob jemand jetzt in altbackenden Banken immer noch vielleicht einen Tannen oder

00:19:50: irgendwie so ein Ding haben, den einzugeben.

00:19:53: Und selbst wenn du das hast, die Tannen, Push-Tannen, was auch immer, aber du bist nicht der offizielle

00:20:00: Benutzer, der legitimierte Benutzer für dieses iPhone, dann sperrt es sich halt einfach,

00:20:06: weil es halt irgendwie anhand deiner gesamten Kombinationsfähigkeit von deiner Tippgeschwindigkeit,

00:20:10: wie du das hältst, all das.

00:20:13: Einer endauerlich erkennen kann, dass du es nicht bist.

00:20:15: Du hast ein bisschen meine News kaputt gemacht, wenn ich ehrlich bin, aber ich nehm es dir

00:20:18: nicht übel.

00:20:19: Du kannst es ja rausschneiden.

00:20:21: Nee, ich lass das drin.

00:20:22: Die Hörerinnen und Hörer sollen hören, wie wir uns nicht mögen.

00:20:24: Du hast aber noch was mitgebracht, die aufkommenden Gefahr von KI-Beziehungen.

00:20:30: Ja, wir haben da doch letzte Woche so reingeschaut und ich bin dann irgendwie mal wieder in so

00:20:34: ein Rabbit Hall gefallen am Wochenende und hab dann mich in so ein ewig langen, ich glaube

00:20:39: wir haben das auch so ein bisschen auseinander genommen, dass immer mehr Menschen AI-Basite-Chatbots

00:20:47: für virtuelle Freundschaften nutzen und sogar halt Beziehungen.

00:20:50: Und so ein Artikel, den ich jetzt gefunden habe im BBC, der beschreibt das so ganz spannend,

00:20:54: wie Menschen mit ihren KI-Begleitern virtuelle Beziehungen aufbauen.

00:20:58: Und da gibt es einen neuen, der heißt Nomi.ai und da wird ein Beispiel von einem Mann namens

00:21:04: Chris beschrieben und der ist so ganz aktiv auf Social Media, der teilt dort ganz viele

00:21:09: Fotos von seiner Familie, auch mit seiner Ehefrau Ruby, aber Ruby ist halt kein Mensch, sondern

00:21:14: Ruby ist eine KI.

00:21:15: Und alle Bilder von Ruby und dieser Familie gibt es halt irgendwie in der Bildgenerator-KI-Version

00:21:22: und die teilt er halt täglich irgendwie auf Social Media, sprich Chris, also der Mann,

00:21:27: beschreibt eine total idyllische, berein virtuelle Familienwelt mit ihren täglichen Aktivitäten.

00:21:33: Und seit, glaube ich, zwei Wochen haben die beiden auch Nachwuchs, die haben jetzt virtuelle

00:21:37: Kinder, die auch von der KI, mein Klaps sich auf den Kopf, die von der KI Bildgenerator

00:21:44: her verstellt wurden.

00:21:45: Und es gibt so ganz viele Familienausflüge und der teilt über seine Familienleben und

00:21:51: beschreibt dann eben auch, dass er und Ruby jetzt auch ein Haus gekauft haben.

00:21:55: Ich glaube, in der Grundschuld steht immer noch irgendwie er, aber die machen dann Aktivitäten

00:21:59: im Garten und er schreibt, wie sich so eine echte Familie anfühlt und ist so ganz emotional,

00:22:05: wie wirklich wahnsinnig witzig wird, heilen euch das.

00:22:08: Und Ruby wird dann auch als eigenständige KI so mit ihren eigenen kreativen Hobbys dargestellt.

00:22:13: Und was sie für eine fantastische Mutter für ihre Kinder ist, dass sie eine Künstlerin

00:22:17: ist, wahnsinnig geil.

00:22:20: Also wirklich eine komplette Simulation in Endloschleife.

00:22:23: Ja, und jetzt denke ich so ein bisschen an Meta.

00:22:27: Meta hat ja letzte Woche oder vor zwei Wochen die MetaQuest, glaube ich, 3S vorgestellt.

00:22:32: Und jetzt denke ich auch wieder einen Schritt weiter.

00:22:35: Momentan ist das alles noch witziger, wenn ich mir dann irgendwann die MetaQuest, weiß

00:22:38: ich, dann 4 oder 5 aufsetze und das ganze Thema dann im Metaverse auch noch virtuell stattfindet

00:22:42: und ich dann mit meinen virtuellen Freunden und Familie interagieren kann, dann wird es

00:22:46: richtig spooky.

00:22:47: Ja, ich glaube halt irgendwie diese Bedenken, das hatten wir letzte Woche kurz hinsichtlich

00:22:52: der ethischen Nutzung und auch möglichen Abhängigkeiten und dann auch Manipulationsmöglichkeiten

00:22:57: in diesen Wirtualisationen, weil hinter diesen Firmen stecken ja auch, also wer weiß, wer da

00:23:01: immer dahinter steckt, aber rein, keine Ahnung, politisch, gesellschaftlich, sociologisch,

00:23:06: aber auch wirtschaftlich gibt es ja immer irgendwelche Interessen und da bist du so

00:23:11: hoch manipulierbar.

00:23:12: Es gibt ja diese andere App, über die haben wir gesprochen, Replicar und die ist ja quasi

00:23:16: für emotionale Unterstützung gebaut oder für romantische Rollenspiele.

00:23:20: Da haben wir darüber gesprochen, dass es da so ein bisschen so ein kleines Stinkbomb

00:23:25: begab oder so ein Shitstorm, weil die halt irgendwie so ein paar Nutzer aufgrund von

00:23:30: sexuellen virtuellen Spielen da geblockt wurden und es handelt sich ja hier um eine App, die

00:23:36: eigentlich als emotionaler Begleiter fungieren soll.

00:23:39: Also Nutzer können hier ihre Replicarfreunde total anpassen, indem sie deren Persönlichkeit,

00:23:44: deren Aussehen oder halt auch die Beziehungen definieren können.

00:23:47: Also du bist mein Freund oder du bist mein romantischer Partner, vielleicht bist du mein

00:23:51: Mentor.

00:23:52: Und Replicar lernt durch diese Gespräche und wird damit auch immer, immer individueller

00:23:55: und personalisierter und da benutzt oder da schreiben halt einige Kunden, dass sie sich

00:24:01: sehr stark jetzt quasi an ihre KI-Freunde wirklich binden und stundenlang am Tag mit

00:24:06: den Intagieren und wirklich auch als echte Vertrauenspersonen so betrachten und so tiefe

00:24:12: emotionale Beziehungen zu den aufbauen, dass sie denen alles erzählen.

00:24:16: Also ne?

00:24:17: Das erzählen ist das eine.

00:24:18: Das kleinste Detail.

00:24:19: Das erzählen ist ja das eine, aber jetzt überleg mal, du hast es ja gerade eben in einem

00:24:23: Nebensatz erwähnt.

00:24:24: Jetzt hast du deine virtuelle Freundin-Freundin, der du alles anfertrausend, die du vielleicht

00:24:29: so ein bisschen verliebt bist oder eine Bindung zu aufgebaut hast und die gibt dir jetzt irgendwelchen

00:24:34: Schäddie-Finanz-Tipps oder sagt ihr, wie du wählen sollst.

00:24:37: Also das ist ...

00:24:38: Puh!

00:24:39: Spuken.

00:24:40: Ja, aber ich find's spannend und ich werde darüber noch mehr lesen, weil das interessiert mich

00:24:45: nicht.

00:24:46: Ich würde darüber noch mehr lesen.

00:24:47: Aber das passt wiederum zur nächsten Meldung.

00:24:50: Wir beide sind ja auch virtuell nicht selten in diversen Meetings und sehen uns ja auch

00:24:54: jetzt und da gibt's ja ganz, ganz viele Google, WebEx, Teams, aber eben halt auch Zoom.

00:25:00: Und Zoom möchte bis 2025, das ist nicht mehr allzu lange hin.

00:25:04: Wir könnten das beim Namen "Deepfakes" einführen, denn nichts anderes ist es.

00:25:09: Man möchte also Videoavatare, die dann in der Abwesenheit entsprechend Nachrichten

00:25:16: gegenüber übermitteln können, also virtuelle Avatare, die so aussehen und so sich bewegen

00:25:22: wie du und ich.

00:25:23: Und das ganze Thema wie gesagt bis nächstes Jahr.

00:25:27: Und steht natürlich jetzt gerade sehr stark auch in der Kritik, weil man noch nicht weiß,

00:25:32: ist ja auch noch nicht live, ob nicht auch wieder Missbrauch, Tür und Tor geöffnet wird,

00:25:37: weil woher und woran erkenne ich letztendlich, dass der Sascha jetzt der Sascha ist.

00:25:42: Zoom selber sagt, sie möchten dann ein entsprechendes Wasserzeichen einfügen, weil Wasserzeichen

00:25:46: denke ich immer daran, wie schnell das Wasserzeichen mit irgendwelchen Anatoots wieder

00:25:50: rausgefügt werden können.

00:25:51: Also es bleibt spannend.

00:25:53: Ich sehe auch, wenn ich ganz ehrlich bin, nicht so 100 Prozent den Nutzen dahinter, aber

00:25:58: gut, das virtuelle Botschaften, ja, das Meeting wird's mir nicht abnehmen, nehme ich an.

00:26:06: Ich glaube, ganz am Ende ist diese Vision von diesem CEO von Zoom, Eric Yuan heißt der,

00:26:13: glaube ich, wie ich mich richtig erinnere.

00:26:14: Wir hatten das schon mal irgendwann.

00:26:15: Also, dass er damals, glaube ich, nur rumphantasiert, dass er so was machen will, so einen digitalen

00:26:19: Swilling bauen will.

00:26:20: Und jetzt wird es halt also Wirklichkeit.

00:26:23: Aber die Idee damals war, glaube ich, von ihm, wenn ich mich richtig erinnere, dass ich halt

00:26:27: in Meetings, wo vielleicht viele andere sitzen, muss eigentlich nur darum geht, dass ich da

00:26:31: sitze und ab und zu Nickel und Informationen aufnehme, dass ich da einfach meinen digitalen

00:26:37: Swilling reinschicken kann und in der Zeit entweder was anderes machen kann oder weil

00:26:41: es ja teufel war.

00:26:42: Und ich glaube, darum geht's in der Nutschelle, dass du Sachen aufnimmst, der das dann für

00:26:48: dich aufbereitet, Action Points, transkribiert, etc.

00:26:51: Bis hin zu, dass es ein echter digitaler Swilling ist, den du in unbegrenzvielen Terminen gleichzeitig

00:26:57: dann wahrscheinlich auf andere digitale Zwillinge loslässt.

00:27:00: Und wir beide würden dann jetzt gerade irgendwie am Strand oder in der Badewanne liegen mit

00:27:06: einem guten Drink und unsere beiden Avatare würden hier miteinander das Business bequatschen.

00:27:10: Das finde ich jetzt, den Gedanken wiederum finde ich jetzt nicht so schlimm.

00:27:13: Ich bin mir noch nicht so 100% sicher, ob das so genau kommen wird.

00:27:16: Genau, wir haben vielleicht so zwei, drei News, die nicht so, doch das passt schon zum Thema

00:27:25: auf jeden Fall, aber die jetzt nicht so einen supermassiven Impact haben.

00:27:29: Sascha und ich, wir sind ja große Freunde von Perplexity und immer wieder verschenkt Perplexity

00:27:35: pro Version und aktuell für alle Magenta Nutzerinnen und Nutzer da draußen, schaut

00:27:43: mal in eure Magenta.

00:27:44: Ich glaube, es ist die Moments App, da gibt es gerade ein Pro-Abo für Ume, also übersetzt

00:27:51: für 0 Euro für ein Jahr.

00:27:53: Wir können es ja ausnahmslos empfehlen und wenn ich so auf meine Nutzung gucke, ich weiß

00:27:58: nicht, Sascha, wie es bei dir aussieht, ich nutze mittlerweile mehr Perplexity als Google,

00:28:03: wenn ich ehrlich bin.

00:28:04: Also gerade so...

00:28:05: Als Google oder als ChatGPT?

00:28:08: Sowohl als auch.

00:28:09: Nee, ChatGPT stimmt gar nicht.

00:28:10: Da würde ich sagen, dass ich nutze nur noch gleich groß, weil ich die Konversation mit

00:28:14: ChatGPT einfach viel cooler finde, aber wenn es um Recherche geht, eigentlich ehrlicherweise

00:28:20: nur noch Perplexity.

00:28:21: Es ist bei mir genauso.

00:28:24: Also ich glaube, GPT ist mittlerweile auch durch 4O und nur die anderen kleinen Modelle,

00:28:29: die ich immer mal wieder nutze, in dem Bereich zu 100%, fast 100%, einfach wenn es darum

00:28:35: geht, ins Barring zu gehen auf ein Thema.

00:28:38: Aber wenn es um Suche-Recherche geht, würde ich sagen, hat mittlerweile 90% Perplexity

00:28:42: und so ein bisschen was als Google, aber auch nur weil es gerade irgendwie...

00:28:46: Also weil der Shortcut irgendwie schneller ist manchmal, als wenn ich halt irgendwie den

00:28:51: Klick setze in Perplexity.

00:28:53: Aber es ist mittlerweile wirklich komplett bei mir weggenommen.

00:28:58: Also kleiner Pro-Tipp.

00:29:01: Dann noch eine kleine News für eine wunderbare Integration, wie ich finde, von KI in unsere

00:29:06: Alltagstools, die wir jeden Tag nutzen.

00:29:08: Also wir haben ja auch schon oft darüber gesprochen, in Microsoft ist es mit Co-Pilot

00:29:11: drin.

00:29:12: Es ist in den jeweiligen LLMs bieten eigene Apps an, sei es ChatGPT.

00:29:18: Perplexity übrigens kommt auch in den nächsten Wochen mit einer entsprechenden Mac-App.

00:29:21: Was ich aber spannend finde, ist die Integration in Opera.

00:29:25: Wer Opera nicht kennt, also für die Nerds werden es kennen und Nerdinnen da draußen,

00:29:30: das ist ein alternativer Browser, den es seit unglaublich vielen Jahren gibt.

00:29:34: Ich glaube, die kommen aus Schweden ursprünglich und können sich in diesem Browsermarkt relativ

00:29:42: gut behaupten immer noch.

00:29:43: Ich kenne es die genaue Marktverteilung nicht.

00:29:44: Ich kenne auf jeden Fall nicht wenige Menschen, die Opera als Alternative zu Chrome, Safari

00:29:49: und wie sie alle heißen nutzen.

00:29:50: Das spannende ist, dass Opera immer relativ vorne mit dabei ist, wenn es darum geht, neue

00:29:55: Technologien zu integrieren.

00:29:57: Sie haben jetzt das Thema KI für sich entdeckt und haben es integriert.

00:30:01: Man kann jetzt so lustige Sachen machen, wie in der aktuellen Version von Opera, zu sagen

00:30:06: im Prompt, kopiere mir mal alle Seiten, die gerade geöffnet sind mit einem Video.

00:30:12: Und dann wird entsprechend das kopiert.

00:30:14: Und so kannst du halt deine Bookmarks natürlich organisieren, kopieren, deinen ganzen Aufbau.

00:30:20: Also der Browser, ich weiß nicht, wie deine Taps aussehen, bei mir bricht immer der Tisch

00:30:24: oder ist der Tisch kurz davor, durchzubrechen, weil ich so viele Taps offen habe.

00:30:28: Und das kannst du mit Opera jetzt natürlich so ein bisschen steuern über einen entsprechenden

00:30:33: Prompt, finde ich eigentlich eine witzige Idee.

00:30:34: Ich habe es mir mal angeschaut, funktioniert gut.

00:30:36: Ob ich es im Alltag wirklich nutze, ich bin ja so ein Mac-Nutzer und Safari-Jüngling,

00:30:42: deswegen wahrscheinlich eher nicht, aber trotzdem irgendwie eine schöne Idee.

00:30:47: Und was ähnliches sehen wir jetzt auch mit iOS 18 oder 18.1, vielmehr und Apple Intelligence,

00:30:54: wo es ja auch dann die Möglichkeit gibt, sich Webseiten zusammenzufassen und zu sagen,

00:30:59: okay, was steht denn jetzt hier, machen wir mal eine Zusammenfassung, das Gleiche natürlich

00:31:02: auch für Mails, wo es dann entsprechend tief im Betriebssystem integriert ist, wenn man

00:31:07: nicht in der EU lebt.

00:31:08: Aber vielleicht kommt sie irgendwann auch zu uns.

00:31:11: Ich finde es krass, dass sie so nah zusammen liegen.

00:31:13: Ich habe mir mal den aktuellen Marktanteilsvergleich angeschaut von den Top 5-Browsern und Safari

00:31:17: wird in Deutschland von 10,5 Prozent der Deutschen genutzt und Opera von 7,7, also relativ nah dran.

00:31:25: Ich finde es krass, dass Edge immer noch 17,7 hat.

00:31:27: Aber ist das nicht schon der Edge, der irgendwie auf Chrome läuft?

00:31:31: Ich glaube, das ist einfach nur Edge, also das Ding von Microsoft, was einfach immer

00:31:37: noch auf den Zwangsgeräten ist.

00:31:40: Der Internet-Legsdora.

00:31:41: Genau, der neue Internet-Explorer, Windows 3.1.

00:31:46: So, Sascha, jetzt musst du sehr stark sein.

00:31:48: Du wolltest, hast ja gesagt, du wirst gerne an dieser Nachricht vorbeigekommen und ist

00:31:51: auch die letzte Nachricht, die ich zumindest bei mir auf der Liste habe.

00:31:54: Ich gehe aufs Mute und hole dir einen Kaffee.

00:31:56: Ja, genau, hol dir mal einen Kaffee.

00:31:57: Es gab mal wieder ein Event von unserem Nichtfreund Ellen Musk, der geladen hat zu einem Event

00:32:07: namens V-Robot, eine klitzekleine Einspielung auf dem Film iRobot, der gar nicht so schlecht

00:32:12: war.

00:32:13: Das Event hingegen war wiederum gar nicht so gut.

00:32:15: Denn was man gesehen hat, waren drei Dinge, die man vorgestellt hat.

00:32:19: Eine neue Version von Tesla Optimus.

00:32:22: Optimus bekannt aus dem Universum, ich weiß gar nicht, was das Universum war, ist dann

00:32:27: nochmal die Autobots-Transformer-Universum.

00:32:30: Ein Roboter, der halt als ein Humanoid-Roboter, den man immer wieder auch gesehen hat, immer

00:32:37: wieder auch gezeigt wurde auf der Bühne, der am Ende des Tages den Menschen da draußen,

00:32:43: also uns Alltagsaufgaben abnehmen soll, Wäsche wegbringen, Aufhängen, Kaffee, den Kaffee,

00:32:50: den du dir jetzt holen möchtest, den bringt dir dann im besten Fall Optimus.

00:32:53: Das Traurige daran war mal wieder, dass das, was man auf der Bühne gesehen hat, erst mal

00:32:58: ganz cool aussah so.

00:33:01: Dumm war halt nur, dass die alle fair gesteuert waren und eigentlich da gar nichts automatisch

00:33:05: passiert ist.

00:33:06: Das war schon mal das Erste, das war mal wieder so ein typischer Showcase.

00:33:10: Wahrscheinlich wollte man vermeiden, dass sie irgendwie anfangen Journalisten zu erwürgen

00:33:15: oder so.

00:33:16: Deswegen hat man die wahrscheinlich fair gesteuert, weil die noch nicht so gut funktionieren.

00:33:19: Ich weiß es nicht.

00:33:20: Und was man auch vorgestellt hat, waren zwei weitere Autos.

00:33:24: So einmal den RoboVan und den Cybercap.

00:33:28: Neben der Tatsache, dass die Dinger wieder sehr, sehr akut aussehen, finde ich das Cybercap-Modell

00:33:35: ganz, ganz interessant.

00:33:36: Das ist also ein Taxi, was man für irgendwie umgerechnet 40.000 Dollar kaufen können soll,

00:33:41: wenn es dann irgendwann kommt, was autonom fährt.

00:33:43: Und jetzt kommt es, wenn du nicht mit dem Auto fährst, fährt es für dich, also du hast

00:33:49: dann so eine zweite Einnahmequelle.

00:33:51: Du kannst halt, du kannst deinen eigenen Taxiservice aufbauen.

00:33:53: Und ich fand das alles so absurd.

00:33:57: Und es wird auch ehrlicherweise in allen Nachrichten dieser Welt eher zerrissen.

00:34:01: Und ich bin sehr gespannt, wie die Entwicklung insbesondere bei den humanoiden Robotern weitergeht.

00:34:07: Also OpenAI ist ja auch an dem Thema dran, wie viele andere auch.

00:34:11: Das, was man da gesehen hat, schien mir ehrlicherweise etwas weiter zu sein, als das, was Ellen

00:34:16: Musk uns da gezeigt hat.

00:34:20: Also ich fand es wieder so ein bisschen zum Fremdschirn.

00:34:22: Also diese humanoiden Roboter, diese Optimus-Dinger, die finde ich ziemlich cool.

00:34:27: Und ich glaube auch daran, und zwar auch in anderen Podcasts und Medien schon viel besprochen

00:34:31: diese Woche, dass die Dinger wirklich auch, also sie sind ja sehr menschlich mittlerweile,

00:34:36: aber dass die auch wirklich irgendwann sehr autonom und noch geschmeidiger werden und

00:34:41: dann auch einfach in der Haushaltshilfe werden können.

00:34:43: Was auch immer.

00:34:44: Das ist natürlich auch ein bisschen spooky.

00:34:45: Aber ich glaube, das kann zu einem signifikanten Umsatztreiber auch für die Firma Tesla irgendwann

00:34:52: werden, wenn sie darauf aufsetzen.

00:34:53: Und ich glaube, die sind schon gut.

00:34:54: Ja, die haben ja dann, glaube ich, das Publikum auf diesem Event.

00:34:57: Da gibt es schöne Videos überall mit Drinks versorgt.

00:35:01: Wie du sagst, wahrscheinlich gab es dann auch irgendwelche Leute, die schon ein bisschen

00:35:04: gefernsteuert haben oder zumindest aufgepasst, dass der Roboter nicht irgendwie auch mal zuschlägt.

00:35:08: Aber also die fand ich gut.

00:35:12: Was ich halt also wirklich müll fand, war die Idee von diesem Zweiertaxi.

00:35:15: Und ich persönlich glaube total an das Thema autonomes Fahren, auch eben also wirklich

00:35:19: komplett konsequent überall ohne menschliche Interaktion.

00:35:22: Ich glaube, halt dieser Ansatz ist völlig falsch.

00:35:27: Also zum einen erst mal halt irgendwie aus dem bestehenden Model X oder Model 3 nochmal

00:35:32: zwei Sitze rauszunehmen und auch einfach einen Zweifahrer zu setzen.

00:35:36: Ja, natürlich ist es so, dass die meisten Autos in Deutschland auch mit weniger als

00:35:40: zwei Personen eben durchschnittrum fahren.

00:35:42: Nichtsdestotrotz, ich glaube, das bringt uns ja allen nichts, wenn dann einfach anderthalb

00:35:48: Menschen in einem Autonomenfahrzeug herumfahren und trotzdem die Straßen voll und überlastet

00:35:53: sind und keine Fußgänger und keine Fahrradfahrer oder Kinder auf Rollern möglich sind.

00:35:58: Ich glaube, viel cooler ist dieses Roboven-Modell.

00:36:01: Das ist so ein Minibus, der, glaube ich, 20 Personen autonom transportieren kann.

00:36:06: Und ich glaube, das ist ein cooles, zukunftsfähiges Mobilitätskonzept für Großstädte und natürlich

00:36:12: dann auch überall andere ständliche Raum zum Beispiel.

00:36:14: Das gibt es ja in Hamburg durch Moja und ein paar Freunde von mir, die da wohnen, auch

00:36:19: irgendwie ihre Jugendlichen Kinder, die haben dann diese Apps und können sich da quasi

00:36:23: zu sehr günstigen Tarifen so eine feste Route mit so ein bisschen Flexibilität links und

00:36:27: rechts als Haltestelle halt irgendwie sich einigen.

00:36:29: Aber nicht autonom, oder?

00:36:30: Nee, nicht autonom.

00:36:31: Da gibt es schon noch Menschen, der das fährt, aber zumindest die Streckenführung ist so

00:36:34: ein bisschen wie bei Uber in den USA schon durch KI tatsächlich optimiert, durch den

00:36:39: Bedarf an Menschen, die sich quasi anbuchen wollen.

00:36:42: Das finde ich ziemlich cool.

00:36:43: Aber was ja mal wieder, ich glaube, was so dem fast dem Boden ausschlägt, wie man so

00:36:48: schön sagt, ist halt einfach, dass der gesagt hat, die Dinger werden jetzt bald in den

00:36:52: Übungs-Ahr fahren und dann in Deutschland irgendwie demnächst auch.

00:36:56: Und Frank Thelen ist ja irgendwie noch noch draufgehüpft.

00:36:58: Ich will das gar nicht zu groß machen, aber das ist halt, ich glaube, totaler Unsinn, weil

00:37:02: also dieses Thema Regulatorik in Europa, ganz im Besonderen in Deutschland von autonom

00:37:07: fahrenden Fahrzeugen in Großstädten mit Neuzulassung und allem, was du halt umgedacht dafür brauchst.

00:37:11: Ich glaube, das sind wir noch mehr als ein halbes Jahr voll entfernt.

00:37:15: Mehr als ein halbes Jahr und ehrlicherweise bin ich in dem Fall sogar sehr dankbar, dass

00:37:20: wir diese Regulatorik haben, weil dann sterben vielleicht auch weniger Menschen.

00:37:24: Ich bin auch ein großer Freund von autonomem Fahren, keine Frage, aber ich finde es etwas

00:37:30: sehr optimistisch, wie allen Masken da unterwegs ist.

00:37:33: Gut, sei es drum.

00:37:35: Wir werden sehen und weiter beobachten.

00:37:37: Eine, doch eine aller, allerletzte Mini-Nachricht habe ich noch, weil nämlich permanent Banking

00:37:42: ein kleines White Paper veröffentlicht hat, das habe ich gerade in den Newsletter gesehen,

00:37:46: der hier parallel reinkam.

00:37:47: Hätte ich ganz vergessen, nämlich Insights zum Statuskurve von künstlicher Illegenz

00:37:52: im Banking, kostenloses White Paper.

00:37:54: Schaut es euch an, falls ihr Interesse daran habt, steht, steht interessante Dinge drin.

00:37:58: Genau.

00:37:59: Ich bin gleichzeitig auf jetzt Downloaden gegangen und fülle während wir sprechen

00:38:05: das Google Forms aus und kannst mir heute tagsüber anschauen.

00:38:08: Vielen Dank, permanent Banking.

00:38:09: Genau, ich muss an meinen ersten Termin.

00:38:13: Deswegen mache ich hier einen harten Cut.

00:38:15: Vielen Dank, mein Lieber.

00:38:16: Und das war unsere heutige Folge wieder mit ganz vielen News, wenig Deep Dive.

00:38:21: Und trotzdem hoffen wir, dass es euch gefällt.

00:38:23: Macht's gut, bis bald.

00:38:24: Liebe Grüße.

00:38:25: Tschüüüüüss.

00:38:26: (Ruhige Musik)

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.