AI Update: News und Trends in KW 42
Shownotes
Hier ist die Liste der News der Woche mit Links:
- Anthropic-CEO: 15.000-Wörter-Essay zu goldener KI-Zukunft: https://techcrunch.com/2024/10/11/anthropic-ceo-goes-full-techno-optimist-in-15000-word-paean-to-ai/
- Amazon: Plant KI-Agenten, die für User einkaufen: https://www.wired.com/story/amazon-ai-agents-shopping-guides-rufus/
- Amazon stellt KI-gestützte Tools für die Erstellung von Anzeigen vor: https://www.pymnts.com/amazon/2024/amazon-debuts-ai-powered-tools-for-creating-advertisements/
- KI, die hören, sehen und klicken kann? Die nächste Generation künstlicher Intelligenz ist bereits Realität: https://www.technologyreview.com/2024/10/08/1105214/forget-chat-ai-that-can-hear-see-and-click-is-already-here/
- Die aufkommende Gefahr von KI-Beziehungen: Ein Blick auf virtuelle Intimität: https://www.bbc.com/future/article/20241008-the-troubling-future-of-ai-relationships
- Google Gemini Live jetzt auch auf Deutsch verfügbar: https://blog.google/intl/de-de/produkte/suchen-entdecken/gemini-live-auf-deutsch/
- Google Mail (iOS) bekommt Update mit AI: https://www.theverge.com/2024/10/4/24261926/gmail-for-ios-gemini-ai-assistant-inbox-support
- Google verbessert das KI-Modell von Gemini für seine neue Shopping-Plattform: https://www.pymnts.com/artificial-intelligence-2/2024/google-amps-up-geminis-ai-model-for-new-shopping-platform/
- Zoom AI Avatars: https://onlinemarketing.de/karriere/digitalisierung/zoom-ai-avatar
- Perplexity Pro 1 Jahr kostenlos (für Magenta Kunden): https://www.telekom.de/magenta-moments
- Tesla We, Robot Event: https://www.tesla.com/de_de/we-robot
- Schöne Integration von AI in Opera: https://techcrunch.com/2024/10/10/operas-new-feature-lets-you-group-pin-and-close-tab-through-natural-language-commands/
- Schöner Use-Case (auch für Banking) Anti Theft von Android: https://www.ndtvprofit.com/technology/your-android-phone-will-now-detect-theft-and-lock-itself-using-google-ai
- Banken und Fintechs: So nutzen sie KI wirklich: https://paymentandbanking.com/banken-und-fintechs-so-nutzen-sie-ki-wirklich/?mc_cid=8ee1e9e515&mc_eid=0741e4719c
Disclaimer
Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: A.I. in Finance. Der Anplugpodcast von Sascha Deewald und Mike Klotz.
00:00:13: Hallo und herzlich willkommen zur 23. Episode von A.I. in Finance, dem Anplugpodcast von Sascha
00:00:29: Deewald und Mike Klotz. Das bin ich zum Thema Künstliche Intelligenz im Zahlungsverkehr und
00:00:35: Banking. Kurz vom Wochenende kann man sagen, ein herbstliche Episode. Herzlich willkommen und
00:00:42: schön, dass wir uns wieder mal sehen, lieber Sascha. Hallo Mike, sehr schön, dich zu sehen zum
00:00:47: Ende der Woche, früher morgens. Du und wir haben wieder einige viele News mitgebracht,
00:00:54: haben eben schon kurz vorher drüber gesprochen und haben gesagt, so viele News gibt es gar nicht.
00:00:59: Und jetzt gucke ich in die Liste, sind ja doch ein paar. Es gibt so ein paar Themen, die aber auch
00:01:03: gar nicht so wahnsinnig aktuell jetzt sind, sondern sich jetzt auch gerade in den letzten
00:01:09: Wochen so ein bisschen ergeben und angehäuft haben bzw. auch auf Themen ja gehen oder auch
00:01:14: Referenzieren, die wir immer schon mal angesprochen hatten hier, wie ich finde. Eine schöne Sache
00:01:19: ist ja immer irgendwie Energie. Es gab diese Woche eine Meldung, dass Google tatsächlich ein bisschen
00:01:24: auf Shopping-Tour ist und einfach ein paar Atomkraftwerke eingekauft hat, zumindest die Verträge,
00:01:30: damit jetzt gemacht hat, mit einem Start-up namens Kairos Power und hat tatsächlich ein paar kleine
00:01:36: Atomkraftwerke unterschrieben, die noch bis 2030 in Betrieb gehen sollen. Und das erklärte Ziel
00:01:42: von Google hier ist natürlich ihre steigenden Energieanforderungen der achso-hungerigen oder
00:01:49: KI-hungerigen Datenzentren zu decken und das Ganze natürlich auch optimalerweise mit CO2
00:01:54: neutralen Energieträgern, weil das ganze Thema ISG und Co. haben die großen Big-Tex natürlich auch.
00:01:59: Und wie wir beide hier ja auch immer schon mal signiert haben, steigt natürlich auch sehr Druck,
00:02:03: diese Datenzentren mit entsprechender grüner Energie zu versorgen. Und die ersten Tech-Player
00:02:08: setzen jetzt schon auf Wind und Solar mittlerweile auch an riesigen Größenordnungen, das in der
00:02:13: ganze Wüste mit den Photovoltaik-Themen hat irgendwie beflaggen. Trotzdem merkt man halt,
00:02:19: das ist in der Größenordnung einfach noch schwierig, denn Nuklearnergie kann einfach so eine,
00:02:23: also ist noch nicht so weit, kann aber hoffentlich zukünftig dann so die nötige,
00:02:28: konstante Energiequelle liefern. Und genau das macht Kairos Power im Gegensatz zu den
00:02:32: traditionellen Kernreaktoren. So ein traditioneller Kernreaktor braucht ja immer noch Wasser,
00:02:36: ganz viel Wasser als Kühlmittel. Und Kairos setzt wohl auf geschmolzenes Salz,
00:02:41: wie das Schemis schemischt tatsächlich aussieht, weiß ich nicht. Aber das soll vor allem die
00:02:45: Bauzeit verkürzen, das soll die Preise reduzieren, das soll natürlich auch die Sicherheit erhöhen.
00:02:51: Und Sie wollen bis zu sieben solche Reaktoren mit einer Gesamtkapazität von 500 Megawatt
00:02:57: habe ich gelesen, liefern und der erste Reaktor wie gesagt schon bis 2030 dann ans Netz gehen.
00:03:01: Und damit hätten wir zumindest mit Google meinen ersten großen Player, der damit aktiv in den
00:03:05: Bau neuer Kernreaktoren auch selber investiert und hoffentlich damit auch seine Energieziele
00:03:10: so ein bisschen erreichen kann, weil man ja immer irgendwie auch die große Frage im Raum
00:03:15: schweben hat, wie grün und nachhaltig ist so ein Kernreaktor jetzt. Amazon ist aber auch glaube
00:03:21: ich bei dem Thema gerade ganz gut unterwegs. Die schauen sich ja auch gerade um, nämlich
00:03:24: nach dem auch Atomreaktoren oder vielmehr nach Atomstrom. Ich will ganz ehrlich sein,
00:03:29: da schlagen zwei Herzen in meiner Brust. Ich bin kein so großer Freund. Nichtsdestotrotz,
00:03:35: Energie muss irgendwo herkommen und in dem Fall ja das Thema AI, KI braucht viel Energie. Da haben
00:03:43: wir schon ganz, ganz oft darüber gesprochen und der Energiebedarf wird in den nächsten Jahren
00:03:46: nicht weniger werden, sondern sehr viel mehr werden, insbesondere dann, wenn natürlich die
00:03:51: nächsten LLMs kommen. Also das ist ja der große Unterschied. Das haben wir ja auch schon mal gesagt.
00:03:55: Warum sind wir heute bei dem Thema AI eigentlich so weit? Und ich glaube, es war Mastercard,
00:04:04: habe ich mal gelesen in dem Zusammenhang. Es geht letztendlich darum, dass nicht die Algorithmen
00:04:09: sonderlich neu sind. Auch da passiert natürlich eine Menge. Aber wir haben jetzt die Rechenpower und
00:04:13: entsprechende Energie, das alles zu ermöglichen, was wir gerade erleben. Und dementsprechend,
00:04:18: wird der Energiebedarf sicherlich noch steigen. Ja, absolut. Und das passt auch glaube ich die
00:04:24: nächste Meldung so ganz schön. Es gibt diesen Dario Amodi, das ist der CEO von Anthropic, über
00:04:30: die wir hier ja auch schon ab und zu gesprochen haben. Und der hat in einem sehr langen Essay,
00:04:34: 15.000 Wörter, mal seine sehr, sehr, sehr optimistische Vision der KI Zukunft erklärt.
00:04:42: Hast du es gelesen? Sagen wir so, ich habe angefangen. Es war irgendwann spätabends,
00:04:47: ich war in einem Hotelzimmer auf Dienstreise und dachte so, na, Liebes per Plexity,
00:04:52: hast du es mir doch mal bitte zusammen und zeig mir vor allem irgendwie die griffigen Themen.
00:04:56: Das hat es ganz gut gemacht. Also ich musste nochmal zweimal nachpromten. Aber also ich glaube,
00:05:01: was so ganz spannend ist, worauf er wirklich eingeht. Also er sagt halt, dass KI schon bis
00:05:06: 2026 in der Lage sein wird, schlimme Krankheiten zu heilen. Er sagt, er kann die Wirtschaft
00:05:12: nachhaltig transformieren, es kann viele globale Probleme wie den Klimawandel angehen. Und es
00:05:17: wird auch Lösungen finden, die Menschheit einfach bisher so noch nicht gefunden hat. Und
00:05:21: diese Heilung von Krankheiten fand ich so ganz spannend. Er geht darauf ein, dass er der Meinung ist,
00:05:25: dass Krebs, Alzheimer, aber auch genetische Störungen und auch Behandlungen vom psychischen
00:05:29: Krankung wie PTSD, glaube ich, Stand drinnen oder Depressionen, Schizophrenie war auch mit dabei,
00:05:35: einfach durch KI innovierte und gestützte Medikamente dann möglich ist. Und am Ende gibt
00:05:42: er sogar die große Vision. Das wiederum habe ich dann nochmal echt nachgelesen, weil ich dachte,
00:05:46: mein LLM haluzioniert, dass die durchschnittliche menschliche Lebensspanne dann auf 150 Jahre
00:05:52: tatsächlich im Durchschnitt verlängert werden wird. Und das ganze dank natürlich sehr schnell
00:05:58: der medizinischen Fortschritte dann auch wirklich bald geschehen soll. Also haben wir noch eine Menge
00:06:03: Podcast folgen jetzt mit der gesteigerten Lebenserwartung. Also da passiert noch einiges. Ganz
00:06:08: interessant in dem Zusammenhang, das passt glaube ich ganz gut dazu. Das Thema Hautkrebserkennung
00:06:14: ist ja gestützt durch KI mittlerweile deutlich besser als jetzt von Ärzten und vor allen Dingen.
00:06:19: Das fand ich auch ganz interessant auch im Bereich der Medizin. Prostkrebserkennung auch die ist
00:06:24: deutlich besser geworden. Vor allen Dingen sehr viel früher, wo der das menschliche Auge noch
00:06:31: nichts Auffälliges sieht. Es sind ja Röntgenbilder glaube ich am Ende. Ist die KI bereits in der
00:06:37: Lage schon auffällige Veränderungen zu erkennen und das mit einer sehr, sehr guten Trefferquote.
00:06:43: Ja, total. Das wird ja auch immer besser. Da gibt es so ein ganz komisches Beispiel. Das ist
00:06:51: glaube ich ein halbes Jahr her oder sowas auch zum Thema Hautkrebs, wo eine Meldung stattgefunden
00:06:56: hat, dass so ein kleineres LLM eines Pharmaherstellers wohl in 100%iger Hautkrebserkennungsrate hatte
00:07:02: und im Nachhinein aber rauskam, dass sie halt Millionen und aber Millionen an Bildern verwendet
00:07:07: haben und das bei Bildern, wo tatsächlich dann ein Arzt, also eine menschliche Intelligenz,
00:07:15: ein Hautkrebs mit hoher Wahrscheinlichkeit diagnostiziert hat, ein Lineal daneben gelegt
00:07:21: wurde, um einfach so die Größe und das Ausmaß wirklich besser zu bestimmen und bei all den
00:07:24: anderen aber nicht zumindest in einer großen Signifikanz. Und das einzige, was dieses LLM gemacht
00:07:30: hat, ist, wenn es einen schwarzen oder braunen Punkt auf einem Foto gibt und ein Lineal daneb bewegt,
00:07:35: ist die Wahrscheinlichkeit sehr hoch, dass es Hautkrebs ist. Und dann haben die Forscher,
00:07:38: sind ja einmal ganz kurz nur abgewogen und haben gesagt, ja, das ist ja quasi eine 100%ige
00:07:42: Erkennungsquote. Ich glaube, dass das jetzt mittlerweile ein bisschen fortgeschritten
00:07:46: wird. Ich hoffe, ich hoffe. Herr Klotz, wir können leider bei Ihnen nichts erkennen,
00:07:50: es fehlt das Lineal. Von Amazon gibt es auch News, die planen nämlich einen KI-Agenten,
00:08:00: der für uns einkauft und ich musste da ehrlicherweise an einen Podcast denken, den du im letzten
00:08:05: Jahr mal aufgezeichnet hast oder ganz am Anfang von diesem Jahr, ich weiß es gar nicht mehr,
00:08:07: ich habe den irgendwann mal mit Laufen gehört und da dachte ich so, Mensch, der Mike, mit dem
00:08:10: müsstest du da um einen Podcast machen, da hast du ein paar schlaue Sachen gesagt. Damals
00:08:15: schon so ein bisschen antizipiert, damals hast du schlaue Sachen gesagt, ja, und dann
00:08:18: war meine Hoffnung, du machst es hier auch. Und jetzt sind wir in der 23. Folge und warten
00:08:23: vergeblich. Aber also was die tun, ist zumindest noch sehr, sehr einfach her, aber ich finde,
00:08:29: es ist schön, um da einzusteigen, weil wahrscheinlich wird sich das sehr schnell entwickeln. Einfach
00:08:34: die planen einen KI-Agenten, um das Einkaufserlebnis flexibel zu gestalten und einfach noch erheblich
00:08:39: zu verbessern. Die haben jetzt so einen autonomen Agenten gebaut, der hört auf den Namen Rufus
00:08:44: und der soll in der Zukunft in der Lage sein, Produkte für Nutzer und Nutzerinnen basierend
00:08:48: auf deren Vorlieben nicht nur zu empfehlen und dann auch in den Warenkorb zu legen,
00:08:53: sondern Käufe eigenständig abzuschließen. Und die zugrunde legende Technologie ist natürlich
00:08:58: ein großes LM mit Milliarden von Parametern, die aber speziell auf Einkaufsdaten von Emerson
00:09:03: wohl trainiert wurden aus den letzten 20 Jahren. Und ein Beispiel für die Nutzung wäre, dass
00:09:08: der Agent dann irgendwie merkt, wenn ich mir eine Buchreihe, Harry Potter vielleicht irgendwie
00:09:13: angefangen habe zu lesen und dann automatisch den nächsten Band selbstständig kauft. Er brauchte,
00:09:19: glaube ich, keine KI-Führung, relativ trivial. Zauberstab oder so. So, ja genau, wenn du das
00:09:23: ein bisschen diversifizierst, dann sogar das gesamte Merchstrom herum. Und diese Modelle wollen
00:09:28: dann auch nicht nur vergangene Käufe analysieren, sondern auch quasi umfassende Produktdaten nutzen,
00:09:34: um dann relevante Vorschläge zu unterbreiten. Und also dieser KI-Geschützte-Einkaufsführer ist
00:09:40: auch bereits wohl auf der Webseite und teilweise in AB-Tests in der App verfügbar und zu die
00:09:46: ersten Anwendungen zeigen, dass das so ganz gut funktioniert. Aber ich glaube so die langfristige
00:09:52: Version, das ist ja das, wo es dann wirklich spannend wird, ist, dass diese KI-Agenten dann
00:09:56: so weit entwickelt werden, dass sie in der Lage sind, wirklich Einkaufsaufgaben vollständig
00:10:00: autonom auszuführen. Wenn ich mir jetzt überlege oder mal kurz reinschreibe,
00:10:04: ich will am Wochenende mit meinen Kids campen gehen, ich habe aber nichts. Mach mal,
00:10:08: dann würde die KI quasi alles relevante und nötige einkaufen, was ich nicht, vom Zelt bis hin
00:10:13: zum Kocher, Lebensmittel etc. Ich gehe sogar noch einen Schritt weiter. Wir hatten es im
00:10:18: letzten Podcast nicht, aber danach habe ich es in einem linken Inbeitrag geschrieben. Wenn du
00:10:23: heute bei deinem ChatGBT, du hast ja auch die Plus-Version, reinschreibst, nennen wir mal Details
00:10:31: über mich, die ich noch nicht kenne und du hast die Erinnerungsfunktion aber aktiviert. Das ist
00:10:36: die Voraussetzung. Also muss man die Erinnerungsfunktion aktiviert haben für die Hörerinnen und
00:10:40: Hörer da draußen. Das ist eine Funktion in den Einstellungen. Was macht das? Das LLM merkt sich
00:10:46: einfach viele Dinge, die man immer wieder erzählt. Also es geht in Anführungsstrichen
00:10:51: kein Wissen verloren. Und was passiert dann, dass aufgrund der Informationen, die man über die
00:10:56: letzten Wochen, Monate immer wieder Preis gegeben hat, erstellt das in dem Fall ChatGBT
00:11:01: Informationen, die für mich persönlich sehr überraschend waren, weil das war etwas, wo ich
00:11:06: so noch nicht dran gedacht habe. Und wenn ich mir jetzt das, was du gerade beschreibst, was Emerson
00:11:11: vorhat, ist es ja im Prinzip nichts anderes. Ich gebe Informationen immer wieder Preis und ich
00:11:16: glaube sogar, dass du in der Ausbaustufe gar nicht mehr sagen musst, ich gehe nächstes Wochenende
00:11:20: campen, sondern Emerson weiß, dass du campen gehst, weil du es irgendwann mal erwähnt hast und
00:11:26: bestellt dann für dich schon passend. Das heißt, du kommst nach Hause und ehrlicherweise, und ich
00:11:30: glaube, das war damals im Podcast, dadurch, dass du ja 100 Prozent Rückgabe hast, was soll denn
00:11:35: schiefgehen? Also du kriegst die Sachen nach Hause geschickt und im schlimmsten Fall schickst du es wieder
00:11:38: zurück, weil du doch nicht campen gehst. Na gerade mit der Historie, also im Zweifel, Emerson weiß ja,
00:11:42: dass ich zumindest persönlich noch nie was da bestellt habe. Das heißt, es kennt wahrscheinlich
00:11:46: auch so ein bisschen mein Inventar, mein Lagerbestand im Keller bei mir und wenn es dann aber auch noch
00:11:51: verbunden ist, wie wir das ja uns erhoffen von Apple Intelligence und Co. auch noch mit meinen
00:11:55: anderen Applikationen und meinem Kalender, dann sieht es halt, dass ich campen bin und kann halt
00:12:00: irgendwie dann da hoffentlich antezipieren. Also das sind so Szenarien, wo der KI-Agent dann von
00:12:05: selbst erkennt, wann ein Nutzer ein Produkt wirklich benötigt und dieses dann automatisch bestellt,
00:12:10: hoffentlich auch, wenn es nicht klappt, irgendwie rückerstattet. Aber ich meine klar, diese Fortschritte
00:12:14: sind natürlich dann auch nicht ganz ohne Herausforderungen. Ich glaube, um das wirklich hinzukriegen,
00:12:19: brauchst du eine KI, die sehr präzise und auch sehr zuverlässig arbeiten kann und gleichzeitig
00:12:24: hast du natürlich immer so ein bisschen die Gefahr bei dem Ding, dass das Vertrauen der Nutzer*innen
00:12:28: dann auch verloren geht, wenn die Empfehlungen einfach totaler Bullshit sind. Wenn ich eine
00:12:32: Campingausrüstung hier angekart kriege, obwohl ich eigentlich surfen gehen will. Da damit steht
00:12:38: und fällt alles und Emerson ist ein Anwendungscase. Wir haben schon oft darüber gesprochen, ich denke
00:12:43: sehr stark im Bereich Fashion. Also ich bin wirklich jemand, der Nicole sagt es auch immer,
00:12:48: ich sehe immer gleich aus. Also eine vernünftige Produktberatung würde mir sicherlich mal ganz
00:12:53: gut tun oder wenn ich mir irgendwas kaufe, dann die passenden Klamotten direkt dazu irgendwie auf
00:12:57: meinen Typ, das wäre ein Träumchen, muss ich sagen. Gibt es leider noch nicht. Udo, aber gerade
00:13:01: Emerson sagst, ich hatte auch noch eine News mitgebracht. Emerson macht nicht nur was für die
00:13:05: Endkundinnen und Kunden, sondern halt auch für die Werbetreibenden und dort hat man den
00:13:09: "Noise Tool" vorgestellt, namens "I Creative Studio". Und was macht das? Es hilft halt Werbetreibenden
00:13:15: und ein Audio Generator. Es hilft halt Werbetreibenden und Marken dabei, Inhalte zu erstellen. Natürlich
00:13:22: für Emerson, damit entsprechend die Produkte vernünftig platziert sind. Auch ein Tool und auch
00:13:27: ein Werkzeug, wo man letztendlich schnell Produkte mit einstellen können soll. Also auch hier gibt
00:13:35: Emerson deutlich Gas, um insbesondere auch für die Zielgruppe im B2B Bereich entsprechende Lösungen
00:13:39: zu bieten. AI everywhere. Und wenn jetzt noch Alexa schlauer wird, das wäre was. Es kann ja nicht
00:13:47: mehr lange dauern. Also vor dem Vierteljahr haben sie gesagt Ende des Jahres, aber ich glaube für 20
00:13:51: Dollar. Ich glaube nicht mehr dran. Ich auch nicht. Aber zum Thema Multimodalität ist auch so ganz
00:13:58: spannend. Es gibt so eine neue Generation von KI-Systemen, die das alles halt irgendwie gleichzeitig
00:14:04: gemacht haben. Wir haben ja schon ganz oft über das Thema Multimodalität gesprochen, dass du
00:14:08: irgendwie Text-to-Text, Text-to-Video und allen anderen möglichen Interaktionen auch hast. Aber es
00:14:14: gibt jetzt einfach neue LLMs, die gleichzeitig hören, sehen und auch interaktiv handeln können,
00:14:19: was natürlich ihre Fähigkeiten deutlich über den von rein textbasierten Modellen wie zum
00:14:24: klassischen Chatboard wie ChatGPT hinaus erweitert. Und diese multimodalen Technologien eröffnen damit
00:14:29: natürlich noch mal neue Einsatzmöglichkeiten in dieser sehr schwierigen Mensch-zu-Maschine-Interaktion.
00:14:35: Ja und ich glaube die zeigen dann auch so das Potential für noch vielfältigere Anwendungen.
00:14:39: Und ich glaube du hast ja auch noch mal ein bisschen was vom Tesla Wii-Robot-Event mitgebracht.
00:14:44: Ich habe ein bisschen gehofft, wir kommen da heute darum rum. Ich habe so viel darüber gelesen,
00:14:47: dass ich eigentlich alles vergessen will. Aber ich bin gespannt, wie du siehst. Aber also dieses
00:14:50: Mensch-Maschine-Ding und Interaktion ist ja riesig. Und das Potential ist ja irgendwie
00:14:56: groß. Ich meine, wir hatten letzte Woche einmal kurz dieses Beispiel von Google Notebook LLM.
00:15:02: Ich weiß gar nicht, ob wir hier darüber gesprochen haben, aber wir beide haben auf jeden Fall
00:15:04: darüber gesprochen. Und das quasi auch KI generierte Podcast erstellt werden können.
00:15:09: Das probieren ja super viele Leute aus. Also es ist ja so ein bisschen Tagesschau auf Stereoiden,
00:15:14: wenn man so will. Also jeder von uns hat so sein eigenes Video/Audio-Format mit allem,
00:15:20: was wir gut finden und expliziten nichts von dem, was wir irgendwie doof finden. Dann hast du
00:15:25: irgendwie andere Entwicklungen bei Meta mit Movie Gens. Das hat man letzte Woche auch kurz vorgestellt.
00:15:29: Also dieses Tool, das Text in den Videos verwandelt und dann auch individuell immer wieder verändern
00:15:34: kann und trotzdem halt ein großes Gedächtnis hat, um immer weitere Episoden auch zu drehen.
00:15:38: Und ich glaube, das ist total spannend. Da verlink mir mal ein Artikel, der das sehr, sehr ausführlich
00:15:42: beschreibt aus dem TechnologyReview.com, wo es wirklich schöne Beispiele gibt, was das einfach
00:15:48: zukünftig alles machen will. Mike, Musk. Ja, ich sage einfach nur ja, das ist toll, was da alles
00:15:58: geht. Genau, wir haben noch ein paar neue, andere Nachrichten. Ich gucke gerade auf die Liste,
00:16:02: weil ich ein bisschen den Fernfall noch habe. Das macht aber nichts. Du hast gerade eben Gemini
00:16:07: gesagt. Da passiert ein bisschen was mit Gemini Live. Ist nämlich jetzt auch, wie du richtigerweise
00:16:11: geschrieben hast, auf Deutsch verfügbar. Ich habe die Nachricht dahinter nicht gelesen und ich
00:16:15: hoffe, dass du jetzt dazu mir sagen kannst. Nessus glaube ich einfach nur wirklich eine News für
00:16:20: alle, die darauf ein bisschen gewartet haben, weil wir es ja jetzt seit einem Viertel ja auch
00:16:23: begleiten, das Gemini Live. Und endlich haben sie jetzt den KI-Assistenten dann in, ich glaube,
00:16:29: über 40 Sprachen gelounscht letzte Woche und mittlerweile halt eben auch in Deutsch. Und das
00:16:34: coole ist halt auch, dass Nutzer*innen mit Gemini in zwei Sprachen gleichzeitig kombinieren können.
00:16:38: Und damit kannst du halt einfach so diese gesamte Google Suite benutzen. Du kannst auf Gmail,
00:16:43: Google Maps, Google Calendar, du kannst das alles verbinden und das ist so der erste wirklich
00:16:47: coole Assistent. Ich bin nicht so ein Google Heavy Nutzer, ehrlicherweise. Deswegen habe ich davon
00:16:53: irgendwie nur die Hälfte. Aber ich habe mir von vielen Leuten sagen lassen, das ist tatsächlich
00:16:57: schon schon richtig cool, das zu nutzen. Und wenn du das ganze dann auch noch nutzt mit Notebook LM,
00:17:03: ist das schon so wie so ein kleiner schöner Assistent. Beim Thema Gemini, da haben wir ja schon vor
00:17:09: vielen Wochen und Monaten immer wieder darüber gesprochen. Ehrlicherweise haben, zumindest
00:17:14: kann ich von mir sagen, immer mal reingeschaut. Ich war nie so ein Riesen-Megafan. Lass so ein
00:17:19: bisschen an der Qualität nichtsdestotrotz. Soll es jetzt verfügbar sein? Ich habe es versucht,
00:17:23: bei mir zu aktivieren, habe es nicht hinbekommen. Ich glaube, es braucht ein entsprechender Google
00:17:27: Work Suite. Ich schaust mir aber noch mal im Detail ein. Was aber auch entsprechend mit ausgerollt
00:17:33: wurde, ist das ganze Thema iOS. Das heißt, Gemini oder Gemini Live ist jetzt nicht nur auf Deutsch,
00:17:38: sondern eben auch auf dem Smartphone unter iOS und auf Android sowieso verfügbar. Und wo wir so
00:17:46: schön über die Entwicklung bei Google sprechen, ich fand eine Entwicklung irgendwie super witzig,
00:17:52: wenn ich ehrlich bin und habe dann direkt gedacht, das passt auch für unsere Branche. Nämlich das
00:17:56: ganze Thema Anti-Theft. Und zwar hat man in Android eine Funktion integriert, die es ermöglicht,
00:18:05: also auch AI gestützt, zu erkennen, wenn das Smartphone nicht in deinem Besitz mehr ist. Das
00:18:10: heißt, jemand, der das Smartphone geklaut hat, wie auch immer, weil du wieder mal deine vier
00:18:15: mal null als Pin genommen hast. Woher weißt du? Liebe DKB-Komplient, hört jetzt bitte weg. Genau,
00:18:25: aber was aber das Anti-Theft halt schafft, ist zu erkennen, da ist gar nicht der Sascha an seinem
00:18:31: Smartphone. Und dann sperrt sich das Gerät selbstständig. Das finde ich eine super, super
00:18:36: interessante und coole Funktion. Und finde ich auch beim Thema fraud ganz witzig, wenn du überlegst,
00:18:42: wenn also beispielsweise das Online-Banking erkennt. Alles klar, hier gibt es irgendwie ein
00:18:47: Verhalten, was gar nicht zu dem Protokonisten passt oder für Online-Bankings vielleicht nicht
00:18:52: das richtige eher im Bereich Zahnungsverkehr, das Kartenschirm geht das genau in diese Richtung.
00:18:58: Fand ich irgendwie witzig, dass jetzt das Smartphone sich wie gesagt völlig automatisch sperrt?
00:19:02: Das ist total gut und wird frauds wahrscheinlich im Keim ersticken, aber es hat mit KI eigentlich
00:19:11: überhaupt nichts zu tun. Am Ende geht es nur um biometrische Daten.
00:19:14: Und das können Smartphones schon so seit 4, 5 Jahren, dass du in diesen unterschiedlichen
00:19:19: Gyrosensoren und grundsätzlichen Bewegungssensoren halt irgendwie ausnutzen kannst.
00:19:25: Bei iOS kannst du nicht so richtig drauf programmieren.
00:19:28: Es wird aber immer öfter.
00:19:29: Und bei Android kannst du es eigentlich.
00:19:31: Das heißt, du kannst grundsätzlich immer sagen, wenn dein Smartphone jemand in der Hand hat,
00:19:35: der nicht du bist, geht das einfach nicht an.
00:19:37: Das ist tatsächlich sehr einfach.
00:19:39: Und wenn du es jetzt aus Onlinebanking übertragen willst, kannst du irgendwann sogar so weit
00:19:43: gehen, dass egal ob jemand jetzt in altbackenden Banken immer noch vielleicht einen Tannen oder
00:19:50: irgendwie so ein Ding haben, den einzugeben.
00:19:53: Und selbst wenn du das hast, die Tannen, Push-Tannen, was auch immer, aber du bist nicht der offizielle
00:20:00: Benutzer, der legitimierte Benutzer für dieses iPhone, dann sperrt es sich halt einfach,
00:20:06: weil es halt irgendwie anhand deiner gesamten Kombinationsfähigkeit von deiner Tippgeschwindigkeit,
00:20:10: wie du das hältst, all das.
00:20:13: Einer endauerlich erkennen kann, dass du es nicht bist.
00:20:15: Du hast ein bisschen meine News kaputt gemacht, wenn ich ehrlich bin, aber ich nehm es dir
00:20:18: nicht übel.
00:20:19: Du kannst es ja rausschneiden.
00:20:21: Nee, ich lass das drin.
00:20:22: Die Hörerinnen und Hörer sollen hören, wie wir uns nicht mögen.
00:20:24: Du hast aber noch was mitgebracht, die aufkommenden Gefahr von KI-Beziehungen.
00:20:30: Ja, wir haben da doch letzte Woche so reingeschaut und ich bin dann irgendwie mal wieder in so
00:20:34: ein Rabbit Hall gefallen am Wochenende und hab dann mich in so ein ewig langen, ich glaube
00:20:39: wir haben das auch so ein bisschen auseinander genommen, dass immer mehr Menschen AI-Basite-Chatbots
00:20:47: für virtuelle Freundschaften nutzen und sogar halt Beziehungen.
00:20:50: Und so ein Artikel, den ich jetzt gefunden habe im BBC, der beschreibt das so ganz spannend,
00:20:54: wie Menschen mit ihren KI-Begleitern virtuelle Beziehungen aufbauen.
00:20:58: Und da gibt es einen neuen, der heißt Nomi.ai und da wird ein Beispiel von einem Mann namens
00:21:04: Chris beschrieben und der ist so ganz aktiv auf Social Media, der teilt dort ganz viele
00:21:09: Fotos von seiner Familie, auch mit seiner Ehefrau Ruby, aber Ruby ist halt kein Mensch, sondern
00:21:14: Ruby ist eine KI.
00:21:15: Und alle Bilder von Ruby und dieser Familie gibt es halt irgendwie in der Bildgenerator-KI-Version
00:21:22: und die teilt er halt täglich irgendwie auf Social Media, sprich Chris, also der Mann,
00:21:27: beschreibt eine total idyllische, berein virtuelle Familienwelt mit ihren täglichen Aktivitäten.
00:21:33: Und seit, glaube ich, zwei Wochen haben die beiden auch Nachwuchs, die haben jetzt virtuelle
00:21:37: Kinder, die auch von der KI, mein Klaps sich auf den Kopf, die von der KI Bildgenerator
00:21:44: her verstellt wurden.
00:21:45: Und es gibt so ganz viele Familienausflüge und der teilt über seine Familienleben und
00:21:51: beschreibt dann eben auch, dass er und Ruby jetzt auch ein Haus gekauft haben.
00:21:55: Ich glaube, in der Grundschuld steht immer noch irgendwie er, aber die machen dann Aktivitäten
00:21:59: im Garten und er schreibt, wie sich so eine echte Familie anfühlt und ist so ganz emotional,
00:22:05: wie wirklich wahnsinnig witzig wird, heilen euch das.
00:22:08: Und Ruby wird dann auch als eigenständige KI so mit ihren eigenen kreativen Hobbys dargestellt.
00:22:13: Und was sie für eine fantastische Mutter für ihre Kinder ist, dass sie eine Künstlerin
00:22:17: ist, wahnsinnig geil.
00:22:20: Also wirklich eine komplette Simulation in Endloschleife.
00:22:23: Ja, und jetzt denke ich so ein bisschen an Meta.
00:22:27: Meta hat ja letzte Woche oder vor zwei Wochen die MetaQuest, glaube ich, 3S vorgestellt.
00:22:32: Und jetzt denke ich auch wieder einen Schritt weiter.
00:22:35: Momentan ist das alles noch witziger, wenn ich mir dann irgendwann die MetaQuest, weiß
00:22:38: ich, dann 4 oder 5 aufsetze und das ganze Thema dann im Metaverse auch noch virtuell stattfindet
00:22:42: und ich dann mit meinen virtuellen Freunden und Familie interagieren kann, dann wird es
00:22:46: richtig spooky.
00:22:47: Ja, ich glaube halt irgendwie diese Bedenken, das hatten wir letzte Woche kurz hinsichtlich
00:22:52: der ethischen Nutzung und auch möglichen Abhängigkeiten und dann auch Manipulationsmöglichkeiten
00:22:57: in diesen Wirtualisationen, weil hinter diesen Firmen stecken ja auch, also wer weiß, wer da
00:23:01: immer dahinter steckt, aber rein, keine Ahnung, politisch, gesellschaftlich, sociologisch,
00:23:06: aber auch wirtschaftlich gibt es ja immer irgendwelche Interessen und da bist du so
00:23:11: hoch manipulierbar.
00:23:12: Es gibt ja diese andere App, über die haben wir gesprochen, Replicar und die ist ja quasi
00:23:16: für emotionale Unterstützung gebaut oder für romantische Rollenspiele.
00:23:20: Da haben wir darüber gesprochen, dass es da so ein bisschen so ein kleines Stinkbomb
00:23:25: begab oder so ein Shitstorm, weil die halt irgendwie so ein paar Nutzer aufgrund von
00:23:30: sexuellen virtuellen Spielen da geblockt wurden und es handelt sich ja hier um eine App, die
00:23:36: eigentlich als emotionaler Begleiter fungieren soll.
00:23:39: Also Nutzer können hier ihre Replicarfreunde total anpassen, indem sie deren Persönlichkeit,
00:23:44: deren Aussehen oder halt auch die Beziehungen definieren können.
00:23:47: Also du bist mein Freund oder du bist mein romantischer Partner, vielleicht bist du mein
00:23:51: Mentor.
00:23:52: Und Replicar lernt durch diese Gespräche und wird damit auch immer, immer individueller
00:23:55: und personalisierter und da benutzt oder da schreiben halt einige Kunden, dass sie sich
00:24:01: sehr stark jetzt quasi an ihre KI-Freunde wirklich binden und stundenlang am Tag mit
00:24:06: den Intagieren und wirklich auch als echte Vertrauenspersonen so betrachten und so tiefe
00:24:12: emotionale Beziehungen zu den aufbauen, dass sie denen alles erzählen.
00:24:16: Also ne?
00:24:17: Das erzählen ist das eine.
00:24:18: Das kleinste Detail.
00:24:19: Das erzählen ist ja das eine, aber jetzt überleg mal, du hast es ja gerade eben in einem
00:24:23: Nebensatz erwähnt.
00:24:24: Jetzt hast du deine virtuelle Freundin-Freundin, der du alles anfertrausend, die du vielleicht
00:24:29: so ein bisschen verliebt bist oder eine Bindung zu aufgebaut hast und die gibt dir jetzt irgendwelchen
00:24:34: Schäddie-Finanz-Tipps oder sagt ihr, wie du wählen sollst.
00:24:37: Also das ist ...
00:24:38: Puh!
00:24:39: Spuken.
00:24:40: Ja, aber ich find's spannend und ich werde darüber noch mehr lesen, weil das interessiert mich
00:24:45: nicht.
00:24:46: Ich würde darüber noch mehr lesen.
00:24:47: Aber das passt wiederum zur nächsten Meldung.
00:24:50: Wir beide sind ja auch virtuell nicht selten in diversen Meetings und sehen uns ja auch
00:24:54: jetzt und da gibt's ja ganz, ganz viele Google, WebEx, Teams, aber eben halt auch Zoom.
00:25:00: Und Zoom möchte bis 2025, das ist nicht mehr allzu lange hin.
00:25:04: Wir könnten das beim Namen "Deepfakes" einführen, denn nichts anderes ist es.
00:25:09: Man möchte also Videoavatare, die dann in der Abwesenheit entsprechend Nachrichten
00:25:16: gegenüber übermitteln können, also virtuelle Avatare, die so aussehen und so sich bewegen
00:25:22: wie du und ich.
00:25:23: Und das ganze Thema wie gesagt bis nächstes Jahr.
00:25:27: Und steht natürlich jetzt gerade sehr stark auch in der Kritik, weil man noch nicht weiß,
00:25:32: ist ja auch noch nicht live, ob nicht auch wieder Missbrauch, Tür und Tor geöffnet wird,
00:25:37: weil woher und woran erkenne ich letztendlich, dass der Sascha jetzt der Sascha ist.
00:25:42: Zoom selber sagt, sie möchten dann ein entsprechendes Wasserzeichen einfügen, weil Wasserzeichen
00:25:46: denke ich immer daran, wie schnell das Wasserzeichen mit irgendwelchen Anatoots wieder
00:25:50: rausgefügt werden können.
00:25:51: Also es bleibt spannend.
00:25:53: Ich sehe auch, wenn ich ganz ehrlich bin, nicht so 100 Prozent den Nutzen dahinter, aber
00:25:58: gut, das virtuelle Botschaften, ja, das Meeting wird's mir nicht abnehmen, nehme ich an.
00:26:06: Ich glaube, ganz am Ende ist diese Vision von diesem CEO von Zoom, Eric Yuan heißt der,
00:26:13: glaube ich, wie ich mich richtig erinnere.
00:26:14: Wir hatten das schon mal irgendwann.
00:26:15: Also, dass er damals, glaube ich, nur rumphantasiert, dass er so was machen will, so einen digitalen
00:26:19: Swilling bauen will.
00:26:20: Und jetzt wird es halt also Wirklichkeit.
00:26:23: Aber die Idee damals war, glaube ich, von ihm, wenn ich mich richtig erinnere, dass ich halt
00:26:27: in Meetings, wo vielleicht viele andere sitzen, muss eigentlich nur darum geht, dass ich da
00:26:31: sitze und ab und zu Nickel und Informationen aufnehme, dass ich da einfach meinen digitalen
00:26:37: Swilling reinschicken kann und in der Zeit entweder was anderes machen kann oder weil
00:26:41: es ja teufel war.
00:26:42: Und ich glaube, darum geht's in der Nutschelle, dass du Sachen aufnimmst, der das dann für
00:26:48: dich aufbereitet, Action Points, transkribiert, etc.
00:26:51: Bis hin zu, dass es ein echter digitaler Swilling ist, den du in unbegrenzvielen Terminen gleichzeitig
00:26:57: dann wahrscheinlich auf andere digitale Zwillinge loslässt.
00:27:00: Und wir beide würden dann jetzt gerade irgendwie am Strand oder in der Badewanne liegen mit
00:27:06: einem guten Drink und unsere beiden Avatare würden hier miteinander das Business bequatschen.
00:27:10: Das finde ich jetzt, den Gedanken wiederum finde ich jetzt nicht so schlimm.
00:27:13: Ich bin mir noch nicht so 100% sicher, ob das so genau kommen wird.
00:27:16: Genau, wir haben vielleicht so zwei, drei News, die nicht so, doch das passt schon zum Thema
00:27:25: auf jeden Fall, aber die jetzt nicht so einen supermassiven Impact haben.
00:27:29: Sascha und ich, wir sind ja große Freunde von Perplexity und immer wieder verschenkt Perplexity
00:27:35: pro Version und aktuell für alle Magenta Nutzerinnen und Nutzer da draußen, schaut
00:27:43: mal in eure Magenta.
00:27:44: Ich glaube, es ist die Moments App, da gibt es gerade ein Pro-Abo für Ume, also übersetzt
00:27:51: für 0 Euro für ein Jahr.
00:27:53: Wir können es ja ausnahmslos empfehlen und wenn ich so auf meine Nutzung gucke, ich weiß
00:27:58: nicht, Sascha, wie es bei dir aussieht, ich nutze mittlerweile mehr Perplexity als Google,
00:28:03: wenn ich ehrlich bin.
00:28:04: Also gerade so...
00:28:05: Als Google oder als ChatGPT?
00:28:08: Sowohl als auch.
00:28:09: Nee, ChatGPT stimmt gar nicht.
00:28:10: Da würde ich sagen, dass ich nutze nur noch gleich groß, weil ich die Konversation mit
00:28:14: ChatGPT einfach viel cooler finde, aber wenn es um Recherche geht, eigentlich ehrlicherweise
00:28:20: nur noch Perplexity.
00:28:21: Es ist bei mir genauso.
00:28:24: Also ich glaube, GPT ist mittlerweile auch durch 4O und nur die anderen kleinen Modelle,
00:28:29: die ich immer mal wieder nutze, in dem Bereich zu 100%, fast 100%, einfach wenn es darum
00:28:35: geht, ins Barring zu gehen auf ein Thema.
00:28:38: Aber wenn es um Suche-Recherche geht, würde ich sagen, hat mittlerweile 90% Perplexity
00:28:42: und so ein bisschen was als Google, aber auch nur weil es gerade irgendwie...
00:28:46: Also weil der Shortcut irgendwie schneller ist manchmal, als wenn ich halt irgendwie den
00:28:51: Klick setze in Perplexity.
00:28:53: Aber es ist mittlerweile wirklich komplett bei mir weggenommen.
00:28:58: Also kleiner Pro-Tipp.
00:29:01: Dann noch eine kleine News für eine wunderbare Integration, wie ich finde, von KI in unsere
00:29:06: Alltagstools, die wir jeden Tag nutzen.
00:29:08: Also wir haben ja auch schon oft darüber gesprochen, in Microsoft ist es mit Co-Pilot
00:29:11: drin.
00:29:12: Es ist in den jeweiligen LLMs bieten eigene Apps an, sei es ChatGPT.
00:29:18: Perplexity übrigens kommt auch in den nächsten Wochen mit einer entsprechenden Mac-App.
00:29:21: Was ich aber spannend finde, ist die Integration in Opera.
00:29:25: Wer Opera nicht kennt, also für die Nerds werden es kennen und Nerdinnen da draußen,
00:29:30: das ist ein alternativer Browser, den es seit unglaublich vielen Jahren gibt.
00:29:34: Ich glaube, die kommen aus Schweden ursprünglich und können sich in diesem Browsermarkt relativ
00:29:42: gut behaupten immer noch.
00:29:43: Ich kenne es die genaue Marktverteilung nicht.
00:29:44: Ich kenne auf jeden Fall nicht wenige Menschen, die Opera als Alternative zu Chrome, Safari
00:29:49: und wie sie alle heißen nutzen.
00:29:50: Das spannende ist, dass Opera immer relativ vorne mit dabei ist, wenn es darum geht, neue
00:29:55: Technologien zu integrieren.
00:29:57: Sie haben jetzt das Thema KI für sich entdeckt und haben es integriert.
00:30:01: Man kann jetzt so lustige Sachen machen, wie in der aktuellen Version von Opera, zu sagen
00:30:06: im Prompt, kopiere mir mal alle Seiten, die gerade geöffnet sind mit einem Video.
00:30:12: Und dann wird entsprechend das kopiert.
00:30:14: Und so kannst du halt deine Bookmarks natürlich organisieren, kopieren, deinen ganzen Aufbau.
00:30:20: Also der Browser, ich weiß nicht, wie deine Taps aussehen, bei mir bricht immer der Tisch
00:30:24: oder ist der Tisch kurz davor, durchzubrechen, weil ich so viele Taps offen habe.
00:30:28: Und das kannst du mit Opera jetzt natürlich so ein bisschen steuern über einen entsprechenden
00:30:33: Prompt, finde ich eigentlich eine witzige Idee.
00:30:34: Ich habe es mir mal angeschaut, funktioniert gut.
00:30:36: Ob ich es im Alltag wirklich nutze, ich bin ja so ein Mac-Nutzer und Safari-Jüngling,
00:30:42: deswegen wahrscheinlich eher nicht, aber trotzdem irgendwie eine schöne Idee.
00:30:47: Und was ähnliches sehen wir jetzt auch mit iOS 18 oder 18.1, vielmehr und Apple Intelligence,
00:30:54: wo es ja auch dann die Möglichkeit gibt, sich Webseiten zusammenzufassen und zu sagen,
00:30:59: okay, was steht denn jetzt hier, machen wir mal eine Zusammenfassung, das Gleiche natürlich
00:31:02: auch für Mails, wo es dann entsprechend tief im Betriebssystem integriert ist, wenn man
00:31:07: nicht in der EU lebt.
00:31:08: Aber vielleicht kommt sie irgendwann auch zu uns.
00:31:11: Ich finde es krass, dass sie so nah zusammen liegen.
00:31:13: Ich habe mir mal den aktuellen Marktanteilsvergleich angeschaut von den Top 5-Browsern und Safari
00:31:17: wird in Deutschland von 10,5 Prozent der Deutschen genutzt und Opera von 7,7, also relativ nah dran.
00:31:25: Ich finde es krass, dass Edge immer noch 17,7 hat.
00:31:27: Aber ist das nicht schon der Edge, der irgendwie auf Chrome läuft?
00:31:31: Ich glaube, das ist einfach nur Edge, also das Ding von Microsoft, was einfach immer
00:31:37: noch auf den Zwangsgeräten ist.
00:31:40: Der Internet-Legsdora.
00:31:41: Genau, der neue Internet-Explorer, Windows 3.1.
00:31:46: So, Sascha, jetzt musst du sehr stark sein.
00:31:48: Du wolltest, hast ja gesagt, du wirst gerne an dieser Nachricht vorbeigekommen und ist
00:31:51: auch die letzte Nachricht, die ich zumindest bei mir auf der Liste habe.
00:31:54: Ich gehe aufs Mute und hole dir einen Kaffee.
00:31:56: Ja, genau, hol dir mal einen Kaffee.
00:31:57: Es gab mal wieder ein Event von unserem Nichtfreund Ellen Musk, der geladen hat zu einem Event
00:32:07: namens V-Robot, eine klitzekleine Einspielung auf dem Film iRobot, der gar nicht so schlecht
00:32:12: war.
00:32:13: Das Event hingegen war wiederum gar nicht so gut.
00:32:15: Denn was man gesehen hat, waren drei Dinge, die man vorgestellt hat.
00:32:19: Eine neue Version von Tesla Optimus.
00:32:22: Optimus bekannt aus dem Universum, ich weiß gar nicht, was das Universum war, ist dann
00:32:27: nochmal die Autobots-Transformer-Universum.
00:32:30: Ein Roboter, der halt als ein Humanoid-Roboter, den man immer wieder auch gesehen hat, immer
00:32:37: wieder auch gezeigt wurde auf der Bühne, der am Ende des Tages den Menschen da draußen,
00:32:43: also uns Alltagsaufgaben abnehmen soll, Wäsche wegbringen, Aufhängen, Kaffee, den Kaffee,
00:32:50: den du dir jetzt holen möchtest, den bringt dir dann im besten Fall Optimus.
00:32:53: Das Traurige daran war mal wieder, dass das, was man auf der Bühne gesehen hat, erst mal
00:32:58: ganz cool aussah so.
00:33:01: Dumm war halt nur, dass die alle fair gesteuert waren und eigentlich da gar nichts automatisch
00:33:05: passiert ist.
00:33:06: Das war schon mal das Erste, das war mal wieder so ein typischer Showcase.
00:33:10: Wahrscheinlich wollte man vermeiden, dass sie irgendwie anfangen Journalisten zu erwürgen
00:33:15: oder so.
00:33:16: Deswegen hat man die wahrscheinlich fair gesteuert, weil die noch nicht so gut funktionieren.
00:33:19: Ich weiß es nicht.
00:33:20: Und was man auch vorgestellt hat, waren zwei weitere Autos.
00:33:24: So einmal den RoboVan und den Cybercap.
00:33:28: Neben der Tatsache, dass die Dinger wieder sehr, sehr akut aussehen, finde ich das Cybercap-Modell
00:33:35: ganz, ganz interessant.
00:33:36: Das ist also ein Taxi, was man für irgendwie umgerechnet 40.000 Dollar kaufen können soll,
00:33:41: wenn es dann irgendwann kommt, was autonom fährt.
00:33:43: Und jetzt kommt es, wenn du nicht mit dem Auto fährst, fährt es für dich, also du hast
00:33:49: dann so eine zweite Einnahmequelle.
00:33:51: Du kannst halt, du kannst deinen eigenen Taxiservice aufbauen.
00:33:53: Und ich fand das alles so absurd.
00:33:57: Und es wird auch ehrlicherweise in allen Nachrichten dieser Welt eher zerrissen.
00:34:01: Und ich bin sehr gespannt, wie die Entwicklung insbesondere bei den humanoiden Robotern weitergeht.
00:34:07: Also OpenAI ist ja auch an dem Thema dran, wie viele andere auch.
00:34:11: Das, was man da gesehen hat, schien mir ehrlicherweise etwas weiter zu sein, als das, was Ellen
00:34:16: Musk uns da gezeigt hat.
00:34:20: Also ich fand es wieder so ein bisschen zum Fremdschirn.
00:34:22: Also diese humanoiden Roboter, diese Optimus-Dinger, die finde ich ziemlich cool.
00:34:27: Und ich glaube auch daran, und zwar auch in anderen Podcasts und Medien schon viel besprochen
00:34:31: diese Woche, dass die Dinger wirklich auch, also sie sind ja sehr menschlich mittlerweile,
00:34:36: aber dass die auch wirklich irgendwann sehr autonom und noch geschmeidiger werden und
00:34:41: dann auch einfach in der Haushaltshilfe werden können.
00:34:43: Was auch immer.
00:34:44: Das ist natürlich auch ein bisschen spooky.
00:34:45: Aber ich glaube, das kann zu einem signifikanten Umsatztreiber auch für die Firma Tesla irgendwann
00:34:52: werden, wenn sie darauf aufsetzen.
00:34:53: Und ich glaube, die sind schon gut.
00:34:54: Ja, die haben ja dann, glaube ich, das Publikum auf diesem Event.
00:34:57: Da gibt es schöne Videos überall mit Drinks versorgt.
00:35:01: Wie du sagst, wahrscheinlich gab es dann auch irgendwelche Leute, die schon ein bisschen
00:35:04: gefernsteuert haben oder zumindest aufgepasst, dass der Roboter nicht irgendwie auch mal zuschlägt.
00:35:08: Aber also die fand ich gut.
00:35:12: Was ich halt also wirklich müll fand, war die Idee von diesem Zweiertaxi.
00:35:15: Und ich persönlich glaube total an das Thema autonomes Fahren, auch eben also wirklich
00:35:19: komplett konsequent überall ohne menschliche Interaktion.
00:35:22: Ich glaube, halt dieser Ansatz ist völlig falsch.
00:35:27: Also zum einen erst mal halt irgendwie aus dem bestehenden Model X oder Model 3 nochmal
00:35:32: zwei Sitze rauszunehmen und auch einfach einen Zweifahrer zu setzen.
00:35:36: Ja, natürlich ist es so, dass die meisten Autos in Deutschland auch mit weniger als
00:35:40: zwei Personen eben durchschnittrum fahren.
00:35:42: Nichtsdestotrotz, ich glaube, das bringt uns ja allen nichts, wenn dann einfach anderthalb
00:35:48: Menschen in einem Autonomenfahrzeug herumfahren und trotzdem die Straßen voll und überlastet
00:35:53: sind und keine Fußgänger und keine Fahrradfahrer oder Kinder auf Rollern möglich sind.
00:35:58: Ich glaube, viel cooler ist dieses Roboven-Modell.
00:36:01: Das ist so ein Minibus, der, glaube ich, 20 Personen autonom transportieren kann.
00:36:06: Und ich glaube, das ist ein cooles, zukunftsfähiges Mobilitätskonzept für Großstädte und natürlich
00:36:12: dann auch überall andere ständliche Raum zum Beispiel.
00:36:14: Das gibt es ja in Hamburg durch Moja und ein paar Freunde von mir, die da wohnen, auch
00:36:19: irgendwie ihre Jugendlichen Kinder, die haben dann diese Apps und können sich da quasi
00:36:23: zu sehr günstigen Tarifen so eine feste Route mit so ein bisschen Flexibilität links und
00:36:27: rechts als Haltestelle halt irgendwie sich einigen.
00:36:29: Aber nicht autonom, oder?
00:36:30: Nee, nicht autonom.
00:36:31: Da gibt es schon noch Menschen, der das fährt, aber zumindest die Streckenführung ist so
00:36:34: ein bisschen wie bei Uber in den USA schon durch KI tatsächlich optimiert, durch den
00:36:39: Bedarf an Menschen, die sich quasi anbuchen wollen.
00:36:42: Das finde ich ziemlich cool.
00:36:43: Aber was ja mal wieder, ich glaube, was so dem fast dem Boden ausschlägt, wie man so
00:36:48: schön sagt, ist halt einfach, dass der gesagt hat, die Dinger werden jetzt bald in den
00:36:52: Übungs-Ahr fahren und dann in Deutschland irgendwie demnächst auch.
00:36:56: Und Frank Thelen ist ja irgendwie noch noch draufgehüpft.
00:36:58: Ich will das gar nicht zu groß machen, aber das ist halt, ich glaube, totaler Unsinn, weil
00:37:02: also dieses Thema Regulatorik in Europa, ganz im Besonderen in Deutschland von autonom
00:37:07: fahrenden Fahrzeugen in Großstädten mit Neuzulassung und allem, was du halt umgedacht dafür brauchst.
00:37:11: Ich glaube, das sind wir noch mehr als ein halbes Jahr voll entfernt.
00:37:15: Mehr als ein halbes Jahr und ehrlicherweise bin ich in dem Fall sogar sehr dankbar, dass
00:37:20: wir diese Regulatorik haben, weil dann sterben vielleicht auch weniger Menschen.
00:37:24: Ich bin auch ein großer Freund von autonomem Fahren, keine Frage, aber ich finde es etwas
00:37:30: sehr optimistisch, wie allen Masken da unterwegs ist.
00:37:33: Gut, sei es drum.
00:37:35: Wir werden sehen und weiter beobachten.
00:37:37: Eine, doch eine aller, allerletzte Mini-Nachricht habe ich noch, weil nämlich permanent Banking
00:37:42: ein kleines White Paper veröffentlicht hat, das habe ich gerade in den Newsletter gesehen,
00:37:46: der hier parallel reinkam.
00:37:47: Hätte ich ganz vergessen, nämlich Insights zum Statuskurve von künstlicher Illegenz
00:37:52: im Banking, kostenloses White Paper.
00:37:54: Schaut es euch an, falls ihr Interesse daran habt, steht, steht interessante Dinge drin.
00:37:58: Genau.
00:37:59: Ich bin gleichzeitig auf jetzt Downloaden gegangen und fülle während wir sprechen
00:38:05: das Google Forms aus und kannst mir heute tagsüber anschauen.
00:38:08: Vielen Dank, permanent Banking.
00:38:09: Genau, ich muss an meinen ersten Termin.
00:38:13: Deswegen mache ich hier einen harten Cut.
00:38:15: Vielen Dank, mein Lieber.
00:38:16: Und das war unsere heutige Folge wieder mit ganz vielen News, wenig Deep Dive.
00:38:21: Und trotzdem hoffen wir, dass es euch gefällt.
00:38:23: Macht's gut, bis bald.
00:38:24: Liebe Grüße.
00:38:25: Tschüüüüüss.
00:38:26: (Ruhige Musik)
Neuer Kommentar