rabbit r1, Apple Vision Pro: Die Rolle von AI Hardware in Finance

Shownotes

Disclaimer Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als AI Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

Maik

und herzlich willkommen zur dritten Episode von AI in Finance, dem Unplugged-Podcastge und natürlich auch die zweite Folge in eurem Podcast-Player eurer Wahl, sich einfach mal anzuhören. Herzlich willkommen also zur Episode 3 und wir freuen uns natürlich über jede Hörerin und jeden Hörer. Und weil wir immer noch ein bisschen Feintuning betreiben, hat Sascha letzte Woche bei LinkedIn mal gefragt, welche Themen euch wichtig sind. Ihr habt fleißig abgestimmt und aus den Themen Gadgets Fraud, und Regulatorik, GPT-Store ausgewählt. Gewinner ist das Thema Regulatorik. Und das ignorieren wir in dieser was daran dass Folge, wir in der Tat die lag, Folge schon vorbereitet hatten, versprechen aber dann beim nächsten Mal genau über dieses nämlich Thema, Regulatorik, zu sprechen. Heute widmen wir uns also einem anderen Schwerpunktthema und wir wollen mal über die Rolle von Gadgets sprechen. Ist das Smartphone schon tot? Atmet es noch ein wenig? Welche Rolle spielt AI bei den neuen Tools da draußen? Und wir sprechen über den Rabbit Air den 1, hatten wir in den letzten Ausgaben immer mal wieder und über die Apple Vision Pro. Das ist so Saschas Ding und Sascha sitzt hier auch schon mit einer Taucherbrille und wird uns gleich ein bisschen Einblick geben in die Entwicklung rund um die Vision Pro. Bevor wir aber loslegen, wie gehabt unsere News und die hat Sascha mitgebracht.

Sascha

Danke dir, Mike. Ja, herzlich willkommen auch von meiner Seite und ich steige direkt mal ein mit den News. Wir haben so ein paar kleinere Sachen vorbereitet. Was wir sehen, ist, dass vor allem die Investitionen in KI-Themen immer weitergehen und mittlerweile auch echt in der Hardware-Ecke angekommen sind. Mike hat es ja letzte Woche schon erzählt, Samsung hat auf der CES ihre Vision für zukünftige Geräte vorgestellt und auch da gibt es keine Überraschung. Es dreht sich alles um AI und Samsung selbst nennt jetzt ihre neue Smartphone-Generation offiziell KI-Telefone. Das heißt, wir sehen einfach, die Ära der künstlichen Intelligenz auf unseren Geräten ist nicht mehr aufzuhalten und wahrscheinlich auch lange nicht mehr wegzudenken. Auf allen zukünftigen Modellen möchte Samsung jetzt Google Sprachmodelle in kleiner und großer Form laufen lassen und arbeitet hier auch mit so ein paar ganz spannenden, unterschiedlichen KI-Anwendungen. Apple hat nun auch nach Samsung einen Vorstoß angekündigt, auch noch mehr KI auf ihre iPhones zu bringen. Dazu kaufen sie so ein paar Startups ein und vor allem kaufen sie den ganzen Markt leer mit KI-Entwicklern. Der CEO von Apple, Tim Cook, sagte letzte Woche, er möchte in praktisch jedes Apple-Produkt KI einbetten und dafür möchte er ab diesem Jahr eine Milliarde Euro pro Jahr zusätzlich ausgeben. Also tatsächlich echtes Geld und er meint es damit auch ernst. Und in der letzten Woche gab es eine tolle Meldung von Mark Zuckerberg von Meta. Der hat, finde ich, echt den Vogel abgeschossen, indem er öffentlich sagte, er möchte bis Ende dieses Jahres für sein Sprachmodell des Lama 3 mehr als 340.000 Nvidia-Chips kaufen. Da haben wir mal irgendwie nachgerechnet, das entspricht zwei Drittel der gesamten geplanten Jahresproduktion gesamten geplanten Jahresproduktion von Nvidia. von Nvidia. Bei einem aktuellen Preis von so 50.000 bis 60.000 Dollar pro Chip sind das dann sportlich 20 Milliarden Dollar. Nur für Chips, das ist irre, das gab es so auch noch nicht und bringt natürlich so dieses ganze Chip-Thema nochmal wirklich auf den Radar. Zu diesen ganzen Entwicklungen passen auch die absurden Gehälter, die derzeit im Silicon Valley für KI-Forschende gezahlt werden. Wir haben einen Post von Sascha Lobo gefunden auf LinkedIn, den verlinken wir auch mal in den Show Notes. Hier mal ein paar Sneak Previews. Schaut euch auf jeden Fall diesen Post mal an. OpenAI führt diese Liste nämlich an mit sagenhaften 865.000 Dollar Jahresgehalt. Das sind dann App-Entwickler, KI-Entwickler, das sind Data Scientists natürlich, aber das ist so eine ganz neue Dimension von Jahresgehalt, selbst für Silicon Valley. Tesla zahlt immerhin noch 780.000 Dollar, Amazon 719.000 Dollar und auch für mich echt überraschend, selbst TikTok zahlt immer noch 600.000 Dollar für KI-Forschende. So, zweite Rubrik ist so ein bisschen die Regulatorik-Ecke. Da ist sehr viel passiert. Zum einen ist der 900 Seiten lange EU-AI-Act in einer vorläufigen Fassung letzte Woche geleakt und hat so ein paar ganz spannende Einsichten offenbart. Es gibt vor allem Streitpunkte im Trilog in Brüssel gerade, aber der größte ist einfach immer noch die Nutzung von biometrischen Daten, vor allem die sogenannten Emotionserkennungssysteme. Und Heise hat mal nachgezählt in diesem geleakten Dokument, es sind immerhin 329 Mal das Wort biometrisch da alleine vorkommt. Und was wir sehen, ist, dass so diese finale Einigung der EU- Volker Wissing. Aber nun erklärt Robert Habeck, dass Deutschland geschlossen dahinter steht und auch von Anfang an mit dabei ist. Es gibt jetzt auch, haben wir auch gefunden, im GPT-Store bei OpenAI einen Compliance-Checker nach dem AI-Act. Das heißt, du kannst so nach der aktuellen Lesart der Gesetzgebung einfach mal nachschauen, wenn du ein neues Projekt hast oder ein Thema, womit du dich gerade beschäftigst, um künstliche Intelligenz herum, wie compliant dein Thema eigentlich ist. Und Mike hat das schon gesagt, wir nehmen uns diesen ganzen Themenbereich beim nächsten Mal ausführlicher vor. Und vielleicht zum Schluss noch eine kleine Rubrik. Es gibt nämlich ein neues LLM, also ein neues Sprachmodell. Das nennt sich Lumiere. Das hat Google letzte Woche vorgestellt. Und ich muss es ablesen, nennt es selbst ein Raumzeitdiffusionsmodell. Es gibt ja seit einer ganzen Weile, seit letztem Jahr ein paar Modelle wie Runway oder Pika, die Videos aus Text erstellen können. Das ist dann mehr oder weniger realistisch, das sind meistens so 4-Sekunden-Sequenzen und Lumiere macht das jetzt wohl komplett anders im Aufbau des LLMs und nutzt dann ganz einfache Texteingaben von mir in meiner natürlichen Sprache oder ich kann ein Foto hochladen, was ich dann als Video darstellen möchte. Und daraus macht Lumiere dann in einem einzigen Durchgang ein realistisches Video mit echt sehr flüssigen und auch sinnvollen Bewegungen. flüssigen und auch sinnvollen Bewegungen. Google selbst spricht noch von einem Prototyp, was ich wirklich beeindruckend finde, denn aktuell hat dieser Prototyp schon 80 Bilder pro Sekunde und erzeugt daraus ein wirklich gutes Video. Probiert es gerne mal aus, wir packen es in die Shownotes.

Sascha

war der Schweinsgalopp News. Jetzt gehen wir, wie versprochen, von Mike

Maik

in die Tiefe. Wir fangen an mit dem Rabbit Air 1. Der Rabbit Air 1 wurde auf der CES vorgestellt. Man muss sich dieses Gerät vorstellen wie einen kleinen Game Boy. Er ist halb so groß wie ein Smartphone und für 199 US-Dollar zu haben. Vierte Charge ist bereits ausverkauft. Das heißt, wir reden jetzt gerade von 40.000 Stück. Das ist nicht so viel im Vergleich von angeblich 200.000 Apple Vision Pro. Nichtsdestotrotz für ein verhältnismäßig kleines Startup oder junges Unternehmen sicherlich mehr als ein Achtungserfolg. Der Rabbit Air 1 sieht also aus so ein bisschen wie eine quadratische Möhre. Es ist eine die letztendlich nur ein Hardware, Display Der Rabbit Air 1 sieht also aus hat, so ein bisschen wie eine quadratische Möhre. Das ist eine Hardware, die letztendlich nur ein Display hat, ein Scrollwheel, wo ich Informationen scrollen kann, einen Knopf, wo ich die Sprachfunktion mit aktiviere und eine Kamera und natürlich Lautsprecher. Viel mehr hat dieses Gerät nicht. Die Technologie, die verbaut ist, ist auch einigermaßen überschaubar. Da ist also jetzt kein wahnsinnig schneller Prozessor drin, sondern ein relativ langsamer Mediatek-Prozessor. 4 GB RAM, was nicht viel ist, 128 GB Speicher, ist auch nicht so dramatisch viel, ein 2,8 Zoll Display und wie ich gerade sagte, Scrollrad, Walkie-Talkie-Knopf und eine entsprechende Kamera, die ich bewegen kann. Nicht weit so langweilig, trotzdem wie gesagt schon ein paar Stück verkauft. Was ist besonders? Besonders an diesem Gerät ist letztendlich das auf dem Gerät installierte RabbitOS. Das RabbitOS ist ein selbstentwickeltes Operating System, was darauf ausgelegt ist, sich zu 100 Prozent um das Thema AI zu kümmern. Das Ganze läuft in der Cloud und wird aktiviert aktiv und hört zu, sondern ich muss den Befehl oder die Kommunikation aktiv starten. frei mit dem Rabbit OS sprechen. In aktuell nur englischer Sprache und kann dann verschiedenste Tasks in Auftrag geben oder Informationen abrufen und Rabbit OS startet dann entsprechend eine Suche beziehungsweise erkennt den Kontext, in dem ich mich bewege und stellt dann entsprechende Tasks zur Verfügung. Beispiel ist, ich brauche ein Uber, dann sage ich, ich brauche ein Uber und Rabbit weiß, wo ich gerade bin und weiß auch, wo ich hin möchte oder wo ich wahrscheinlich hin möchte und bestellt entsprechend das Uber für mich. Ich kann natürlich auch Informationen erfragen, indem ich sage, okay, wer war Schauspieler XY, dann listet er mir die entsprechenden Informationen auf. Ich kann Musik aufrufen, kann dann zu dieser Musik kontextbezogen Fragen stellen. Also wenn ich sage, spiele mir ein Album von Metallica ab, dann spielt er das ab und kann aber dann kontextbezogen dazu Fragen stellen. Und Rabbit weiß also immer, oder das Rabbit OS weiß also immer, in welchem Kontext ich mich befinde. Das Interessante daran ist, Rabbit greift selber auf die Applikationen zu. Es gibt eine entsprechende Companion-App, wo ich dann Dienste mit Rabbit verbinden kann, sodass es nicht erforderlich ist, dass extra Apps für Rabbit entwickelt werden müssen. Das läuft, wie gesagt, alles in der Cloud und ich kann mir als Nutzer oder Nutzerin mir die Apps zu Rabbit undife zu haben, weil ich nicht angewiesen bin auf einen App-Store, nicht angewiesen bin auf Entwickler, sondern das versucht Rabbit mit dem Rabbit OS mit entsprechender Konnektivität zu den jeweiligen Diensten selbst zu lösen. Ein weiterer Vorteil ist der extrem niedrige Preis, 199 US-Dollar, das ist nicht so viel Geld für so ein Gadget. Die Hardware an sich oder das Gerät soll sehr wertig sein, soll sehr gut in der Hand liegen und soll auch Spaß machen in der Bedienung. Großer Nachteil ist, das ganze Thema läuft in der Cloud, heißt, ohne Internet keine Möglichkeit mit Rabbit groß in Interaktion zu gehen, was wiederum bedeutet, ich brauche ein entsprechendes WiFi in der Nähe, weil, das kommen wir zum nächsten Nachteil, Rabbit OS läuft nicht nur zu großen Teilen oder ist verbunden mit der Cloud, sondern braucht, wie gesagt, eine Internetverbindung, bringt aber keine eigene Konnektivität mit. Es ist also keine Mobilfunkverbindung möglich, sondern ich bin immer auf ein WiFi angewiesen. Und das nächste Thema, das WiFi ist ja manchmal etwas restriktiv, beispielsweise in Hotels. Auch da ist es so, dass Rabbit nicht immer 100% und vollumfänglich funktioniert. Das ist so die Downside und wie ich finde, eine recht große Downside. Was ist aber interessant? Interessant ist, dass dieses Gerät uns zeigt, wir haben das selbst noch nicht vorliegen, nur uns die Reviews angeschaut, aber das Gerät zeigt uns, wenn wir uns jetzt mal ein bisschen auf unsere Branche fokussieren, wie auch beispielsweise finanzielle Inklusion aussehen könnte. Es kommt halt ohne Touchscreen, ohne Eingaben aus. Das heißt, Menschen, die beispielsweise vielleicht nicht in der Lage sind, ein Smartphone aus welchen Gründen auch immer gut zu bedienen, können hier sehr, sehr leicht Informationen abrufen, können sehr, sehr leicht Tasks in Auftrag geben und Musik hören, Dinge bestellen. also letztendlich an einer gewissen Form der Digitalisierung teilnehmen, die heute das Smartphone in der Form noch nicht so ermöglicht. Und wenn wir jetzt mal so ein bisschen schauen, was könnte das zum Beispiel für den Bankenbereich bedeuten? Naja, die Menschen, die wie gesagt, wenn ich Menschen finanziell inkludieren möchte, könnte ein solches Gerät dabei helfen, zum Beispiel Kontostände abzufragen oder Aufträge, Überweisungen in Auftrag zu geben. Natürlich sind daran angeschlossen ganz viele Fragen, wie läuft zum Beispiel die Authentifizierung, aber vom Prinzip her ist es so, dass ich ja nur den Knopf, also die Sprache aktivieren muss und dann kann ich schon loslegen. Wird sich der Rabbit durchsetzen? Unklar. Wahrscheinlich nicht durchsetzen im Sinne von, das ist jetzt die nächste Gerätekategorie und alle werden ihr Smartphone wegschmeißen. Zudem natürlich alle diese Funktionalitäten im Grunde heute ja auch schon in Smartphones verbaut sind. Also es reicht ja aus, mir eine entsprechende App zu installieren. Die aktuelle Version der Chat-GBT-App kann schon ein Großteil der Funktionalitäten, ja, sie ist noch nicht verknüpft mit meinem Google-Kalender oder kann noch keinen Uber für mich rufen, aber da ist ja schon einiges heute möglich. Nichtsdestotrotz ist es, glaube ich, ein schönes Beispiel dafür, dass wir jetzt neue Geräte sehen und ich glaube, das wird auch nicht das letzte Gerät sein. Und gleich, wenn ich jetzt den virtuellen Staffelstab dann an Sascha wieder übergebe, werden wir sicherlich auch mal darüber sprechen, was heißt das denn ganz generell für unsere Branche, was heißt das ganz generell auch für den Smartphone-Markt? Sascha, du hast ja ein paar Fragen mitgebracht.

Sascha

das war ein ganz tolles Verkaufsseminar. Herzlichen Dank an den neuen Chief Sales Officer von Rebus. Also echt, Mike, das Inklusionsding, das ist richtig cool. Und ich glaube, wenn man das aufarbeitet, dann kann das nicht nur im Banking was bringen, Ich wenn man das dann kann das nicht nur im Banking was bringen, glaube, aufarbeitet, sondern in ganz vielen Themen in der Gesellschaft für Menschen mit Beeinträchtigungen. Und das ist ja auch das, wo sich viele Banking-Apps mit beschäftigen. Wie kann ich das schaffen, halt irgendwie wirklich echte Inklusion zu erreichen? Und ich glaube, da kann so ein Device der erste Schritt sein. All die anderen tollen Vorteile, die du aufgezählt hast, da bin ich irgendwie gefühlt kurz weggenickt, weil außer der Preis habe ich nur Nachteile gehört. Das heißt, du kaufst ein Tamagotchi, was sich irgendwie gepaart hat mit einem Walkman und einem Gameboy, hast du es glaube ich geschrieben. Ja, Gameboy hast du es, glaube ich, geschrieben. Und dann brauche ich aber noch ein iPhone oder ein Samsung in der Tasche, weil alleine kann das nichts. Dann brauche ich aber auch ein stabiles Wi-Fi, am liebsten kriege ich meinen Uber auf jeden Fall, so wie ich ihn bisher auch bekommen habe. Und wenn ich nach einem Künstler frage, dann kann das ja sogar die Alexa. Wahrscheinlich ist die Antwort, die ausgespuckt wird, irgendwie aus den 90ern und auf jeden Fall falsch. Aber so richtig habe ich noch nicht verstanden, was wirklich ein Vorteil ist, außer dass du ein weiteres Device in deiner Hosentasche mit dir führst, was dich um 200 Euro erleichtert hat.

Maik

meine 199 Dollar übrigens, ja, gegen deine 3.500 Dollar für die Apple Vision Pro, da kommen wir dann gleich mal zu. Aber du hast absolut recht, das Ding ist ein nettes Gadget, ein nettes Spielzeug. Und ich glaube auch tatsächlich, viel mehr wird es auch nicht sein. Das hat einfach auch damit zu tun, dass selbst die Language-Modelle, die wir heute haben oder RapidOS bezeichnen sich ja als LAM, also als Action-Model, also wo es darum geht, als Large-Action-Model, weil es ja eben Aktionen ausführen kann, aber auch da gibt es natürlich eine Fehlerquote und wir wissen nicht, wie gut das Gerät letztendlich wirklich funktioniert. In der Präsentation sieht das immer alles sehr fancy aus. Aber darum geht es mir auch ehrlicherweise gar nicht. Und ich wollte tatsächlich gar keine Verkaufsveranstaltung so richtig dafür machen, sondern eher so die Überlegung anstoßen, was passiert denn ganz generell. Und neben dem Rabbit Air 1 finde ich ja eher noch eine andere Entwicklung ganz interessant, nämlich das, was Meta zusammen mit Ray-Ban vorgestellt hat, nämlich die Smartglasses, die ja jetzt gerade auch erst anfangen smart zu werden. Das heißt, ich habe eine entsprechende Ray-Ban-Brille, die wirklich fast ganz normal aussieht, mit Kamerafunktion, mit Kopfhörer, die über Knochenschall funktionieren und mit einem digitalen Assistenten. Und es ist jetzt schon so, dass in der aktuellen Beta-Version die Smartglasses Gegenstände erkennen können und ich kann dann den Assistenten fragen, was siehst du denn jetzt hier? fragen, was siehst du denn jetzt hier? Das Ganze ist noch schnarchlangsam, muss man dazu sagen. Aber ich glaube, wir werden uns von diesem Ich-hab-in-der-Tasche-das-Smartphone-und-das-macht-alles-für-mich langfristig, vielleicht sogar mittelfristig ein Stück weit von lösen. Und jetzt bin ich gespannt, inwiefern die Apple Vision Pro ihren Teil dazu beitragen wird. Ja, sehr gern.

Sascha

mich mal so der ersten Vorstellung dieses Geräts und wir schauen uns mal an, was Apple bisher preisgegeben hat, was die Vision Pro zu Beginn auch können soll. Und wir wagen dann so einen kleinen ersten Ausblick mal auf das zukünftige Potenzial von diesem vermeintlich sehr innovativen Gadget. Was, glaube ich, wichtig ist, auch nochmal zu betonen, wir haben keine Brille auf. Ich habe die Taucherbrille, die Mike immer so schön kolportiert, jetzt nicht auf meinem Kopf. Und wir haben sie natürlich auch nicht getestet. Wir haben ein paar Artikel in den letzten Monaten und Wochen gelesen. Wir haben das erste Unboxing-Video vor zwei oder drei Tagen angeschaut. Und der Rest beruht tatsächlich auf unserer Vorstellung, auf unserer Recherche und natürlich auch auf meiner persönlichen Apple-Fanboy-Leidenschaft. Und ich freue mich auf deine Fragen und wahrscheinlich deine völlig überzogene Apple-Kritik an der Stelle, die du mit einfließen lässt. Wir haben von dem Ding zum ersten Mal erfahren, ich glaube Mitte letzten Jahres. Das Erscheinungsdatum wurde damals schon für Februar angekündigt. Leider bisher nur in den USA. Weitere Märkte sollen aber auch in diesem Jahr noch folgen. Und wenn wir uns mal so ein paar andere Hardware-Sachen von Apple anschauen, dann wissen wir ja, dass Deutschland im Apple-Roller zu den ersten Märkten oft auch mit dazugehört. Das heißt, wir warten das mal ab. Hier gab es tatsächlich auch auf Social Media schon so die ersten Irritationen, denn die ersten Interessierten wollen sich so eine Brille dann direkt im Apple-Store in den USA besorgen, haben schon Flugtickets gekauft. Aber ich glaube, das ist nicht so das perfekte Onboarding, beziehungsweise bezweifle ich, dass das überhaupt klappen kann, denn zum einen bildet die Basis für die Vision Pro eine Apple ID vom US-Markt und auch Teile der App-Welt kann sein, dass die tatsächlich eine Funktionstüchtigkeit für Europa überhaupt nicht garantieren. So, dazu habe ich mir dann auch überlegt, ich als Brillenträger bzw. Nutzer von Kontaktlinsen, für mich ist dieses Vorgehen wohl auch gar nicht empfohlen, denn man benötigt für die Vision Pro dafür geschliffene Linsen von der Firma Zeiss und dafür brauche ich ein Rezept von einem US-amerikanischen Augenarzt. Das heißt, das Warten bis zum offiziellen deutschen Marktstart lohnt sich hier vermutlich irgendwie also doch. fangen So, wir mal mit der Hauptlage an. Oder du kaufst

Maik

Hauptlage an. Oder du kaufst dir Kontaktlinsen für 199 Dollar oder so. Das geht ja auch.

Sascha

Ja, ich glaube aber trotzdem muss ich die ja irgendwie dann einlesen lassen.

Maik

Und ich weiß nicht, ob das... Wenn du Kontaktlinsen hast, geht's.

Sascha

Und ich weiß nicht, ob das...

Maik

Funktioniert das? Ja, das ist so der Hack, der jetzt gerade draußen ist. So nach dem Motto, hol dir Kontaktlinsen. Weil du kannst ja unter der Vision Pro keine Brille tragen. Nee, genau. Okay,

Sascha

aber sehr gut. Dann bin ich wieder zurück im Game. Vielen Dank. Bitte schön.

Maik

Bitte schön.

Sascha

wir uns mal an, was diese Taucherbrille, wie du sie immer liebevoll nennst, eigentlich so Apple nutzt einen kann. anderen Begriff Die sagen nicht dafür. wie du Taucherbrille, sie immer liebevoll eigentlich so nennst, kann. Apple nutzt einen anderen Begriff dafür. Die sagen nicht Taucherbrille, die nennen das ist der Beginn des Spatial Computings. Das heißt, sie haben einen eigenen Begriff dafür geschaffen. Und sie sagen, sie wollen quasi modernste Technologie mit einem sehr stilvollen Design und auch tollen neuen Kohlefasermaterialien vereinen. Und das sieht tatsächlich auch toll aus im Unboxing. Die Vision Pro bringt zum ersten Mal jetzt Augmented Reality, also AR, in unseren Alltag und das hat ja wirklich Jahre an verkorksten Use Cases aller möglichen Anbieter und Apps jetzt gedauert, aber ich glaube, an der Stelle sollten wir ein kurzes Outro machen, was bedeutet eigentlich AR und VR, weil diese Definition von Realität ist ja in der Computerbranche eine sehr schwierige Angelegenheit. In den letzten Jahren gab es ja, ich sag mal, schwindelerregenden Wettlauf immer um neue Begriffe, was dann diese sogenannten Head-Mounted-Displays quasi leisten und da herrscht ja immer noch ein bisschen Uneinigkeit darüber, was jeder dieser einzelnen Begriffe bedeutet. Head-Mounted heißt einfach nur, du hast ein Gerät auf dem Kopf. Das hat, glaube ich, ich weiß gar nicht, wann das war, mit der Google Glass angefangen. Und seitdem versuchen ja diverse Hersteller, das auch zu schaffen, eine Verbindung aus Kopf, Gesicht und Device zu schaffen. Aber so die Kurzdefinition ist, dass AR steht für Augmented Reality, sind erweiterte Realitäten. Definition dass steht für Augmented sind erweiterte Das es sind irgendwie virtuelle ist, die dann AR, in einem direkten Zusammenhang Reality, mit Objekten in Realitäten. der echten Welt heißt, Das kann jetzt eine automatische Projektionen, Übersetzung von der Speisekarte auf die du gerade scha Oder bei Ikea ein stehen. was du dir in dein eigenes Wohnzimmer reinstellen kannst. sein, Sofa, Dann gibt es Mixed Reality. Das ist also die sogenannte gemischte Realität. Und diese bildet so ein System ab, das die Virtuelle dann mit der echten Welt vermischt. Ohne dass jetzt eine direkte Interaktion zwischen den beiden stattfindet. Das ist das, was wir dann bei der Apple Vision Pro dann sehen. Das heißt, du hast ein App-Fenster vor dir, was dann in deinem Wohnzimmer direkt vor dir schwebt, obwohl du gerade auf der Couch sitzt. Und dann gibt es schlussendlich die virtuelle Realität. Das heißt, das ist eine Erfahrung, bei der du in einem vollständig virtuellen Raum eintauchst und dann deine Wahrnehmung der echten Welt absichtlich ausblendest und wirklich nur noch in dieser virtuellen, artifiziellen Umgebung lebst. So, wieder in Definition verloren, zurück zur Brille. Die Bedienung der Brille erfolgt ein bisschen anders als dein roter Hase. Das heißt, wir haben eine Gestensteuerung, wir haben Fingerkombinationen und Handkombinationen und natürlich haben wir auch Sprachbefehle wie Siri. Siri ist ja noch nicht so richtig toll ausgebaut, aber ich glaube, in der Vision Pro wird Siri sehr, sehr mächtig. Und auch diese Bedienung mit Siri sieht toll aus. Die Bedienung mit den Handgesten ist noch wohl sehr, sehr holprig. Das beschreiben erste Nutzer und das sieht man auch so ein bisschen in den ersten Videos. Hier lege ich euch tatsächlich mal diesen Verge-Artikel ans Herz. Wir haben den in den Shownotes drin. Der ist zwar sehr, sehr lang, ist, glaube ich, von vorgestern, aber er beschreibt mal so die gesamte Gestensteuerung sehr gut. Genau, und ich glaube, generell sollten wir gar nicht so lange auf der Bedienung und den ersten Erfahrungen hier rumreiten. Wenn euch das mehr interessiert, dann legen wir euch einige Links und auch das Unboxing-Video und noch so ein paar Videos der Anwendung mit in die Shownotes. Das kann man sich dann, glaube ich, besser mal direkt selber anschauen. So, aber was unterscheidet jetzt zum Beispiel diese beiden Geräte? Apple Vision Pro, Rapid R1, aber auch von anderen Geräten? Ich glaube, so der erste große Unterschied liegt meiner Meinung nach einfach in der Integration in dieses Apple-Ökosystem, was wir ja alle irgendwie kennen und jeden Tag nutzen. Das heißt, wer bereits einen iPhone, einen iPad oder einen Mac besitzt, der wird dann die naglose Verbindung zwischen diesen Geräten und der Vision Pro, glaube ich, sehr schätzen, sehr schnell. Apple möchte mit einem Ökosystem aus eine Million Apps starten. Bisher habe ich tatsächlich Microsoft als App-Entwickler auch mit fertigen Apps schon gesehen. Das heißt, wir sehen Word, wir sehen PowerPoint, Excel habe ich noch nicht gesehen. Was aber richtig sexy ist, ist so eine sehr gelungene Microsoft Teams-Version. Da habe ich ein bisschen mit rumgespielt. Das sieht wirklich richtig cool aus. Legen wir auch in die Show Notes. So, und dann haben wir natürlich das Thema Bildqualität der Vision Pro. Dies soll wirklich herausragend sein. Das Sichtfeld ist natürlich super breit, ist unbegrenzt breit und lässt natürlich die AR-Inhalte dann sehr greifbar wirken. Das heißt, ich kann quasi ins Bild reinfassen und dann diese Mixed Reality direkt vor mir sehen, was vor allem bei Filmen, bei Videospielen natürlich absolut schlagend wird. Hier wird total spannend zu sein, wie sich das dann mit Latenzen verhält, weil wenn dann Verzögerungen entstehen, wie bei anderen Brillen, die wir gesehen haben, zum Beispiel der Quest, der ersten, dann ist das natürlich nicht mehr andersweise so schön. Genau, was sind so Themen, wo die Vision Pro ganz klar hinterherhängt, ja, bevor du mich damit grillst, natürlich ist es der Preis. Es ist, ich finde auch echt, die Akkulaufzeit und das Gewicht über den Preis brauchen wir, glaube ich, gar nicht zu sprechen. Irgendwie 3.500 Dollar. Auf eBay werden gerade die Voranmeldungen für 5.500 getradet. Da ist dein Tamagotchi Gameboy für 200 oder 199 Dollar. Natürlich eine ganz andere Liga. Für mich, Akkulaufzeit ist ein Riesenproblem. Die ist tatsächlich sogar kürzer als beim

Maik

Rabbit. Kannst du mal kurz sagen, wo der Akku genau ist? Das finde ich noch eine ganz interessante Seite, Informationen. Der ist nicht

Sascha

in die Vision Pro eingebettet. Das hat Apple eigentlich ganz schlau gemacht, weil sie nicht wollten, dass das Ding schwerer wird, wobei wir gleich zum Thema Gewicht sowieso kommen. Ich glaube, dann wäre es einfach nicht mehr möglich, das auf einem normalen Kopf zu tragen. Aber der Akku, der hängt so ein bisschen an der Seite und hat ein Stromkabel. Das ist ehrlicherweise auch in allen Videos so ein bisschen wegretuschiert, beziehungsweise ist es kaum sichtbar. De facto brauchst du immer dieses Stromkabel, wenn du durch die Anwendung halt gehen willst. Noch wohlgemerkt. Das ist natürlich auch so die erste Version, aber ich glaube, das Thema Stromverbrauch ist ein großes Problem. Aber Gewicht ist so das größte. Das Ding wiegt 650 Gramm und das ist echt heftig. Also als Vergleich dient uns so ein bisschen die Quest 3 von Microsoft. Die ist ein bisschen leichter, aber auch nach längerem Gebrauch haben mir da, also längerer Gebrauch, so eine Stunde, haben mir echt die Muskeln im Nacken so ein bisschen gezittert. Und es ist einfach sehr, sehr viel Gewicht, was da auf dem Kopf liegt. Und in diesem Verge-Artikel wurde das so ganz gut beschrieben mit, stell dir vor, du trägst ein iPad vor dem Kopf. Und da kann man, glaube ich, konstatieren, dass unser Körper ist einfach sehr schlecht dafür konstruiert, wenn es darum geht, Hardware am Kopf oder am Gesicht zu befestigen, ohne dass sie schnell schwer

Maik

wird. Jetzt bist du ja nicht so der Stirnnacken, wie ich gerade heraushöre, aber ich glaube, bei der Apple Vision Pro ist es noch so, dass die Gewichtsverteilung wohl auch ein Riesenproblem ist. Während die Meter ja insgesamt schwer, also der Akku ist in der Brille verbaut, ist es bei der Vision Pro ja so, dass sich alles im vorderen Bereich abspielt. Also man muss sich das tatsächlich vorstellen wie so ein iPad, was man sich ums Gesicht bindet und dementsprechend ist auch die Gewichtsverteilung nicht ganz so gut.

Sascha

versucht es aufzulösen, indem sie zwei verschiedene Kopfbänder mitnehmen. Witzigerweise in den ersten Unboxing-Videos sind die meisten Kritiken dahingehend, dass das ja komplett die Frisur zerstört, was ich so ganz witzig finde. Aber es ist vor allem einfach das Problem, dass du diese massive Last nicht wirklich sauber auf den Kopf verteilen kannst, sondern die dich einfach nach vorne zieht. Und die Orthopäden werden sich freuen und die Chiropraktiker wahrscheinlich. So, lassen wir uns mal über die Zukunft sprechen. Also gar nicht so sehr, was kann das Ding jetzt, sondern was kann die Brille so in den nächsten Jahren, was die Google Glasses und andere bisher nicht so richtig geschafft haben. Ich glaube, dass so das zukünftige Potenzial der Vision Pro ist vor allem an echte Use Cases, die auch außerhalb von Videos und Gaming, glaube dabei ich, sind. Ich hatte ja schon erwähnt, dass die Microsoft Teams Integration von Microsoft wirklich attraktiv ist. Und das kann ich mir zum Beispiel als sehr charmanten Use Case fürs Home Office, aber auch für private Reisen, für Geschäftsreisen vorstellen. Weil du baust dir dann einfach je nach Komplexität deiner Themen verschiedene virtuelle Bildschirme vor dir auf und egal, ob du jetzt auf der heimischen Couch sitzt, ob du im Garten sitzt oder im Zug, du hast du quasi das so ein Thema, wo ich sage, das kann ich mir gut vorstellen und darauf freue ich mich, das einfach mal irgendwann auf Herz und Nieren testen zu können. offiziellen Werbevideos von Apple sehen wir auch Menschen damit bei der Arbeit. Wir sehen Menschen beim Wäschewaschen damit, beim Kochen und wir sehen Menschen, während sie mit ihren Kindern auf dem Boden spielen, haben sie das Ding auf und bewegen sich irgendwie gerade AI, AR und VR-mäßig auch in anderen Sphären, was also ganz offen natürlich völliger Blödsinn ist, ja, während du mit deinen Kindern spielst, halt irgendwie dieses Ding zu tragen und darin rumzuoperieren. Aber was man auch sagen muss zum Thema Video, auch ich finde das ein bisschen overhyped gerade, weil da habe ich so ein schönes Beispiel. Wir hatten vorletztes Jahr eine Führungskräftetagung und haben dann mal alle Führungskräfte mit so einer Questbrille ausgestattet. Und die mussten halt, ich glaube, so eine Stunde lang durch so ein Strategiespiel quälen, sage ich jetzt mal. Und zwei bis drei von zehn haben diese Brille dann tatsächlich auch regelmäßig abgesetzt und das ist so dieser, dieses Ding heißt quasi VR-Reisekrankheit und das ist auch gar nicht so ein richtiger Scherz, denn vielen Menschen wird tatsächlich schwindelig, ihnen wird schlecht, wenn sie sich in diesen Umgebungen bewegen. Und wenn du dir jetzt vorstellst, du bist mitten in einem Mission Impossible mit Tom Cruise drin und der springt gerade aus dem Flugzeug und du bist mitten mit dabei und unten explodieren die Autos und die Hubschrauber und es wird geschossen. Ich glaube, da wird sehr vielen Menschen sehr schnell schlecht und dann kann ich mir auch vorstellen, das ist cool, solange wie es cool ist, aber ich glaube, nach einer gewissen Zeit, auch in Actionfilmen, wirst du wahrscheinlich eher so das Sofa mit einem Popcorn in deiner 2D-Umgebung wieder bevorzugen.

Maik

du gerade beschreibst, finde ich ganz interessant, weil das ist, glaube ich, auch die Kritik, die ich so ein bisschen, du hast gerade gesagt, also ich werde da jetzt einen großen Kritiker spielen. Das muss ich, glaube ich, gar nicht. Ich glaube, was du beschreibst, ist eins der Probleme, nämlich beispielsweise Motion Sickness. Das, was du gerade gesagt hast, ist ja ein Problem, was wir generell bei allen VR-Brillen sehen, bei der Meta, bei allen anderen Brillen auch. Und Apple kommt halt in die gleichen Problematiken. Das heißt, natürlich sagt man, dass die Apple Vision Pro das beste Mixed Reality VR-Device whatever ist, mit der besten Qualität, mit dem geilsten Spatial Sound, zweifelsohne. Auf der anderen Seite mit der schlechtesten Spielebibliothek und mit den gleichen oder zumindest in Teilen gleichen Problemen, die andere Brillen eben auch haben. Und die Frage, die ich mir als Stelle, und du hast gerade gesagt, lass uns mal ein bisschen in die Zukunft gucken, wie lösen wir denn oder wie glaubst du, wird Apple das Problem lösen, dass es eben nicht nur ein Device für alte, einsame Menschen ist? Weil du hast es gerade gesagt, wenn du so ein Ding aufhast, dann sitzt du zu Hause im besten Fall alleine und um dich herum passiert halt nichts mehr, weil du bist dann wirklich in deiner eigenen Welt. Also wenn wir glauben, dass Smartphones heute schon ein Problem sind, dieses Ding wird dieses Problem der Vereinsamung, glaube ich, nochmal auf ein ganz anderes Level heben. Und das ist auch genau mein Punkt, warum ich glaube, dass es in der Form, und das hat gar nichts mit der Tauchera oder Skibrille zu tun, das kommt noch on top, kein Device für die Masse ist. Fernab des Preises, zwei bis ohne. Wie schaust du drauf?

Sascha

hast total recht. Also das ist auch das, was ich als erstes mir überlegt habe. Also ich bedauere wirklich, dass dieses Betriebssystem, was Vision OS heißt, einfach gar keine Möglichkeit bietet, auch diese von dir gebauten Fenster und Erlebnisse mit anderen zu teilen. Pro-Headsets irgendwann im selben Raum sitzen. Wir können nicht dieselben Dinge sehen, die zur selben Zeit im Raum vor uns schweben. Sprich, egal wie toll du deine eigene virtuelle Welt baust, es gibt dort immer nur einen Besucher. Und das ist Mike Klotz, das bist du selbst. Du kannst die mir nicht zeigen, es sei denn, du nimmst sie irgendwie auf oder machst ein Screenshot davon oder sowas. Aber ich werde es nie gleichzeitig mit dir erleben können. Und ich meine, es ist schon erstaunlich, welche utopischen Welten man sich dort schaffen kann. Aber genau wie du sagst, es scheint auch ziemlich einsam zu sein, dann Dinge überall im Raum zu platzieren und dabei auch zu wissen, dass niemand sonst die jemals wirklich erleben kann.

Maik

kannst das Gerät auch in der Familie nicht teilen, so ohne weiteres. Ich glaube, das unterscheidet die Vision Pro auch noch mal von anderen VR-Devices,

Sascha

auf dich angepasst ist. Also gerade Brillenträger, wenn du wirklich dann die entsprechenden, ja, wie sagt man, und ich meine, da muss halt noch viel passieren. Du hast es eben auch angesprochen mit den Spieleumgebungen. Also es sind ein paar coole Spiele dabei jetzt so langsam, zum Beispiel Formel 1 ist drin, es soll jetzt NBA und NHL kommen. Ich glaube, das wird richtig cool, wenn du diese typischen Themen, auch FIFA zum Beispiel, dann dort spielen kannst. Aber es gibt auch bereits so die ersten großen Kontroversen in der App-Welt. Das heißt, einige große Entwickler wie Disney und Co. sind dabei, aber so die ganz großen wie Netflix, Spotify und YouTube, die haben beschlossen, mit der Veröffentlichung ihrer Apps auf dem Vision Pro noch zu warten. Und Netflix hat sich wohl hinreißen lassen zu sagen, sie wollen sich das anschauen, vielleicht kommt es sogar nie. Und sie erlauben nicht mal die Ausführung, das Ganze über so diesen Weg als iPad-App. Das heißt, wenn du Netflix-Filme sehen möchtest, dann geht das bis auf Weiteres, auf gar keinen Fall mit der Vision Pro.

Maik

haben wir ja in den letzten Jahren immer, gerade auch bei dem Thema Schlagwörter wie Metaverse, Decentralized Land, die ja letztendlich auch darauf basieren, dass ich mir in irgendeiner Art und Weise ein entsprechendes Headset um meinen Kopf schnalle, um dann in diverse Welten einzutauchen. Und ich kann mich daran erinnern, dass wir bei uns in der Branche, also in der Payment- und Bankingbranche, irgendwann gesagt haben, dieses ganze Thema Decentralized Land, Metaverse oder Second Life 2.0, egal wie wir es nennen, ist jetzt nicht so das Thema, wo wir uns in der Branche drauf stürzen sollten. Ich glaube zu Recht. Glaubst du denn, dass sich das ändern wird jetzt mit einer Vision Pro?

Sascha

Bankenumfeld. Glaubst das du, ist ein Thema, wo sich die deutsche Finanzindustrie, Finanzinstitute mit beschäftigen sollten? Und wenn wie? ja, Also Banking-App in der Vision Pro? es Ja, ist total spannend. Also ich glaube, dass Apple jetzt einfach ein bisschen mehr Schwung in dieses ganze AR-VR-Game mal wieder reinbringt. Du hast Second Life angesprochen. Das war, glaube ich, 2001. Ich war irgendwie noch mitten im Studium, hab angefangen, damit rumzuspielen. Das wurde sehr schnell sehr creepy dort. Dann hab ich es wieder gelöscht. Und seitdem gibt's ja immer mal

Maik

das du, ist ein

Sascha

VR Sommer und jetzt dann auch ganz schnell wieder den Winter, dann gab es halt irgendwann diese anderen Sachen, von denen du gesprochen hast, Metaverse, Decentralize und so, aber ich glaube, das Thema Mixed Reality wird einfach ein bisschen schneller, es wird ein bisschen besser, besser grafisch, es wird mit weniger Latenz, du kannst es tatsächlich mit künstlicher Intelligenz dann auch ein bisschen füttern, mit besseren Avataren. Aber irgendwie, also ich finde, es bleibt total creepy. Aber ich glaube, auch daraus können sich so ein paar Use Cases für Banking und Payments ableiten lassen. Also das, worauf du gerade hin wolltest, das sehe ich vielleicht am allerersten so im Private Banking. Wenn ich jetzt ich bin früher irgendwie in die Filiale sage, gegangen, um über mein Wertpapiergeschäft, über Asset Management etc. zu sprechen, als High Affluent oder deutsch ausgedrückt reicher Mensch, da habe ich jetzt keinen Bock mehr drauf, sondern ich möchte mir jetzt so einen tollen Berater aus meiner Bank quasi virtuell in meine Welt mit einladen, weil es geht sowieso, glaube ich, nur im Eflund-Bereich, weil sonst kann sich ja die Brille niemand leisten. Das haben wir ja schon gelernt. Aber ich glaube, das ist spannend für Family Offices, wenn Banker dann quasi ihre Produkte in 3D in meiner eigenen Welt so ein bisschen präsentieren können. Aber ich sehe da überhaupt keine breite Anwendung in diesem Bereich. Vielleicht ist es ja auch so ein bisschen so dieses Thema, früher vor 20 Jahren saß der DVRG-Drücker bei uns auf der Couch und den wollte ich ja raustreiben, den wollte ich ja nicht mehr haben und deswegen finde ich es ja so toll, dass ich alles digital abschließen kann, den will ich mir ja nicht wieder zurückholen, weder als Avatar noch in echt. Das heißt, wo ich mir wirklich vorstellen kann, dass es schön wird, ist das Thema Payments. Das heißt, ich kann das noch mehr seamless integrieren in Webseiten, Warenkörbe, in das ganze Thema E-Commerce, als es jetzt schon war. machen, kein 3DS, sondern meine Biometrie durch meine Bewegungen ist dann einfach perfekt eindeutig und kann in jeden Warenkorb eingebettet werden. Ich glaube, das ist sehr klar.

Maik

Das finde ich total spannend. Ich stelle mir das gerade auch vor und das ist auch ein Case, den ich nachvollziehen kann. Ich bin jetzt im Wohnzimmer, habe die Brille auf, die Stöbere, den Ikea-Katalog und kann mir dann die Möbel da so reinstellen und sehe direkt, wie das aussieht. Und jetzt kommt die spannende Frage. Ich lege mir das in den Warenkorb, drücke auf Bestellen und hält dann Apple die Hand auf?

Sascha

klar. Also die müssen schon ein bisschen Geld verdienen, Mike. Die Brille ist zu günstig. So ein bisschen muss das schon sein. Also ich glaube ehrlicherweise, das ist ein Schnapper.

Sascha

Ich glaube dass ehrlicherweise, sie es nicht direkt machen also vielleicht werden, dann tatsächlich einfach auslösen kannst und da wird kolportiert, hält Apple ja sowieso die Hand auf und ich denke, dass es wird einfach diese Seamless Integration dann sein. Banking Apps... Ich weiß nicht, ob du es... Bitte. Ja genau, vielleicht noch dein anderes Thema, das finde ich auch total spannend und diese Frage habe ich mir auch gestellt, aber ich glaube nicht, dass Banking-Apps dadurch besser werden. Also ich glaube, wir haben in den letzten Jahren ganz tolle neue User-Interfaces und Custom-Experience in vielen Banking-Apps gesehen, aber ganz am Ende stellt sich immer wieder raus in Kundenbefragungen, dass die Menschen ihre Transaktionen sehen wollen, sie wollen Überweisungen tätigen, sie wollen Geld aufs aufs Tagesgeld, Festgeld sie überweisen, wollen Wertpapiergeschäft machen. Punkt. Sie brauchen keine 3D-Banking-App, wo alles vor ihnen schwebt und vielleicht noch ein Personal Finance Management, das berühmte PFM, irgendwie tolle Tortendiagramme vor sie zaubert. Ich glaube, das können die Banking-Apps, der Trend geht sowieso vor allem bei den Neobanken, bei den Direktbanken massiv vom Webbanking hin zum Banking auf dem Device, also auf dem iPhone oder auf dem Smartphone grundsätzlich. dass für alle Menschen, die sich für Finanzwissen interessieren, dass es da eine ganz andere Dimension haben kann. Das wenn ich als junger Mensch vielleicht erstmal lernen will, heißt, was ist Wertpapiergeschäft, was ist ein wie kann der aussehen? ETF, Um das so ein bisschen griffig und anfassbar zu machen, kann man, glaube ich, da die Inhalte schöner aufbereiten und einfach näher bringen als stumpf auf einer Website. Aber das ist so der einzige Anwendungsfall, der mir so ein bisschen irgendwie sich gerade erschließt. Das Thema Banking-Apps sehe ich nicht als sexy an.

Maik

ja ganz lange über diese beiden Gadgets und Hardware gesprochen. Wo ich noch gerne mit dir drüber schlanken würde, ist tatsächlich, glaubst du, dass sich gerade denn durch solche Entwicklungen, kleinere, neue Devices, aber auch jetzt Apple mit der Vision Pro, glaubst du, dass sich die Hardware-Kategorien gerade ändern, weg vom Smartphone hin zu neuen Geräten? Und welche Rolle spielt dann perspektivisch das Smartphone?

Sascha

Ich glaube, wir werden noch eine ganze Weile das Smartphone haben, weil wir dann doch sehr visuelle Menschen sind. Und auch gerade in der Zeit von Social Media mit Snap, Insta, TikTok und Co. Wir wollen Bilder, wir wollen Videos auch konsumieren. Ich glaube, dieser Weg über, keine Ahnung, Spatial Computing oder solche Brillen ist einfach nur die nächste Welle. Aber ich glaube, so die wirkliche nächste Revolution oder Evolution wird dann einfach, wenn wir diese Geräte gar nicht mehr brauchen. Da empfehlen wir zum Beispiel den Doppelgänger-Podcast, da hat Philipp Klöckner auch hier intensiv drüber gesprochen. die Dinge die wir beiden auch gerade sind, in unseren Ohren haben und worüber wir auch aufnehmen. Das heißt unsere Apple ob die jetzt AirPods, von Apple sind oder von einer anderen Firma. Aber ganz am Ende haben wir unseren kleinen Ohrwurm immer mit dabei. Und wenn der schlauer wird, wenn der nicht unbedingt noch das iPhone in der Hosentasche dafür benötigt und wenn da eine vernünftige künstliche Intelligenz wie eine Siri mit dabei ist, die uns all diese Wünsche, die du auch vorhin beim Rabbit beschrieben hast, wirklich in Echtzeit erfüllen, dann kann ich mir vorstellen, dann werden auch mehr und mehr tatsächlich ihr Smartphone zu Hause lassen, vor allem dann auch in den Situationen, wo sie zum Sport gehen, wo sie bei der Arbeit sind etc., weil einfach dieses Mini-Device mir alle meine Wünsche tatsächlich dann erfüllen kann. Ich glaube, das dauert noch ein bisschen. Ich glaube, wir gehen dann in diese Richtung hinein. Es ist natürlich die Frage, brauchen wir weitere Interfaces irgendwie? Und da könnte natürlich dann so ein Rabbit mit dabei sein, der ist irgendwie leichter und günstiger als so ein Smartphone. Und wenn ich sage, ich kann das zu Hause lassen und nehme nur meinen Rabbit mit, der halt irgendwie dann mit meinen Airpods connected ist, dann könnte das vielleicht so ein Zwischenschritt sein.

Maik

uns doch zum Schluss vielleicht so ein kleines Fazit versuchen mal zu besprechen. Wenn wir jetzt nochmal einen Schritt zurückgehen und welche Auswirkungen glaubst du denn oder glauben wir, hat das ganze Thema denn für unsere Branche? Also was könnte so ein, gibt's ein Plädoyer, gibt es ein Fazit? Sollten wir uns damit beschäftigen oder kann man jetzt erstmal warten? Müssen wir uns jetzt diese Geräte kaufen? Sollten wir uns auf andere Themen stützen? Was meinst du?

Sascha

die kurze Zusammenfassung von mir ist, ich fand das Thema wahnsinnig spannend. Ich bin dir damit auch echt schon seit einer Weile irgendwie auf die Nerven gegangen. Vor allem jetzt das Thema die ersten Anwendungsvideos und auch dieser wirklich lange und lesenswerte Artikel im Verge sind dann schon auch trist und enttäuschend, muss man einfach sagen. Gerade das Thema Gewicht in Kombination mit Preis, Akkulaufzeit, limitierte App-Welt etc. Von daher, also ich werde nicht sofort zugreifen und wenn ich es doch tue, darfst du mich damit bitte nicht aufziehen. Aber am Ende ist es glaube ich ein erster Schritt und ich werde das sehr intensiv beobachten. Ich glaube, das werden wir beide und das werden viele machen. Es wird sehr viel mediale Berichterstattung zu diesem Thema geben, denke ich, auch wenn es nur eine sehr spezielle Kundenkohorte sich überhaupt leisten kann. Das wird sich auch in den nächsten Monaten nicht ändern, bevor das Ding halt mal mindestens ein Viertel des aktuellen Preises halt irgendwie hat. Für Banking und Payments sehe ich einfach aktuell keine wirklich relevanten Use Cases, die es jetzt lohnt, dass sowohl wir als auch tatsächlich unsere Industrie da einsteigen. Es gibt so ein paar Ideen, JP Morgan Chase zum Beispiel denkt darüber nach, genau wie Goldman, ob sie die Dinge auf dem Trading-Floor halt verwenden, um Tradern einfach noch mehr Informationen gleichzeitig ins Display zu gießen, als sie jetzt halt auf ihren Bloomberg-Terminals haben. Finde ich super weit hergeholt, da ist, glaube ich, einer mit einer weißen Nase irgendwie aufgewacht und hat sich Quatsch überlegt. Von daher würde ich sagen, abwarten, Tee trinken und ein bisschen anschauen.

Maik

Ja, besser kann ich es nicht zusammenfassen. Also in der Tat sehe ich es genauso. Wir sollten die Augen offen halten und das anschauen und es macht auch sicherlich Sinn, in dem einen oder anderen InnoLab sich so ein Device mal zu bestellen, einfach um ein Gefühl dafür zu bekommen. Ich sehe aber hier überhaupt keinen akuten Handlungsbedarf. Also ich würde jetzt nicht sagen nach dem Motto, okay, damit müssen wir uns jetzt in der Branche auseinandersetzen. Anders als bei dem generellen Thema AI, da ist die Schlagzahl, und das haben wir ja heute auch in den News nochmal erlebt, so hoch. Da passiert jeden Tag so viel. Und das ist sicherlich ein Thema, wo wir jetzt mit Sicherheit sagen können, das ist gekommen, um zu bleiben, das geht nicht mehr weg. Und deswegen machen wir auch den Podcast und werden in den nächsten Ausgaben uns sehr viel intensiver mit solchen oder mit den Themen dort beschäftigen. Im Thema Regulatorik, was wir uns der nächsten Ausgabe angenommen oder annehmen möchten, aber auch Fraud und viele wieder weitere Themen. Von der Seite stimme ich dir 100% zu. Anschauen, ja. Abwarten und Tee trinken, Augen und Ohren offen halten.

Sascha

Für alle Doomsday of the Week-Fans, und da gibt es mittlerweile offenbar einige, wir sparen uns das diese Woche, da wir schon wieder viel zu lang gesprochen haben und jetzt auch ein bisschen zum Ende kommen. Wir haben so ein paar Ideen, wir müssen die mal aufarbeiten und sorry Martin, ich weiß, du hast es dir gewünscht, wir machen beim nächsten Mal auf jeden Fall wieder eins. Und dann würde ich sagen, it's a wrap, unsere heutige Folge mit dem Fokus auf neue Gadgets. Für die nächste Folge orientieren wir uns dann tatsächlich an euren Wünschen, die wir auf LinkedIn erfragt haben. Mike hat es zu Beginn dann erwähnt. Wir haben jetzt auch dank Mike E-Mail-Adressen, an die ihr uns schreiben könnt. Also für Feedback an uns beide einfach eine E-Mail an hello at unpluggedpodcast.de Wir freuen uns über alles, über Feedback, über Kritik, über Wünsche. Wenn ihr Fragen habt, die wir hier live vorlesen und beantworten, das können wir machen. Aber natürlich auch Ideen für weitere Folgen oder natürlich auch Dystopien. Von daher, danke fürs Zuhören und bis bald. Vielen Dank, bis bald.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.