AI Update: News und Trends in KW 41

Shownotes

Disclaimer und Haftungsausschuss

Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

00:00:00: A.I. in Finance. Der Anplagt-Podcast von Sascha Deewald und Mike Klotz.

00:00:13: Hallo und herzlich willkommen zur 22. Episode von A.I. in Finance. Dem Anplagt-Podcast von Sascha

00:00:30: Deewald und mir, ich bin Mike Klotz zum Thema Künstliche Intelligenz im Zahlungsverkehr und

00:00:35: Banking. Seit langer Zeit tatsächlich, wir hatten eine kleine Zwangspause. Wir konnten sozusagen nicht

00:00:46: aufnehmen, ausgründen. Nächstes und dort, wir sind jetzt wieder am Start und freuen uns mit euch

00:00:53: über die neuesten Entwicklungen zu sprechen. Was heißt, wir sprechen gar nicht mit euch,

00:00:56: sondern wir zwei, Sascha und ich, sprechen drüber und ich freue mich, Sascha, dass wir uns seit

00:01:00: langer Zeit seit vier Wochen, glaube ich, noch mal sehen. Hallo, Sascha. Moin Mike, herrs echt

00:01:07: lang her. Wer muss das letzte Mal gerade gesehen oder gesagt in Frankfurt gesehen haben? Aber live,

00:01:13: nebeneinander. Genau, aber danach ist es halt echt sehr ruhig geworden um uns beide und was ich

00:01:18: herbekommen habe, ist so ganz viel Feedback. Haben wir auch schon so ein bisschen ausgewertet und

00:01:23: wollen natürlich auch ein bisschen hier einfließen lassen. Was ich ja auch tatsächlich in den letzten

00:01:27: zwei Wochen bekommen habe, war das Feedback nach dem fehlenden Podcast in der Spotify und Apple

00:01:32: Podcast Liste. Und natürlich auch so ein bisschen der Drang danach. Wie geht es jetzt bei euch weiter?

00:01:37: Hört ihr auf? Was soll das? Und um diese Gerüchte zu zerstreuen, gibt es heute auf jeden Fall eine

00:01:42: volle Episode mit ganz vielen News. Wir haben aber auch ganz viele Ideen irgendwie für so ein bisschen

00:01:48: Tieferlegungen von anderen Partnern Sachen und ich würde sagen, wir nehmen das jetzt mal als Kick

00:01:52: auf Mike, um wirklich wieder wöchentlich hier abzuliefern und wenn es ein bisschen kürzer ist,

00:01:57: ist das auch so. Aber ich glaube einfach eine gewisse Regelmäßigkeit schadet bei dem Thema nicht.

00:02:00: Auf gar keinen Fall. Und Abwesenheit kann man ja aussagen, schafft hier Begehrlichkeiten. Das haben

00:02:05: wir also geschafft. Wir haben uns ganz bewusst dazu entschlossen für ein paar Wochen. Nee,

00:02:09: Spaß beiseite. Wir wollen nochmal Deep Dives machen, wie du es gesagt hast, und auch wieder die

00:02:14: Continuität da reinbringen. Deshalb mehr Culpa. Bezeichnen wir es als verlängerte Sommerpause.

00:02:21: Apropos Begehrlichkeiten, also so wie ich dich begehe, dann begehe ich ja immer die News um

00:02:28: das Thema OpenAI. Da gab es richtig viel. Wir wollen es gar nicht so alles aufarbeiten, weil in den

00:02:33: letzten drei Wochen ging es sehr vor allem rund um diese Finanzierungsrunde von OpenAI in ganz,

00:02:39: ganz viele Richtungen. Aber ich finde es so ganz spannend, mal so ein bisschen einen Blick reinzuwerfen,

00:02:43: denn also die haben ja ihre Finanzierungsrunde jetzt dann seit dem Wochenende, glaube ich,

00:02:47: in Sack und Tüten. Und die Info ist jetzt auch nicht mehr ganz neu. Aber ich habe mich am Wochenende

00:02:52: dazu mal so auf das Pitchbook von denen auf das Pitch Deck und auf das Termsheet, das ist nämlich

00:02:58: auf Pitchbook und New York Times gelegt, so ein bisschen reingewühlt auf das Closing der aktuellen

00:03:03: Runde. Und das ist schon tatsächlich ein bisschen spannend, denn OpenAI erwartet wie immer mal wieder

00:03:09: auch von uns hier gemutmast, wurde in Umsatz 2024 von fast 4 Milliarden Dollar, aber hat in der

00:03:15: gleichen Zeit da tatsächlich immer noch 5 Milliarden als Verlust verbrannt. Und was hier auch sehr

00:03:20: interessant ist, finde ich, dass nicht nur die Nutzerzahlen wirklich massiv gewachsen sind,

00:03:24: sondern natürlich auch die Kosten. Aber wenn man mal so ein bisschen reinschaut, also monatlicher

00:03:28: Umsatz finde ich spannend. August dieses Jahr, also vor gar nicht langer Zeit, war der bei 300

00:03:33: Millionen Dollar. Das ist ein Anstieg von über 1.700 Prozent seit Anfang 2023. Das heißt,

00:03:40: das ist richtig durch die Decke gegangen. Und wir haben derzeit rund 10 Millionen zahlende

00:03:45: Nutzer. Wir haben diese monatliche Gebührfraktionen knapp, so dann ist es genau 20 Dollar aktuell.

00:03:49: Die wollen sie jetzt erhöhen auf 22 in den nächsten Tagen und ich glaube bis 228 soll die in der

00:03:56: Standard-Version auf 44 Dollar erhöht werden. Das ist natürlich auch einer der spannenden Income

00:04:02: Streams auf jeden Fall. Bin ich auch gespannt, wie die Nutzer da mitmachen. Es gibt ja immer noch

00:04:05: viele kostenlose Modelle, die aber auch jetzt fairerweise nicht an die Qualität rankommen,

00:04:11: der aktuellen Modelle gerade 4O+ und Co. Aber was ich auch so ganz interessant finde, sind so die

00:04:16: Umsatzerwartungen und Prognosen. Open Air AI erwartet nämlich, dass der Turnover im aktuellen

00:04:22: Jahr, im nächsten Jahr, auf 11,6 Milliarden anwachsen wird und dass sie bis 2029 die

00:04:28: Marke davon 100 Milliarden Dollar wirklich locker erreichen werden. Und ich glaube,

00:04:32: das verdeutlicht mal wieder die Kosten intensiv auch so eine Entwicklung von so einem oder

00:04:37: respektive mehreren Sprachmodellen ist und das offenbar auch in den nächsten Jahren noch bleiben

00:04:43: wird. Aber wenn wir uns auch sehen, ansehen wie diese Runde jetzt auch gefeiert wird, medial,

00:04:47: dann verdeutlicht es meiner Meinung nach auch, dass eine Vielzahl an WCs, an den langfristigen

00:04:53: Erfolg von Open Air AI und auch dem Chairman Sam Altman glauben. Eines der riesigen Themen in

00:04:59: dem Pitch Deck ist wie immer das Thema AGI, also Artificial General Intelligence. Aber jetzt

00:05:06: lassen wir mal kurz einen kleinen Schritt zurückgehen. Also was ich total spannend finde neben

00:05:09: den ganzen Zahlen, da bin ich ja nicht so tief drinne wie du, aber was ich total spannend finde,

00:05:12: ist die Tatsache, dass ja eigentlich Open AI vom, na ja nicht vom ersten Tag, aber relativ früh

00:05:17: ein sehr valides und tragfähiges Business-Modell hat. Also die Anzahl der Subscriber nimmt stetig

00:05:23: im Kontinuierlich zu und ehrlicherweise, wer die kostenpflichtige Version nutzt, möchte auch nicht

00:05:28: mehr zu kostenlosen Version wechseln. Das kann man mit aller Deutlichkeit sagen. Man hat natürlich

00:05:32: auch was mit den Entwicklungssprüngen zu tun. Also man merkt natürlich auch als Nutzer, da tut

00:05:36: sich eine ganze Menge, da kommen wir ja auch gleich nochmal im Detail zu. Was aber wie gesagt

00:05:39: total wichtig ist, ist die Tatsache, dass es nicht ein Tool ist, was man mal ausprobiert,

00:05:44: sondern was sich inzwischen bei so vielen Menschen in den, in den Alltag, zumindest in den

00:05:51: Business-Alltag ein wichtiges Wechsel geworden ist. Da bezahlt man einfach für und denkt mal an

00:05:54: die Zeiten zurück, wie Google groß geworden ist. Also für Google Mail, also ich kenne die

00:06:01: wenigsten Menschen, die dafür bezahlen oder überhaupt für Google-Dienst zu bezahlen, wie

00:06:04: genauso wie für ganz, ganz viele andere. Hier gibt es ein Business-Modell, was funktioniert und

00:06:10: wo noch Luft noch oben ist. Und ich bin ganz ehrlich, selbst wenn das Ding irgendwann 40 Dollar

00:06:13: kostet, ich meine klar, es gibt Grenzen, aber das ist so wertvoll und das Gleiche siehst du auch

00:06:19: bei Perplexity, da kenne ich die Zahlen nicht, vielleicht du, aber auch da ein tragfähiges

00:06:23: Business-Modell, was scheinbar so funktioniert oder was scheinbar funktioniert.

00:06:27: Na ja, ich, das ist zumindest eine Säule in diesem Modell. Also ich brauche, ich glaube, die brauchen

00:06:33: halt einfach massiv viel Geld, um sich wirklich zu finanzieren und auch refinanzieren für diese

00:06:39: Entwicklung von diesen halt irgendwie sehr riesigen Parametern in den Trainings der Sprachmodelle.

00:06:44: Wie das zukünftig aussehen wird, ich glaube, das ist noch so ein bisschen fraglich, aber ich

00:06:48: finde es gut, dass sie halt auch auf unterschiedliche Beine sich aufstellen. Perplexity kommen wir

00:06:53: auch gleich nochmal zu, geht ja ganz toll in den Search-Bereich hinein und versucht dort mit

00:06:57: zu mischen. Und ich glaube, halt bei OpenAI ist es vor allem tatsächlich die manfliche

00:07:01: Subscription, aber dafür kriegst du halt auch wirklich was für dein Geld. Und du hast gerade

00:07:04: auch Google angesprochen, aber schauen wir auch zu Apple, die haben am Anfang natürlich all diese

00:07:08: Art von Software-Sweets kostenlos rausgegeben, aber dann natürlich auch irgendwo ein Cap eingeführt,

00:07:13: sobald du an der Nadel hängst, mit keine Ahnung, deine Fotos auf Google Fotos hoch zu laden.

00:07:17: Oder auf Apple. Hast du mittlerweile halt irgendwie auch für einen, keine Ahnung,

00:07:21: irgendwie 100 Dick kostenlos und danach musst du halt irgendwie 1,99 bezahlen. Und das war am

00:07:27: Anfang so, ja na gut, da mach ich das jetzt mal drei Monate. Ich zahl das halt seit Jahren und das

00:07:31: geht einfach von der Kreditkarte ab. Ja, das stimmt, aber das wird total spannend. Da würde

00:07:34: mich auch deine Meinung interessieren. Wir haben jetzt schon länger auch nicht mehr über Apple

00:07:37: Intelligence gesprochen, was ja jetzt im Oktober kommen wird, zumindest in den USA,

00:07:41: in der ersten Version und irgendwann mit Sicherheit auch in die EU, so Gott will. Die spannende Frage

00:07:47: ist aber auch Apple Intelligence oder auch generell, wenn du dir anschaust, Meta, Google,

00:07:52: brauchen Energie, brauchen viel mehr Ressourcen als Cloud-Speicher. Cloud-Speicher kostet nichts.

00:07:58: Und da stelle ich mir natürlich die Frage, wie sich das mittelfristig oder langfristig tragen

00:08:04: wird. Du hast jetzt gerade einen Gesichtsausdruck gemacht, der mir widerspricht. Ich habe gehutscht,

00:08:10: hast du noch nicht gehört. Also noch sind wir hier, wenn wir über die aktuellen Themen reden,

00:08:18: ist ja ganz viel der Nutzung, ist halt irgendwie Text-to-Text basiert und das geht ja, sag ich mal,

00:08:23: noch halt irgendwie, was in der Cloud-Verarbeitung ist. Aber wenn du jetzt auf Multimodalität gehst

00:08:27: und auf Text-to-Voice, zum Beispiel, wenn wir gleich über den Advanced Voice Mode sprechen

00:08:32: oder Text-to-Video und Co., dann werden ja hier riesige Datenmengen tatsächlich auch produziert,

00:08:38: die müssen irgendwo zwischengespeichert werden, gebuffert werden, die müssen irgendwo auf einen

00:08:41: Media-Interface hochgeladen werden oder auf den Serverstruktur tatsächlich, um da eine Weile

00:08:47: halt irgendwie zu sein. Und das wirkt massive Datenmengen natürlich auch fressen und ich glaube,

00:08:51: wie wir ja schon mehrmals hier darüber gesprochen haben, das Thema Energie und Speicherkapazitäten

00:08:56: in der Cloud und natürlich dann irgendwo auch als Safe Space On-Premise, sind da absolut nicht mehr

00:09:02: wegzudenken. Schauen wir uns mal irgendwie das Thema Advanced Voice Mode, habt ihr sicherlich

00:09:07: irgendwie auch alle verfolgt, war ja riesengroß in der Presse, du hast es getestet, ich sowieso.

00:09:11: Und vielleicht für alle nochmal, das OpenAI hat vor, ich weiß nicht, ich glaube, drei Wochen

00:09:17: war es, den diesen AVM, also Advanced Voice Mode, eingeführt. Erst mal für zahlende Chat-GPT,

00:09:22: Kundinnen und Kunden. Und das ist dieser neuen Sprachmodus. Man muss das zu sagen,

00:09:26: genau, also vielleicht, da ich kurz nicht unterbrechen darf. Advanced Voice Mode wurde ja mit dem

00:09:31: O1-Sprachmodell eingeführt. Also es ist zusammen quasi mit einem neuen Preview-Modell eingeführt.

00:09:39: Und dieses O1 ist ja in mehrerlei Hinsicht ziemlich spannend. Also wir haben auf der einen Seite

00:09:43: den Advanced Voice Mode, was ich aber viel spannender finde und was wir hier in Deutschland auch schon

00:09:47: testen oder auch nutzen können, ist ja die Tatsache, dass O1 viel weniger fantasiert, viel besser

00:09:56: mit den mathematischen Aufgaben ist und insgesamt die Ausgabe, die man bekommt, noch professioneller

00:10:04: im Sinne, was Qualität betrifft. Also wir haben immer gesagt, das steigert sich und die ganzen

00:10:09: Modelle werden immer besser. Ich finde, O1 ist ein krasser Sprung nach vorne, auch wenn es ein

00:10:15: bisschen langsamer ist. Aber in der Qualität, wenn man Fragen stellt, was man als Antworten bekommt,

00:10:20: finde ich das ein krasser Move. Und damit sorry, dass ich unterbrochen habe der Advanced Voice Mode,

00:10:25: der noch nicht in Deutschland oder noch nicht in der EU zumindest nicht ohne VPN zu testen ist,

00:10:31: mit etwas Trickserei kann man ihn aber auch hier nutzen. Ja, komm ich gleich so, ich würde noch

00:10:38: einmal kurz darauf referenzieren, was du gerade gesagt hast. Also ja, das Ding ist jetzt irgendwie

00:10:42: logischer, es überlegt ja auch länger, was ich ehrlich aber so tierisch nervig finde, weil ich

00:10:47: daran gewöhnt bin, dass mein V.O. mir halt innerhalb einer Bruchteil von der Sekunde eine Antwort

00:10:51: rüber spuckt, Qualität jetzt mal dahingestellt und Hochwertigkeit. Aber wenn du eine relativ

00:10:57: simple Frage in O1 stellst und der dann irgendwie fünf bis sieben Sekunden überlegt, dann fühlt

00:11:02: sich das wirklich wie eine Ewigkeit an und du denkst, das Ding ist kaputt oder du hast gerade

00:11:06: kein Internet und das finde ich schon schwierig und du hast ja auch argumentiert und das ist ja so

00:11:11: ein bisschen die Open AI Argumentation, dass es jetzt weniger fantasiert, weil es halt einfach

00:11:15: länger überlegt. Das hat natürlich dort eine Bulche, das ist überlegt, weil es durchsucht

00:11:20: einfach nochmal andere Datenquellen und versucht die irgendwie anders zusammenzuführen. Aber wir

00:11:23: reden ja immer noch von generativer künstlicher Intelligenz, also dieses schöpferische Element im

00:11:28: Sinne von Deep Learning um Muster in bestehenden Datensätzen zu identifizieren und zu analysieren.

00:11:34: Aber was es ja ganz am Ende macht, ist einfach nur die Wahrscheinlichkeit des nächsten Wortes zu

00:11:39: berechnen. Also so eine richtige Logik im Sinne von mathematischer Logik ist da ja immer noch nicht

00:11:45: drin und das finde ich sogar spannend und das sind auch so die großen Kritiken, die es an

00:11:50: diesem Modell gerade gibt im Vergleich zu dem bisherigen. Genau, aber beim Voice Mode und das

00:11:57: finde ich halt auch glaube ich cool für euch, die da draußen zuhören, das ist also der Essys

00:12:02: erstmal nur für Plus und Teams Nutzer verfügbar und ich glaube andere Abonnenten

00:12:06: soll jetzt in den kommenden Wochen folgen. Was ist es am Ende? Es sind einfach Audio Chats,

00:12:12: ja du kannst dich halt irgendwie mit GPT jetzt unterhalten. Ist es deutlich natürlicher als

00:12:16: es vorher war? Es hat auch so ein paar neue coole Funktionen, das nennt sich so Custom Instructions.

00:12:20: Memory ist mit dabei, also du kannst das Ding ein bisschen personalisieren und du kannst halt

00:12:26: irgendwie deine Gedächtnis mit dabei haben. Das finden wir beide ja sehr, sehr gut, dass du GPT

00:12:30: nicht immer neu anlernen musst und in der gesamten Kontext der letzten Wochen als Gespräch halt

00:12:35: wirklich auch noch verarbeitet ist teilweise auch ein bisschen gruselig. Aber es ist halt irgendwie

00:12:39: wie so ein Personal Assistant, wie so ein Buddy, mit dem du einfach irgendwie sprechen kannst,

00:12:43: weil der sich auch an gestern und dann letzte Woche erinnert. Und was halt so ganz schön ist,

00:12:47: das finde ich tatsächlich, weil ich auch die Stimme irgendwie nicht mehr hören kann mittlerweile,

00:12:50: weil ich es sehr intensiv nutze, ist, dass man die Stimme jetzt anpassen kann und auch

00:12:55: Chat GPT so in Dialekten sprechen kann. Es gibt 9 Stimmen, die da verfügbar sind,

00:12:59: durch so, was sie nennen, ist glaube ich naturinspirierte Namen, würde ich das auf Deutsch

00:13:05: glaube ich nennen. Aber es ist interessant und ich glaube mit diesem Voice Mode kannst du

00:13:09: einfach auch völlig neue Themengebiete für dich selbst mal irgendwie ausprobieren und

00:13:13: bespielen. Also Nutzer können zum Beispiel Chat GPT auch nutzen, um sich Geschichten

00:13:18: erzielen zu lassen, sich auf irgendwelche komischen Situationen im Business oder auf,

00:13:22: keine Ahnung, First Date, auf Vorstellungsgespräche vorzubereiten und du kannst es jetzt viel

00:13:26: besser nutzen, auch um Sprachkenntnisse zu trainieren. Ich habe so ein bisschen, also als

00:13:31: spanisch und französisch mal so ein bisschen versucht, rumzusprechen und das mir auch als

00:13:38: so, ja, keine Ahnung, Duolingo Ersatz mir aufzubauen, auch das funktioniert nach einer ganzen Weile.

00:13:43: Und ich habe tatsächlich in der Woche, bevor das rauskam mit der Version von GPT4O, das mal

00:13:51: ausprobiert als, als Bot, den ich mir damit direkt gebaut habe, für eine bestimmte Interviewsituation

00:13:57: in einem Gremium, was mir sehr schwierige Fragen gestellt hat und das habe ich quasi versucht

00:14:02: zu simulieren mit einem Rollenspielcharakter. Und ich habe dann mit jeder weiteren Frage,

00:14:07: Antwort, Kombination wirklich gemerkt, dass es viel, viel besser wird und ich dann das ab und zu

00:14:12: einfach beim Joggen und zwischendurch und wenn ich im Kanal, im Taxi oder im Zug war, einfach

00:14:16: tatsächlich als Dialog mit diesem Advanced Voice Mode genutzt und ich glaube, dass wir

00:14:20: in viele Menschen machen, sich auf Alltagssituationen, Business Situationen halt irgendwie vorzubereiten.

00:14:25: Weiß ich, also eine ganz neue Form des Dirty Talks erlebe ich gerade, davon abgesehen. Was ich

00:14:32: aber spannend finde, was hast du nur im Nebensatz erwähnt? Zwei Dinge, das eine nämlich Emotionen.

00:14:38: Du kannst jetzt im Advanced Voice Mode sagen, spreche mit besonders fröhlicher Stimme, spreche

00:14:45: mit besonders seriöser Stimmfarbe und Klangfarbe und dann ändert sich die Stimme auch entsprechend.

00:14:52: Du kannst auch lustige Sachen machen, spreche mit besonders piepsiger Stimme, mit Mickey Mouse

00:14:56: Stimme, dann wird die Stimme entsprechend erhöht oder sehr beruhigend. Also kannst

00:15:01: ja dann eine eigene Yogersession quasi machen. Das zweite Thema, was ich noch viel spannender

00:15:06: finde, ist nämlich die Tatsache und das hast du gerade gesagt, die Konversation ist sehr viel

00:15:09: natürlicher und die ist deshalb viel natürlicher, weil wie bei unserem Podcast, du mich und ich dich

00:15:15: unterbrechen kannst und Chatchivity in dem Fall dann auch darauf reagiert. Das heißt,

00:15:21: wenn sie bis hierhin war es immer so, wenn was gesagt wurde, musst du sie immer abwarten oder

00:15:26: halt mit per Knopfdruck quasi interrupten. Hier kannst du einfach dazwischen quatschen und der

00:15:31: Kontext geht nicht verloren. Das finde ich super spannend und macht natürlich das Gespräch super

00:15:35: natürlich und du hast es gerade angesprochen, gerade wenn du Sprachen lernen willst oder

00:15:39: wenn du halt so eine Interviewsituation testen möchtest. Ja, es fühlt sich tatsächlich viel

00:15:43: natürlicher an und auch das ist mittlerweile auch schon wieder gewöhnt bei mir. Ich denke halt so,

00:15:46: ja klar, aber logisch, das ist ja irgendwie auch dann neu. Die Nutzung ist so ein bisschen schwierig

00:15:52: noch, es ist zeitlich noch begrenzt. Ich glaube, nach 30 Minuten oder so wird so eine Nachricht

00:15:56: angezeigt, dass die Zeit abläuft. Bei mir ist das nicht so ein Problem, weil ich immer sehr schnell

00:16:00: spreche und das mir endlich mal zur Gute kommt. Ich glaube aber persönlich wirklich daran so als

00:16:05: kleine Konklusio hier, dass diese natürliche Sprachinteraktion mit den Chatchy-Betis, diese

00:16:10: Nutzerinnenbindungen einfach noch viel mehr fördert und auch die Akzeptanz noch viel mehr

00:16:14: steigern wird und das Ganze halt auch gepaart mit dieser Memory Funktion über die wir gesprochen

00:16:18: haben und ich bin mir auch ziemlich sicher, dass Chatchy-Betis damit noch viel mehr zum

00:16:21: persönlichen Assistenten/Sprachassistenten dann aktuell in über 50 Sprachen werden kann,

00:16:28: als es das jetzt ohnehin schon ist. Also ganz witzig ist in dem Kontext, ich habe ein Artikel

00:16:33: gefunden auf dem amerikanischen Fox, wo der Artikel beschreibt, dass es eine wachsende,

00:16:40: emotionale Abhängigkeit von Menschen zu fortschrittlichen K.H.-Headboards wie G.B.T.4. gibt,

00:16:45: die dann quasi natürliche Gespräche für Rundemotion widerspiegeln können und selbst OpenAI

00:16:52: selbst warnt vor dieser emotionalen Abhängigkeit und der Gefahr, dass Menschen den Kontakt

00:16:57: zu realen Beziehungen verlieren, wo ich so sage, ach ok, jetzt haben sie vielleicht noch wieder

00:17:01: eine Ethik-Team oder zumindest noch mal einen alten Artikel von Elias Hutzkever irgendwie

00:17:05: ausgegraben, den er irgendwo geschrieben hat, als er noch bei OpenAI war. Aber sie argumentieren,

00:17:10: dass trotz des Risikos das Modell quasi mit einer Sprachausgabe für Nutzer veröffentlicht wird,

00:17:16: so wie wir eben darüber gesprochen haben. Aber in diesem Artikel wird überlegt, ob solche

00:17:22: Beziehungen zukünstliche Intelligenz süchtig machen und auch dann den sozialen Umgang,

00:17:27: so wie unsere Fähigkeit eine echte menschliche Beziehung zu pflegen, dann auch negativ beeinflussen

00:17:33: kann. Ich finde das ein ganz spannender Aspekt, weil ich denke jetzt gerade, also Gefahren sieht

00:17:38: man schnell und ja, ich erwische mich ja auch dabei, wie ich in so einem Chat vergesse,

00:17:43: dass das gegenüber letztendlich sehr künstlich ist, also keine natürliche Person. Aber wenn

00:17:49: wir jetzt mal an solche Situationen denken wie Senioren, also alte Menschen, die vielleicht

00:17:55: keinen Kontakt zu Familie haben aus verschiedensten Gründen oder aber auch im medizinischen

00:18:03: Umfeld. Ich denke hier an Autismus zum Beispiel, die große Probleme haben, soziale Interaktion

00:18:08: mit echten Menschen sozusagen durchzuführen oder am Leben zu erhalten. Da ist natürlich so etwas,

00:18:15: eher Segen als Fluch. Und ich glaube am Ende ist es eine Form der Gewöhnung. Also wir haben immer

00:18:22: von neuen Technologien gewarnt und es gab immer eine Form der Abhängigkeit. Ich erinnere mich an

00:18:26: den Game Boy, alle waren abhängig vom Game Boy, davor waren es die Comics, davor waren es keine Ahnung,

00:18:32: was Bücher, dann das Fernsehen irgendwann. Also ja, also man muss sicherlich aufpassen und es gibt

00:18:38: Gefahren, aber ich sehe hier sehr viel mehr Nutzen. Und wir kommen ja auch gleich nochmal zu anderen

00:18:47: Themen, also auch im Bereich von Support. Also wenn du einen Kunden hast, der irgendwie total

00:18:52: erboßt ist, dann ist das vielleicht schöner, wenn der einen künstlichen Assistenten anschreit und

00:18:59: das Gefühl hat, da ernst genommen zu werden, als wenn sich der echte Support mitarbeitet, damit

00:19:03: auseinandersetzen muss. Ja, total. Also ich glaube, es gibt ganz, ganz viele positive Beispiele. In

00:19:09: diesem Artikel, wir verlinken den auch nochmal, da gibt es ja so negative Beispiele, die auch so

00:19:13: ganz witzig sind, finde ich. Also da gibt es vor allem so diese emotionale Abhängigkeit. Da gibt es

00:19:17: eine Person, die beschrieben wird, wie sie eine enge Bindung zu einem KI-Assistenten entwickelt,

00:19:23: der in so eine Halskette eingebaut ist und dass sie quasi diesen enger empfindet als ihre realen

00:19:30: Freunde und sich dann nur noch mit diesem Ding irgendwie unterhält und ihre kompletten Freundschaften

00:19:33: verliert. Ein weiteres Beispiel ist auf so einer Plattform, die heißt Replica, auf der Menschen

00:19:38: dann romantische und teilweise sogar sexuelle Beziehungen mit KI-Bekleitern eingehen. Und als

00:19:44: diese KI dann die Möglichkeit zu den erotischen Chats eingeschränkt hat, waren viele Nutzer halt

00:19:50: komplett irgendwie emotional betroffen und haben dann irgendwie da rumrandaliert, was es denn soll,

00:19:54: weil das ja ja der eigentliche Grund, warum sie halt irgendwie dort sind. Aber das ist so ein

00:19:58: bisschen eskaliert und wurde dann glaube ich auch geschlossen. Ich musste eben ein bisschen

00:20:03: schmunzeln, also sagen, du hättest den Artikel bei Vox gefunden und ich dachte, der ist, warum

00:20:08: bist du auf Vox News? Das ist aber Vox mit V in Anfang geschrieben, also Entwarnung für die

00:20:15: Lesse. Deswegen haben wir ja auch die zunachs gegeben, die amerikanische Version. Es ist nicht

00:20:19: TV Vox gleich neben RTL2. Ich dachte an Vox News, also ich hatte was ganz anderes. Vom orangefarmenen

00:20:28: Clown. Genau, Thema Stimmen auch spannend. Meter hat jetzt auch schon glaube ich zwei Wochen her,

00:20:36: aber vielleicht habt ihr das noch nicht alle mitbekommen. Lama 3.2 vorgestellt und hat bekannt

00:20:42: gegeben in seiner neuen Version des Modells, dass nun auch visuelle Fähigkeiten besitzt,

00:20:48: dass da auch neue Stimmen drin sind und zwar prominente Stimmen. Die haben jetzt irgendwie

00:20:52: Judy Dench, die haben John Cena mit dabei und wie immer, die neuen Funktionen sind natürlich

00:20:58: erstmal nur in den USA eingeführt und sollen dann in weiteren Märkten eingeführt werden,

00:21:01: aber auch Meter hat begriffen, dass das Thema Voice und Voice Ausgabe und tatsächlich halt irgendwie

00:21:07: Assistenten absolut über Voice funktioniert und deutlich weniger über Spracheingabe und hat

00:21:12: das gesamte Modell 3.2 jetzt auch in diese Richtung gestrickt, weil wie wir auch schon hier ab und

00:21:17: zu besprochen haben, das Thema Latents ist bei Voice natürlich wahnsinnig wichtig und muss

00:21:21: halt von Anfang an mitgebaut werden, weil du später nicht mehr reintrainieren kannst.

00:21:25: Muss ich mich jetzt schämen, wenn ich die Namen nicht kenne, die du gerade genannt hast?

00:21:28: Du kennst Judy Dench nicht. Nee, was macht die? Die war Q bei James Bond.

00:21:37: James Bond, schon mal gehört? Ah, ja, ist das die Britin, die ältere?

00:21:44: Äh, ja. Okay. Überleg selber, ob du es rausschneiden möchtest. Genau, Judy, ich glaube, die ist auch,

00:21:52: ich weiß gar nicht, ob die gestorben ist. Die war halt...

00:21:55: Ich meine, tatsächlich, die ist gestorben vor ein paar Wochen, kann das sein?

00:21:58: Weil sie nicht. Also, die hatte glaube ich, die hatte so ein paar Themen und die war schon ewig

00:22:05: halt irgendwie bei James Bond, aber die war nicht Q jetzt, wo ich so hätte einfängelt.

00:22:08: Genau, das war M-Body. Aber die ist dann irgendwann ausgeschieden, was echt traurig war für alle

00:22:13: eingefleischten James Bond Fans, weil die war halt irgendwie 100 Jahre mit dabei und war wirklich,

00:22:18: wirklich toll. Okay. Genau, back to a script. So ein richtiges Script haben wir ehrlicherweise

00:22:25: heute gar nicht, aber es gibt ein total spannendes Thema auch nochmal aus dem Bereich AI Goes to

00:22:30: Hollywood, könnte man es formulieren. Es gibt ja diese Firma Lionsgate und für viele,

00:22:35: vielleicht auch für dich, bekannt wie Blockbuster, wie John Wick oder die Tribute to Panem, also

00:22:43: Hunger Games und die haben nun eine Partnerschaft mit diesem KI Startup Runway, über das wir

00:22:48: auch schon mal gesprochen haben, geschlossen. Und was die wollen, ist ein Genereye Video Modell

00:22:53: gemeinsam entwickeln, das dann Projekte von Filmemachern erstmal unterstützen soll, denn

00:22:59: Lionsgate sieht in dieser Technologie eine Möglichkeit, die Inhalte einfach viel effizienter

00:23:04: zu produzieren, um so natürlich neue Projekte günstiger, aber auch irgendwie kreativer zu

00:23:08: gestalten, ohne dass du halt irgendwie krasse Effekte halt irgendwie einbauen musst. Und der

00:23:13: Anbieter Runway ist ja spezialisiert genau auf diese generative Modelle und natürlich auch bekannt

00:23:17: für solche KI Tools. Eine Gen2 haben wir mal darüber gesprochen, das ist so ein KI Tool,

00:23:21: das aus Textbeschreibungen wirklich...

00:23:23: absolut foto und video realistische Content Videos erstellen kann und dieser runway CEO hat

00:23:31: jetzt zusammen mit dem Lionsgate Manager hervorgehoben, dass die diese Technologie

00:23:35: Filmemacher ganz neue Möglichkeiten bieten soll ihre Geschichten zu erzählen und dann

00:23:39: auch das Interesse von Produzenten wecken möchte. Gleichzeitig ist natürlich auch ganz ganz

00:23:44: viel Skepsis mit dabei, weil einfach noch unklar ist, ob und wie diese kreativen Teams

00:23:49: ob die vergütet werden, wenn ihre Projekte als Trainingsmaterial natürlich für KI auch

00:23:53: genutzt werden, also die gute alte Copyright-Debatte, die wir hier auch schon ein paar Mal irgendwie

00:23:57: thematisiert haben, aber ich finde diese Partnerschaft kommt einfach zu einer Zeit,

00:24:00: in der KI offenbar in der Filmindustrie überall auf der Welt so intensiv diskutiert wird und

00:24:06: natürlich gleichzeitig bei ganz vielen kreativen Besorgnisauslös, sowohl die Copyright-Debatte

00:24:11: als auch gleichzeitig natürlich ob es zukünftig überhaupt noch Models, Schauspieler und Co. geben

00:24:16: wird und ob es überhaupt noch braucht oder ob alles wirklich on-demand live erstellt wird

00:24:22: mit einem LLM und ich glaube es gibt ganz viele Filmemacher und diese ganzen Produktionsfirmen,

00:24:27: die diesen Einsatz jetzt als Unterstützung begrüßen und ich glaube ganz viele fürchten

00:24:32: einfach die Existenz ihres Arbeitsplatzes. Ja, total nachvollziehbar und wir kommen ja

00:24:38: gleich noch noch zu weiteren OpenAI News zum Thema Entwickler, also Softwareentwickler. Es gibt

00:24:45: in der Tat Berufszweige, die sich glaube ich sehr stark verändern werden. Du hast es gerade

00:24:51: genannt, also der ganze kreative Bereich, alles was mit Bild- und Videogenerative AI zu tun hat und

00:24:57: ich habe auch noch ein Beispiel mitgebracht von Pica, da kommen wir gleich zu, es ist wirklich wild,

00:25:02: was momentan schon funktioniert. Zugegebenermaßen immer so vier, fünf Sekunden Spots, aber das

00:25:10: ist ja der Anfang und ich würde mich nicht wundern, wenn wir in den nächsten Jahren nicht

00:25:16: Monaten, aber wenigen Jahren wirklich AI generierte Zähnen oder vielleicht sogar ganze Filme sehen

00:25:21: werden. Auf jeden Fall. Ich glaube auch wenn du die Memory Funktion von den einzelnen Charakteren

00:25:26: und Hintergründen und Zähnen einfach speichern kannst und einfach wirklich eins zu eins wieder

00:25:33: verwenden kannst, dann ist es ja nicht mehr schwer und wenn du dann halt irgendwie in aller

00:25:37: Kreativität dann die Welten miteinander verbindest, dann sparst du dir einfach so viel Geld, Aufwand,

00:25:44: Kapazität für die Ressourcen überall, also von der Infrastruktur aber eben auch von den

00:25:50: wirklich dann auch sehr teuren Schauspieler*innen. Du hast ja eben gerade schon Meter genannt,

00:25:55: dann kommen wir vielleicht die News direkt anschieben. Also Meter hat ja nicht nur ein neues LLama 3.2

00:26:00: vorgestellt, sondern auch ein neues Tool namens Movie Gen. Ein Movie Gen ist wirklich wild,

00:26:06: man kann es noch nicht nutzen, also man kann sich nur die Beispiele anschauen und das richtet sich

00:26:12: an wirklich Kreative und wenn man sich anschaut was möglich ist mit einfachen Tools und Text

00:26:19: Proms und was als Ergebnis rauskommt, auch die Tatsache, dass ich Bilder oder viel mehr Videos,

00:26:26: die da sind, manipulieren kann. Also in Beispiels Videos sieht man jemanden, der auf einer Strecke

00:26:32: gerade ausjoggt und man hat einfach mal mir nichts, je nichts im Hintergrund geändert oder dem

00:26:38: irgendwelche neue Klamotten angezogen. Es ist schon sehr beeindruckend. Natürlich sieht man es jetzt,

00:26:44: stand jetzt noch, das sieht nicht so 100% echt aus, aber auch hier bewegen wir uns ja am Anfang und

00:26:50: das was du gerade beschrieben hast, nämlich dass ich neue Zähnen erstellen kann, neue Film

00:26:54: erstellen kann. Das ist sicherlich das Endergebnis, aber wenn wir uns anschauen wie einfach es es

00:27:00: jetzt möglich ist für Unternehmen eigene Werbeclips zu erzeugen. Ich meine, das war früher großen

00:27:05: Companies vorenthalten, kreative Werbung zu schalten und auf die Webseite zu packen. Das wird

00:27:12: in wenigen Monaten, wenigen Jahren für jeder Mann, jeder Frau möglich sein, für das eigene

00:27:17: Unternehmen vom Dachdecker bis hin zum Friseurgeschäft sein eigenes Imagevideo zu erstellen, ohne dass

00:27:23: du aufwendige Dreharbeiten durchführen musst. Das ist super spannend. Wir werden sicherlich mehr

00:27:30: Bewegbild in nächster Zeit sehen, aber auch natürlich super erschreckend, wenn man überlegt.

00:27:37: Der hängt natürlich auch sonst krasse Arbeitsplätze und eine ganze Industrie dran.

00:27:40: Hast du noch ein Thema, was dazu passt?

00:27:42: Tatsächlich, Pica. Pica ging so ein bisschen durch die Decke in den letzten Tagen, weil sie eine

00:27:50: neue Version geloncht haben. Also auch für die Hörerinnen und Hörer, Pica ist eines der vielen

00:27:55: Text-to-Video-Tools, wo man Bilder hochladen kann und aus den Bildern kann man sich lustige

00:28:01: Bewegbilder machen oder komplett neu animieren. Und die haben eine neue Version geloncht, Version 1.5.

00:28:10: Und mit dieser Version 1.5 haben sie Presets eingeführt. Also man kann es noch nicht so

00:28:16: superfrei benutzen, aber die Presets sind sehr beeindruckend. Ich schick dir gleich mal ein

00:28:21: kleines Video. Man kann also sagen, es gibt ein Bild und mache aus dem Bild einen Luftballon

00:28:28: oder lass es zerquetschen. Und was dann passiert ist, also das Bild wird dann benutzt, um beispielsweise

00:28:35: ein Porträtfoto als Riesen-Luftballon aufblasen zu lassen, was super überzeugend und auch witzig

00:28:41: aussieht. Und man kann halt lustige Memes draus basteln, als kostenlos zu nutzen. Man muss

00:28:47: sich nur anmelden. Wir verlinken es natürlich und packen es in die Show-Nauts und vielleicht

00:28:50: packen wir auch mal so ein kleines Beispiel Video von mir, wo man meinen Kopf als Kuchen

00:28:56: zerschneidet. Sieht sehr überzeugend aus und hat zumindest bei meinen Geschwistern für

00:29:00: großes Entsetzen gesorgt. Entsetzen oder Freude, das liegt im Auge des Betrachters.

00:29:06: Es wurde kommentiert mit IGIT. Das weiß ich nicht, warum. Weil ich nimm Kuchen oder wegen

00:29:12: meinem Gesicht, I don't know. Genau, das hatten wir dazu. Vielleicht machen wir so ein bisschen,

00:29:21: wir hatten eben schon über OpenAI gesprochen. Tatsächlich, du hast ja ganz viel, was das

00:29:24: Thema Finanzierung betrifft, quasi auseinandergenommen. Aber es ist auch darüber hinaus einiges passiert.

00:29:33: Auf der einen Seite haben im Oktober die OpenAI Dev Days angefangen. Der erste war bereits

00:29:42: am 1. Oktober in San Francisco. Am 30. Oktober geht es in London weiter und zu Ende sind

00:29:48: die Dev Days dann am 21. November. Im Rahmen dessen hat Sam Altmann auch einen kleinen

00:29:54: Fiser-Chat zum Besten gegeben oder wie mehr gab es einen Fiser-Chat mit ihm. Den verlinken

00:30:01: wir natürlich und es wurde einiges auch angekündigt. Developer Days bedeuten, es wurden ganz viele

00:30:08: Sachen angekündigt, dass Entwicklerinnen und Entwickler aus aller Welt halt die neuen OpenAI

00:30:12: Tools implementieren können. Es gibt so zwei, drei, die ich ganz spannend finde. Auf der

00:30:17: einen Seite hat man eine neue Real-Time Voice API herausgebracht oder bringt sie jetzt

00:30:23: heraus, was dazu führt, dass Entwickler und Entwicklerinnen das ganze Thema Speech-to-Speech

00:30:31: in ihre Anwendung implementieren können. Also alles, was mit Voice zu tun hat, wir denken

00:30:37: jetzt auch, du hast eben das Beispiel gemacht mit dem Thema Sprache. Sprache lernen, aber

00:30:45: auch wenn es darum geht, um Sprachausgabe, also dass ich in der App beispielsweise Artikel,

00:30:52: Online und so weiter vorlesen kann, das ist jetzt mit der neuen Voice API noch viel einfacher

00:30:57: und vor allen Dingen echts halt möglich. Das heißt, man kann halt einfach dieser API einbinden

00:31:02: und dann entsprechend seine Lösung entsprechend mit dem Thema Sprache aufzuwerten. Genau,

00:31:10: dann war das Thema Sprache. Dann habe ich so ein bisschen das für mich verordnet und

00:31:17: dann haben wir eben auch schon drüber gesprochen, was hat das auch für Auswirkungen, die ganzen

00:31:20: Entwicklungen auf Arbeitsplätze und insbesondere beim Thema Softwareentwicklung hat ChatGiviti

00:31:26: jetzt Canvas herausgebracht oder wird es herausbringen. Das ist ein neues Tool, wo ich

00:31:32: im Prinzip den Programmcode direkt mit bearbeiten kann in einer Chat-Funktionität. Bisher war

00:31:39: es immer so, ich konnte natürlich mir Programmcode erstellen lassen, aber Canvas ist im Prinzip

00:31:44: ein Entwicklungsfenster oder Tool, wo ich zusammen mit ChatGiviti am Code arbeiten kann

00:31:50: und Code direkt ändern kann. Das heißt, als Entwickler komme ich sehr viel schneller

00:31:53: zum Ziel. Ganz viel Fleißarbeit fällt weg, der die sonst notwendig ist und ein krasser

00:32:01: Schritt auch in Richtung Anwendungs- und App-Entwicklung. Genau, das waren die beiden interessanten

00:32:08: Themen, die ich noch hatte zum Thema OpenAI. Ich glaube, Canvas, einmal kurz eingehakt,

00:32:14: es wird, glaube ich, wirklich cool. Ich habe da so ein bisschen angefangen, mit rum zu

00:32:18: spielen, aber es ist irgendwie, vielleicht stelle ich mich auch ein bisschen dummer,

00:32:22: aber es ist noch nicht so richtig da. Aber die ursprüngliche Chat-Bots-Oberfläche hat

00:32:27: ja quasi nicht zugelassen, dass du einzelne Abschnitte von einem Ergebnis überarbeiten

00:32:31: kannst. Stattdessen war ja immer so eine Anpassung nur mittels genauer Beschreibung,

00:32:36: also ein Reprompting möglich. Oder der Nutzer musste dann den ganzen Abschnitt neu kopieren

00:32:41: und neu einfügen. Und durch diese neue Canvas-Funktion kannst du es quasi wie so ein Lector oder

00:32:46: ein Codeprüfer nutzen, um so ein direktes Feedback quasi reinzugeben. Und was Canvas

00:32:50: macht, das soll sich dann automatisch in so einem neuen Fenster öffnen, wenn GPT so ein

00:32:54: Szenario erkennt, in dem die Anwendung hilfreich sein könnte. Und dann gibt es irgendwie

00:32:58: auch noch Shortcuts, die du dann irgendwie einfügen kannst, was ich auch ganz cool finde,

00:33:03: mit denen sich der Nutzer dann direkt vorschlägt und auch Feedback zu einzelnen setzen oder

00:33:08: teilen in einem Bild oder einem Video abholt. Die längeren Dokument ändern kann, rechtschreiben,

00:33:14: prüfen, Leseniveau anpassen etc. Und das sind so Funktionen, die wir aus Deepel kennen,

00:33:21: aus diesem deutschen KIS-Data, wenn man so aus Köln. Aber das ist damit drin und das

00:33:27: finde ich super schön, dass das jetzt auch tatsächlich als UI-Erweiterung oder Optimierung

00:33:34: jetzt erscheinen wird.

00:33:35: Sie erinnert mich sehr an das, ich komme, ich denke die ganze Zeit drüber nach und suche

00:33:39: hier parallel. Es gab in einem unserer Ausgaben vor, weiß ich nicht, zwei, drei Monaten schon

00:33:44: mal ein Startup, was so ein bisschen durch die, oder AI-Unternehmen, was durch die Decke

00:33:48: ging, die einen ähnlichen Approach hatten. Da ging es auch sehr stark um das Thema Anwendungsentwicklung.

00:33:53: Ich komme nicht mehr auf den Namen, weißt du noch, wer das war? Nee, muss ich nachreden.

00:33:59: Ich such's mal für die Show-Nurz raus. Genau, dann habe ich noch so zwei, drei Sachen,

00:34:04: mehr oder weniger witzige oder mal nicht witzig aus dem Reich. Der Hardware gibt's noch mal

00:34:09: ein bisschen was Neues, nachdem du dir ja immer noch keine Wischenproge gekauft hast und

00:34:14: offensichtlich auch noch keine MetaQuest, gibt es aber etwas von Ray-Ban. Die Smartglasses

00:34:21: von Ray-Ban sind nochmal aufgewertet worden durch ein neues Firmenbeer-Update, also da

00:34:26: setzt Meta zusammen mit Ray-Ban augenscheinlich sehr viel drauf auf das Thema. Die Ray-Ban

00:34:32: Smartglasses, wer sie nicht kennt, sind ja im Grunde nichts anderes als eine Brille. Also

00:34:37: es gibt keine visuelle Funktion, aber mit eingebauten, wie heißt es, Knochen-Schall-Kopfhörer als auch

00:34:45: Mikrofon und Kamera. Das heißt, man kann halt auf eine sehr natürliche Art und Weise mit

00:34:51: seinem Chat-Bot interagieren. Man kann fragen, was sehe ich hier vor mir, man kann sich

00:34:58: Kontext holen. Man kann aber auch jetzt mit dem neuen Firmenbeer-Update QR-Codes erkennen

00:35:03: und das abspeichern und man kann auch Erinnerungsfunktionen hinzufügen nach dem Motto. Ich parke hier.

00:35:08: Das finde ich ganz cool. Erinner mich dran oder sag mir später den Weg zurück zum Auto

00:35:14: und die Brille erfasst das dann entsprechend alles. Aber das ist cool, dass ich jetzt so

00:35:19: ein bisschen erweitere. Ich habe die tatsächlich auch schon zwei, drei Mal aufgehapt. Die sieht

00:35:26: halt aus wie eine normale, bisschen dickere vom Stegherr Ray-Ban-Brille. Die gibt es mittlerweile

00:35:31: auch nicht nur in schwarz, sondern auch in schöneren Farben und auch echt cool, echt sexy.

00:35:36: Ich bin ja auch selber so 50% Brillenträger im Leben. Also habe ich mir gedacht, warum denn

00:35:41: eigentlich nicht so ein Ding? Wer so ist Apple Vision Pro? Aber die Hauptuse-Cases sind,

00:35:47: du nimmst halt irgendwie schnell ein Foto oder ein Video Snippet für Facebook, Insta,

00:35:52: auf und das sind einfach nicht meine Portale und deswegen macht das halt irgendwie für

00:35:59: mich nicht so viel Sinn. Aber wenn du es jetzt breiter und generischer machst wie halt über

00:36:02: dieses Merk, die in meinem Auto steht, Funktion oder QR-Codes, die ich ja für ihre Weise im

00:36:06: echten Leben sehr wenig gibt, außer jetzt keine Ahnung, auf speisekartenden Restaurants oder so was,

00:36:11: dann finde ich das schon wieder echt cool. Die haben eine gute Laufzeit mittlerweile,

00:36:15: die haben schöne Designs, die Akkusen glaube ich sauber verarbeitet und die kosten halt auch

00:36:19: jetzt nicht so ein Vermögen. Nein, ich meine 199 oder kann das sein? Ja, das Einstiegsmodell. Ich

00:36:25: glaube, dass man wirklich was anfangen kann, ist dann schon wieder bei 399, aber das sind dann

00:36:29: auch so wieder die Designvarianten. Das ist halt immer noch nicht mal ein Zehntel von Apple Vision

00:36:34: Pro mit entsprechendem Zubehör. Ich werde das auch weiter stressen, so lange bist du hier mit

00:36:39: der Taucherbrille sitzt. Das merkt man gar nicht. Das merkt man gar nicht. Genau, dann gibt es nur

00:36:43: noch eine kleine, aber man merkt natürlich, was man schon merkt. Das ganze Thema Hardware ist noch

00:36:46: nicht vom Tisch. Ich habe auch jetzt die Jungs noch mal gelesen, hier steht es doch nicht, aber das

00:36:49: ehemaliger Chefdesigner von Apple, John Ivey, ich glaube wohl, ne? Johnny Ivey. Johnny Ivey,

00:36:57: so rum war es. Zusammen mit Sam Ordmann nach wie vor an einer eigenen Hardware tüftelt. Das ist

00:37:04: wohl noch nicht vom Tisch und das ganze Thema AI ist ja in jeder Hardware, die man sich vorstellen

00:37:10: kann, so natürlich auch in der neuesten Amazon Fire HD Generation, also die nächsten Tablets,

00:37:15: die jetzt rauskommen, Version 8, wie Amazon sagt, mit umfangreichen AI Features. Im Grunde

00:37:22: wird das so etwas sehr Ähnliches sein, wie wir jetzt bei Samsung erleben, aber auch wie wir bei

00:37:25: Apple erleben. Das heißt, das ganze Thema Betriebssystem ist einfach mehr mit AI Funktionalitäten

00:37:31: ausgestattet und erweitert. Das werden wir sicherlich immer mehr sehen und auf immer mehr

00:37:37: Geräten sehen. Ich bin übrigens sehr gespannt auf Apple Intelligence. Ich habe es mir mal angeschaut,

00:37:42: dass was man bisher testen kann, ist ja sehr reduziert auf so ein bisschen Siri und so ein

00:37:47: bisschen Foto, sagt man, Ritusche, Rituschieren. Das funktioniert schon ganz gut, aber so richtig

00:37:54: vom Hocker gehauen hat mich das alles noch nicht. Wenn ich ehrlich bin, mal schauen, wenn es dann

00:37:59: wirklich live und in der Fläche verfügbar ist. Ja, das war so meine Nachricht. Ich habe gesehen,

00:38:05: du hast oben noch ein, zwei Sachen. Ja, zwei vielleicht noch und dann, ich glaube, man schließen

00:38:10: wir es. Aber bei Klaner ist ja so ganz viel passiert. Wir haben ja vor, ich weiß nicht, einem

00:38:15: Vierteljahr oder vier Monaten darüber berichtet, dass der Sebastian Semiat-Koski, der CEO und Gründer

00:38:21: von Klaner das Thema KI total umarmt und hat, glaube ich, als erstes seinen Kundenservice durch

00:38:27: so ein Chatbot so ein bisschen obsolet gemacht und ist halt sofort irgendwie mit der Tür ins

00:38:32: Investorinhaus gefallen und hat gesagt, dadurch fallen halt irgendwie 700 Stellen jetzt auch

00:38:36: verlässlich weg. Das Ding ist super, das funktioniert einwandfrei, so ein bisschen auch die

00:38:40: Blaupause für viele andere Fintechs. Revolut hat zu seinen Chatbots eigentlich eins zu eins

00:38:44: genauso gebaut und funktioniert auch sehr gut. Und jetzt zündet Klaner irgendwie so diesen

00:38:50: nächsten Turbo. Wir haben darüber gesprochen, dass sie viel jetzt über Marketing-Automation

00:38:54: machen wollen, dass sie keine Kampagnen und Content Snippets mehr selber bauen, sondern das

00:38:57: alles nur noch über eigene Gen AI-Systeme dann auch integrieren. Und ich will das jetzt auch

00:39:07: gar nicht alles aufwärmen. Ich selber habe irgendwie zwei Artikel über Klaner auch geschrieben,

00:39:11: so zum Thema KI-Bank der Zukunft und Co. Aber ein, anders finde ich es so ganz spannend und das ist,

00:39:16: was die jetzt auch mit seinen oder mit den Partnerschaften von diesen typischen Software-Asset-Service-Giganten

00:39:23: Salesforce und auch Workday machen. Die haben nämlich einmal komplett die Verträge gekündigt und

00:39:28: wollen damit massiv umstrukturieren oder viel massiver als der Markt hat eigentlich erwartet.

00:39:32: Das heißt, in den kommenden Wochen möchte Klaner dann ihre Sales-Plattformen durch komplett

00:39:37: selbst entwickelte Lösungen über Gen AI ersetzen. Natürlich in allererster Linie, um Kosten zu

00:39:42: senken. Sie wollen flexibler sein, aber sie wollen ja vor allem irgendwie ihre valuation, also den

00:39:46: Unternehmenswert vor dem geplanten IPO jetzt in die Höhe treiben. Aber die sagen ganz klar oder

00:39:52: eher sagt in einem Interview, ich glaube auf Bloomberg, dass Gen AI es Klaner zu 100 Prozent

00:39:58: ermöglichen soll, externe Software-Asset-Service-Funktionalitäten durch komplett eigene Technologien

00:40:03: zu ersetzen. Und ob das so wirklich funktioniert, das sei mal dahingestellt. Da hat jetzt irgendwie

00:40:08: Philipp Klöckner vom Doppelgänger oder Holger Chapitz vom Weltpodcast schon so ein bisschen

00:40:12: drüber geschrieben und philosophiert. Aber wenn so was zur Blaupause wird, dann haben B2B Software-Asset-Service

00:40:19: an B2B Sales-Force natürlich ein massives Problem, denn mehr und mehr Digitalfirmen sprechen

00:40:24: öffentlich darüber, ihre Services und Subscriptions runterzufahren und dann auch auf eigene Lösungen

00:40:29: zu setzen. Ich glaube Sales-Force hat das schon so ein bisschen erkannt. Die haben jetzt in einem

00:40:33: exklusiven Interview auf Fortune mal so eine harte Wende zumindest vorgestellt und sagen,

00:40:40: ja, sie setzen auch voll auf AI. Sie machen jetzt Investments in Anthropic, Cohe hier haben sie investiert

00:40:45: together AI auch. Aber ich glaube, das ist so der Beginn, dass diese Sales-Landschaft einfach wirklich

00:40:52: von einem tiefgreifendem Wandel stehen wird und das typische Subscription Enterprise Sales-Modell

00:40:58: vielleicht ein Auslaufmodell sein wird. Echt spannend. Genau, und zweites Thema noch, was wir auch hier

00:41:07: schon mal besprochen haben, das war Perplexity und das hier ja vielleicht so ein Google-Angriff auf

00:41:13: das Thema Werbemodell anstreben wollen. Und das ist ja unser beider Lieblings-KI-Suchmaschine,

00:41:20: Perplexity, wenn man so will. Das führt nach Berichten der Financial Times jetzt zurzeit Gespräche

00:41:25: mit riesigen Brands unter anderem Nike, um so ein neues Werbemodell in der Search-Industrie

00:41:29: bald auszuprobieren und die sprechen tatsächlich von Etablieren. Wir haben ja hier schon mal darüber

00:41:35: gesprochen, dass Perplexity quasi die Vorherrschaft von Google in diesem 300-Milliarden-schweren

00:41:40: Search-Markt irgendwie angreifen möchte. Und genau das haben sie jetzt letzte Woche

00:41:44: gelounscht. Sie möchten das von Google auktionsbasierte Anzeigensystemen komplett

00:41:50: umgestalten und wollen Marken stattdessen gesponderte Fragen anbieten, die sie dann von

00:41:56: den Werbetreibenden als genehmigte KI-Antworten folgen lassen. Dieses Google-Modell, das funktioniert

00:42:02: ja, wenn man so ganz simpel gesprochen, so ganz einfach, dass sie halt Werbekunden für Clicks

00:42:08: bezahlen lassen. Also CPC, ein Cost per Click-Modell, ist total etabliert, gibt es seit 100 Jahren.

00:42:12: Und im Perplexity-Modell zahlt man nicht mehr per Click, sondern wirklich für die effektiv

00:42:17: genutzte Reichweite. Also dieses CPM-Modell, das nennt sich Cost per Mill, also Cost per

00:42:22: Impressions, wenn man so will. Und der Preis-Unterschied soll aber bei plus 50 Dollar im Perplexity-Modell

00:42:28: für große Brands sein. Das heißt, bis Ende 2024 wird Perplexity jetzt diesen CPM-basierten

00:42:35: Zeichenmechanismus einführen und bis dahin vor allem Premium Brands für dieses Modell

00:42:40: gewinnen. Und ich glaube, wenn das wirklich klappt und die Marketeers von den relevanten

00:42:45: Brands hier draufhüpfen, dann kann das Suchgeschäft tatsächlich den radikalsten Wandel seit Beginn

00:42:51: erleben. Hängt natürlich total davon ab, ob dieses neue Anzeigensystem von Perplexity

00:42:56: dann auch funktioniert und wie schnell das Start-up dann auch so seine Suchanfragen skalieren

00:43:01: kann. Ich habe nochmal nachgeschaut, Perplexity selbst hat gesagt, dass sie im Juli schon zwei

00:43:05: Hundertfünfzig Millionen Suchanfragen über die Plattform gestellt bekommen haben. Das

00:43:10: ist viel. 250 Millionen muss halt auch, also das war halt, der Juli auf Google werden immer

00:43:17: noch jeden Tag um die 3,4 Milliarden suchen begonnen. Trotzdem ist es ein relevanter Teil,

00:43:23: finde ich. Absolut. Mich hat die Nachricht so ein bisschen verängstigt, wenn ich ehrlich

00:43:28: bin. Da haben wir nämlich auch schon mal darüber gesprochen. In dem Moment, wo mich natürlich

00:43:31: als werbetreibender Ergebnis beeinflussen kann oder ein anderes Ranking bekomme, bin ich natürlich

00:43:37: auch ganz schnell bei solchen Sachen wie, was ist ein Wahlkampf ist und dann auf einmal Trump

00:43:42: bei Perplexity, also so ich sage, anfängt dort Gewerbung in Anführungsstrichen zu schalten.

00:43:50: Das finde ich ein bisschen schwierig bis hin zu spannend, wie man das lösen möchte,

00:43:55: weil ich möchte natürlich Informationen haben, die im weitesten Sinne neutral sind, wo wir wissen,

00:44:00: dass es das wahrscheinlich auch nicht gibt, so richtig neutrale Informationen. Das sehen wir ja

00:44:04: nicht nur an den AIS beispielsweise, an LLAMA, aber auch an anderen generativen AIS,

00:44:11: dass das nicht immer 100 Prozent neutral ist, aber in dem Moment, wo natürlich ein richtiges

00:44:15: Businessmodell werbebasierend aufs Tableau kommt. Ja, spannend. Ich habe aber noch eine Sache,

00:44:22: die wollte ich noch, weil du sagst, du herzt noch zwei. Ich habe noch eine mini kleine Sache,

00:44:26: die ich lustig als auch erschreckend zugleich finde. Ich habe Anfang der Woche ebenfalls

00:44:31: einen LinkedIn-Post dazu geschrieben, nämlich die Suche nach dem Baby Peacock, der bei Google

00:44:38: nach dem Baby V sucht, findet in der Google-Bildersuche, ich würde mal sagen 80 Prozent an Bildern,

00:44:46: die kein Baby V sind, zwar sehr süß aussehen, aber halt AI generierte Bilder sind. Und der Grund

00:44:53: ist ein ganz einfacher. Google ranked natürlich das, was am meisten geklickt wird an erster Stelle.

00:44:59: Und es hat wiederum vor einigen Wochen diverse Bilder, die viral gegangen sind. Man hat nämlich

00:45:05: über Flux und Co. einen Baby V generieren lassen. Super süß, süßer kleiner Vogel, hat nur nichts

00:45:13: mit dem echten V zu tun und heißt oder zeigt auch, wie wenig verlässlich eigentlich die

00:45:20: Ergebnisse und der Content ist, den wir dargestellt bekommen oder angezeigt bekommen. Und da würde

00:45:27: ich mit dir, Sascha, tatsächlich gerne mal ein Deep Dive machen, wie wir uns in Zukunft da verschützen

00:45:32: bzw. was mögliche Wege sein könnten zu verifizieren, dass das, was wir angezeigt bekommen, auch

00:45:39: wenigstens ein wenig der Realität entspricht. Ich kann dir nicht folgen, ich bin abgedriftet in

00:45:48: den Bilder, die wir suchen von Baby V, es ist echt cuteness overload, aber wahrscheinlich ist kein

00:45:53: einziges Bild, was ich hier sehe, das, was du beschreibst, weil es ist genauso, wenn dann, also

00:45:57: da drunter kommt dann, wir sehen junge Pfauen aus und da steht ein junges Küken, hat ein helles,

00:46:01: braunes Nest und Downenkleid und ist etwas dunkler an der Oberseite. Nichts davon ist

00:46:06: dunkel, ist es einfach ein wunderschönes Farbentier, aber offenbar alles fake. Ja, das Interessante

00:46:12: ist, also ich will dem V nicht so nah drehen, aber wie beim Endline ist, gibt das hässliche

00:46:17: Endline und der V ist halt als Baby kein so wirklich prachtvoller Vogel, aber ja, schaut

00:46:23: es euch an, sucht einfach mal bei Google nach Baby V oder im englischen Baby Peacock und dann

00:46:29: werdet ihr überrascht sein. Genau. Das ist wie bei uns beiden. Ich glaube wir sind am Ende, ne?

00:46:32: Damit schließen wir die Folge, genau. Das war die heutige Folge, Folge 22 hattest du im

00:46:36: Intro gesagt, wir bleiben dran, versprochen, freuen uns, wenn ihr uns auch treu bleibt. Bis bald ihr

00:46:43: Bis bald, macht's gut.

00:46:45: Gut.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.