AI Update: News und Trends in KW 41
Shownotes
- OpenAI stellt o1 vor: https://openai.com/index/introducing-openai-o1-preview/
- Meta stellt Llama 3.2 vor: https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/
- Perplexity bringt Werbemodell: https://www.ft.com/content/ecf299f4-e0a9-468b-af06-8a94e5f0b1f4
- Richter blockiert Kaliforniens neues KI-Gesetz: https://techcrunch.com/2024/10/02/judge-blocks-californias-new-ai-law-in-case-over-kamala-harris-deepfake-musk-reposted/
- Anthropic stellt OpenAI-Mitbegründer ein: https://techcrunch.com/2024/10/01/anthropic-hires-openai-co-founder-durk-kingma/
- Meta bringt Movie Gen: https://ai.meta.com/research/movie-gen/
- Fireside-Chat mit Sam Altman auf den OpenAI Dev Days: https://www.youtube.com/watch?v=-cq3O4t0qQc&t=0s
- ChatGPT Realtime Voice API: https://openai.com/index/introducing-the-realtime-api/
- Stirbt die Software-Entwicklung? ChatGPT bringt Canvas: https://openai.com/index/introducing-canvas/
- Meta Ray Bans Firmware-Update: https://www.cnet.com/tech/services-and-software/meta-ray-bans-new-ai-camera-features-are-arriving-now/
- Amazon Fire HD 8 mit AI Tools: https://www.theverge.com/2024/10/2/24260392/amazon-fire-hd-8-tablet-ai
Disclaimer und Haftungsausschuss
Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: A.I. in Finance. Der Anplagt-Podcast von Sascha Deewald und Mike Klotz.
00:00:13: Hallo und herzlich willkommen zur 22. Episode von A.I. in Finance. Dem Anplagt-Podcast von Sascha
00:00:30: Deewald und mir, ich bin Mike Klotz zum Thema Künstliche Intelligenz im Zahlungsverkehr und
00:00:35: Banking. Seit langer Zeit tatsächlich, wir hatten eine kleine Zwangspause. Wir konnten sozusagen nicht
00:00:46: aufnehmen, ausgründen. Nächstes und dort, wir sind jetzt wieder am Start und freuen uns mit euch
00:00:53: über die neuesten Entwicklungen zu sprechen. Was heißt, wir sprechen gar nicht mit euch,
00:00:56: sondern wir zwei, Sascha und ich, sprechen drüber und ich freue mich, Sascha, dass wir uns seit
00:01:00: langer Zeit seit vier Wochen, glaube ich, noch mal sehen. Hallo, Sascha. Moin Mike, herrs echt
00:01:07: lang her. Wer muss das letzte Mal gerade gesehen oder gesagt in Frankfurt gesehen haben? Aber live,
00:01:13: nebeneinander. Genau, aber danach ist es halt echt sehr ruhig geworden um uns beide und was ich
00:01:18: herbekommen habe, ist so ganz viel Feedback. Haben wir auch schon so ein bisschen ausgewertet und
00:01:23: wollen natürlich auch ein bisschen hier einfließen lassen. Was ich ja auch tatsächlich in den letzten
00:01:27: zwei Wochen bekommen habe, war das Feedback nach dem fehlenden Podcast in der Spotify und Apple
00:01:32: Podcast Liste. Und natürlich auch so ein bisschen der Drang danach. Wie geht es jetzt bei euch weiter?
00:01:37: Hört ihr auf? Was soll das? Und um diese Gerüchte zu zerstreuen, gibt es heute auf jeden Fall eine
00:01:42: volle Episode mit ganz vielen News. Wir haben aber auch ganz viele Ideen irgendwie für so ein bisschen
00:01:48: Tieferlegungen von anderen Partnern Sachen und ich würde sagen, wir nehmen das jetzt mal als Kick
00:01:52: auf Mike, um wirklich wieder wöchentlich hier abzuliefern und wenn es ein bisschen kürzer ist,
00:01:57: ist das auch so. Aber ich glaube einfach eine gewisse Regelmäßigkeit schadet bei dem Thema nicht.
00:02:00: Auf gar keinen Fall. Und Abwesenheit kann man ja aussagen, schafft hier Begehrlichkeiten. Das haben
00:02:05: wir also geschafft. Wir haben uns ganz bewusst dazu entschlossen für ein paar Wochen. Nee,
00:02:09: Spaß beiseite. Wir wollen nochmal Deep Dives machen, wie du es gesagt hast, und auch wieder die
00:02:14: Continuität da reinbringen. Deshalb mehr Culpa. Bezeichnen wir es als verlängerte Sommerpause.
00:02:21: Apropos Begehrlichkeiten, also so wie ich dich begehe, dann begehe ich ja immer die News um
00:02:28: das Thema OpenAI. Da gab es richtig viel. Wir wollen es gar nicht so alles aufarbeiten, weil in den
00:02:33: letzten drei Wochen ging es sehr vor allem rund um diese Finanzierungsrunde von OpenAI in ganz,
00:02:39: ganz viele Richtungen. Aber ich finde es so ganz spannend, mal so ein bisschen einen Blick reinzuwerfen,
00:02:43: denn also die haben ja ihre Finanzierungsrunde jetzt dann seit dem Wochenende, glaube ich,
00:02:47: in Sack und Tüten. Und die Info ist jetzt auch nicht mehr ganz neu. Aber ich habe mich am Wochenende
00:02:52: dazu mal so auf das Pitchbook von denen auf das Pitch Deck und auf das Termsheet, das ist nämlich
00:02:58: auf Pitchbook und New York Times gelegt, so ein bisschen reingewühlt auf das Closing der aktuellen
00:03:03: Runde. Und das ist schon tatsächlich ein bisschen spannend, denn OpenAI erwartet wie immer mal wieder
00:03:09: auch von uns hier gemutmast, wurde in Umsatz 2024 von fast 4 Milliarden Dollar, aber hat in der
00:03:15: gleichen Zeit da tatsächlich immer noch 5 Milliarden als Verlust verbrannt. Und was hier auch sehr
00:03:20: interessant ist, finde ich, dass nicht nur die Nutzerzahlen wirklich massiv gewachsen sind,
00:03:24: sondern natürlich auch die Kosten. Aber wenn man mal so ein bisschen reinschaut, also monatlicher
00:03:28: Umsatz finde ich spannend. August dieses Jahr, also vor gar nicht langer Zeit, war der bei 300
00:03:33: Millionen Dollar. Das ist ein Anstieg von über 1.700 Prozent seit Anfang 2023. Das heißt,
00:03:40: das ist richtig durch die Decke gegangen. Und wir haben derzeit rund 10 Millionen zahlende
00:03:45: Nutzer. Wir haben diese monatliche Gebührfraktionen knapp, so dann ist es genau 20 Dollar aktuell.
00:03:49: Die wollen sie jetzt erhöhen auf 22 in den nächsten Tagen und ich glaube bis 228 soll die in der
00:03:56: Standard-Version auf 44 Dollar erhöht werden. Das ist natürlich auch einer der spannenden Income
00:04:02: Streams auf jeden Fall. Bin ich auch gespannt, wie die Nutzer da mitmachen. Es gibt ja immer noch
00:04:05: viele kostenlose Modelle, die aber auch jetzt fairerweise nicht an die Qualität rankommen,
00:04:11: der aktuellen Modelle gerade 4O+ und Co. Aber was ich auch so ganz interessant finde, sind so die
00:04:16: Umsatzerwartungen und Prognosen. Open Air AI erwartet nämlich, dass der Turnover im aktuellen
00:04:22: Jahr, im nächsten Jahr, auf 11,6 Milliarden anwachsen wird und dass sie bis 2029 die
00:04:28: Marke davon 100 Milliarden Dollar wirklich locker erreichen werden. Und ich glaube,
00:04:32: das verdeutlicht mal wieder die Kosten intensiv auch so eine Entwicklung von so einem oder
00:04:37: respektive mehreren Sprachmodellen ist und das offenbar auch in den nächsten Jahren noch bleiben
00:04:43: wird. Aber wenn wir uns auch sehen, ansehen wie diese Runde jetzt auch gefeiert wird, medial,
00:04:47: dann verdeutlicht es meiner Meinung nach auch, dass eine Vielzahl an WCs, an den langfristigen
00:04:53: Erfolg von Open Air AI und auch dem Chairman Sam Altman glauben. Eines der riesigen Themen in
00:04:59: dem Pitch Deck ist wie immer das Thema AGI, also Artificial General Intelligence. Aber jetzt
00:05:06: lassen wir mal kurz einen kleinen Schritt zurückgehen. Also was ich total spannend finde neben
00:05:09: den ganzen Zahlen, da bin ich ja nicht so tief drinne wie du, aber was ich total spannend finde,
00:05:12: ist die Tatsache, dass ja eigentlich Open AI vom, na ja nicht vom ersten Tag, aber relativ früh
00:05:17: ein sehr valides und tragfähiges Business-Modell hat. Also die Anzahl der Subscriber nimmt stetig
00:05:23: im Kontinuierlich zu und ehrlicherweise, wer die kostenpflichtige Version nutzt, möchte auch nicht
00:05:28: mehr zu kostenlosen Version wechseln. Das kann man mit aller Deutlichkeit sagen. Man hat natürlich
00:05:32: auch was mit den Entwicklungssprüngen zu tun. Also man merkt natürlich auch als Nutzer, da tut
00:05:36: sich eine ganze Menge, da kommen wir ja auch gleich nochmal im Detail zu. Was aber wie gesagt
00:05:39: total wichtig ist, ist die Tatsache, dass es nicht ein Tool ist, was man mal ausprobiert,
00:05:44: sondern was sich inzwischen bei so vielen Menschen in den, in den Alltag, zumindest in den
00:05:51: Business-Alltag ein wichtiges Wechsel geworden ist. Da bezahlt man einfach für und denkt mal an
00:05:54: die Zeiten zurück, wie Google groß geworden ist. Also für Google Mail, also ich kenne die
00:06:01: wenigsten Menschen, die dafür bezahlen oder überhaupt für Google-Dienst zu bezahlen, wie
00:06:04: genauso wie für ganz, ganz viele andere. Hier gibt es ein Business-Modell, was funktioniert und
00:06:10: wo noch Luft noch oben ist. Und ich bin ganz ehrlich, selbst wenn das Ding irgendwann 40 Dollar
00:06:13: kostet, ich meine klar, es gibt Grenzen, aber das ist so wertvoll und das Gleiche siehst du auch
00:06:19: bei Perplexity, da kenne ich die Zahlen nicht, vielleicht du, aber auch da ein tragfähiges
00:06:23: Business-Modell, was scheinbar so funktioniert oder was scheinbar funktioniert.
00:06:27: Na ja, ich, das ist zumindest eine Säule in diesem Modell. Also ich brauche, ich glaube, die brauchen
00:06:33: halt einfach massiv viel Geld, um sich wirklich zu finanzieren und auch refinanzieren für diese
00:06:39: Entwicklung von diesen halt irgendwie sehr riesigen Parametern in den Trainings der Sprachmodelle.
00:06:44: Wie das zukünftig aussehen wird, ich glaube, das ist noch so ein bisschen fraglich, aber ich
00:06:48: finde es gut, dass sie halt auch auf unterschiedliche Beine sich aufstellen. Perplexity kommen wir
00:06:53: auch gleich nochmal zu, geht ja ganz toll in den Search-Bereich hinein und versucht dort mit
00:06:57: zu mischen. Und ich glaube, halt bei OpenAI ist es vor allem tatsächlich die manfliche
00:07:01: Subscription, aber dafür kriegst du halt auch wirklich was für dein Geld. Und du hast gerade
00:07:04: auch Google angesprochen, aber schauen wir auch zu Apple, die haben am Anfang natürlich all diese
00:07:08: Art von Software-Sweets kostenlos rausgegeben, aber dann natürlich auch irgendwo ein Cap eingeführt,
00:07:13: sobald du an der Nadel hängst, mit keine Ahnung, deine Fotos auf Google Fotos hoch zu laden.
00:07:17: Oder auf Apple. Hast du mittlerweile halt irgendwie auch für einen, keine Ahnung,
00:07:21: irgendwie 100 Dick kostenlos und danach musst du halt irgendwie 1,99 bezahlen. Und das war am
00:07:27: Anfang so, ja na gut, da mach ich das jetzt mal drei Monate. Ich zahl das halt seit Jahren und das
00:07:31: geht einfach von der Kreditkarte ab. Ja, das stimmt, aber das wird total spannend. Da würde
00:07:34: mich auch deine Meinung interessieren. Wir haben jetzt schon länger auch nicht mehr über Apple
00:07:37: Intelligence gesprochen, was ja jetzt im Oktober kommen wird, zumindest in den USA,
00:07:41: in der ersten Version und irgendwann mit Sicherheit auch in die EU, so Gott will. Die spannende Frage
00:07:47: ist aber auch Apple Intelligence oder auch generell, wenn du dir anschaust, Meta, Google,
00:07:52: brauchen Energie, brauchen viel mehr Ressourcen als Cloud-Speicher. Cloud-Speicher kostet nichts.
00:07:58: Und da stelle ich mir natürlich die Frage, wie sich das mittelfristig oder langfristig tragen
00:08:04: wird. Du hast jetzt gerade einen Gesichtsausdruck gemacht, der mir widerspricht. Ich habe gehutscht,
00:08:10: hast du noch nicht gehört. Also noch sind wir hier, wenn wir über die aktuellen Themen reden,
00:08:18: ist ja ganz viel der Nutzung, ist halt irgendwie Text-to-Text basiert und das geht ja, sag ich mal,
00:08:23: noch halt irgendwie, was in der Cloud-Verarbeitung ist. Aber wenn du jetzt auf Multimodalität gehst
00:08:27: und auf Text-to-Voice, zum Beispiel, wenn wir gleich über den Advanced Voice Mode sprechen
00:08:32: oder Text-to-Video und Co., dann werden ja hier riesige Datenmengen tatsächlich auch produziert,
00:08:38: die müssen irgendwo zwischengespeichert werden, gebuffert werden, die müssen irgendwo auf einen
00:08:41: Media-Interface hochgeladen werden oder auf den Serverstruktur tatsächlich, um da eine Weile
00:08:47: halt irgendwie zu sein. Und das wirkt massive Datenmengen natürlich auch fressen und ich glaube,
00:08:51: wie wir ja schon mehrmals hier darüber gesprochen haben, das Thema Energie und Speicherkapazitäten
00:08:56: in der Cloud und natürlich dann irgendwo auch als Safe Space On-Premise, sind da absolut nicht mehr
00:09:02: wegzudenken. Schauen wir uns mal irgendwie das Thema Advanced Voice Mode, habt ihr sicherlich
00:09:07: irgendwie auch alle verfolgt, war ja riesengroß in der Presse, du hast es getestet, ich sowieso.
00:09:11: Und vielleicht für alle nochmal, das OpenAI hat vor, ich weiß nicht, ich glaube, drei Wochen
00:09:17: war es, den diesen AVM, also Advanced Voice Mode, eingeführt. Erst mal für zahlende Chat-GPT,
00:09:22: Kundinnen und Kunden. Und das ist dieser neuen Sprachmodus. Man muss das zu sagen,
00:09:26: genau, also vielleicht, da ich kurz nicht unterbrechen darf. Advanced Voice Mode wurde ja mit dem
00:09:31: O1-Sprachmodell eingeführt. Also es ist zusammen quasi mit einem neuen Preview-Modell eingeführt.
00:09:39: Und dieses O1 ist ja in mehrerlei Hinsicht ziemlich spannend. Also wir haben auf der einen Seite
00:09:43: den Advanced Voice Mode, was ich aber viel spannender finde und was wir hier in Deutschland auch schon
00:09:47: testen oder auch nutzen können, ist ja die Tatsache, dass O1 viel weniger fantasiert, viel besser
00:09:56: mit den mathematischen Aufgaben ist und insgesamt die Ausgabe, die man bekommt, noch professioneller
00:10:04: im Sinne, was Qualität betrifft. Also wir haben immer gesagt, das steigert sich und die ganzen
00:10:09: Modelle werden immer besser. Ich finde, O1 ist ein krasser Sprung nach vorne, auch wenn es ein
00:10:15: bisschen langsamer ist. Aber in der Qualität, wenn man Fragen stellt, was man als Antworten bekommt,
00:10:20: finde ich das ein krasser Move. Und damit sorry, dass ich unterbrochen habe der Advanced Voice Mode,
00:10:25: der noch nicht in Deutschland oder noch nicht in der EU zumindest nicht ohne VPN zu testen ist,
00:10:31: mit etwas Trickserei kann man ihn aber auch hier nutzen. Ja, komm ich gleich so, ich würde noch
00:10:38: einmal kurz darauf referenzieren, was du gerade gesagt hast. Also ja, das Ding ist jetzt irgendwie
00:10:42: logischer, es überlegt ja auch länger, was ich ehrlich aber so tierisch nervig finde, weil ich
00:10:47: daran gewöhnt bin, dass mein V.O. mir halt innerhalb einer Bruchteil von der Sekunde eine Antwort
00:10:51: rüber spuckt, Qualität jetzt mal dahingestellt und Hochwertigkeit. Aber wenn du eine relativ
00:10:57: simple Frage in O1 stellst und der dann irgendwie fünf bis sieben Sekunden überlegt, dann fühlt
00:11:02: sich das wirklich wie eine Ewigkeit an und du denkst, das Ding ist kaputt oder du hast gerade
00:11:06: kein Internet und das finde ich schon schwierig und du hast ja auch argumentiert und das ist ja so
00:11:11: ein bisschen die Open AI Argumentation, dass es jetzt weniger fantasiert, weil es halt einfach
00:11:15: länger überlegt. Das hat natürlich dort eine Bulche, das ist überlegt, weil es durchsucht
00:11:20: einfach nochmal andere Datenquellen und versucht die irgendwie anders zusammenzuführen. Aber wir
00:11:23: reden ja immer noch von generativer künstlicher Intelligenz, also dieses schöpferische Element im
00:11:28: Sinne von Deep Learning um Muster in bestehenden Datensätzen zu identifizieren und zu analysieren.
00:11:34: Aber was es ja ganz am Ende macht, ist einfach nur die Wahrscheinlichkeit des nächsten Wortes zu
00:11:39: berechnen. Also so eine richtige Logik im Sinne von mathematischer Logik ist da ja immer noch nicht
00:11:45: drin und das finde ich sogar spannend und das sind auch so die großen Kritiken, die es an
00:11:50: diesem Modell gerade gibt im Vergleich zu dem bisherigen. Genau, aber beim Voice Mode und das
00:11:57: finde ich halt auch glaube ich cool für euch, die da draußen zuhören, das ist also der Essys
00:12:02: erstmal nur für Plus und Teams Nutzer verfügbar und ich glaube andere Abonnenten
00:12:06: soll jetzt in den kommenden Wochen folgen. Was ist es am Ende? Es sind einfach Audio Chats,
00:12:12: ja du kannst dich halt irgendwie mit GPT jetzt unterhalten. Ist es deutlich natürlicher als
00:12:16: es vorher war? Es hat auch so ein paar neue coole Funktionen, das nennt sich so Custom Instructions.
00:12:20: Memory ist mit dabei, also du kannst das Ding ein bisschen personalisieren und du kannst halt
00:12:26: irgendwie deine Gedächtnis mit dabei haben. Das finden wir beide ja sehr, sehr gut, dass du GPT
00:12:30: nicht immer neu anlernen musst und in der gesamten Kontext der letzten Wochen als Gespräch halt
00:12:35: wirklich auch noch verarbeitet ist teilweise auch ein bisschen gruselig. Aber es ist halt irgendwie
00:12:39: wie so ein Personal Assistant, wie so ein Buddy, mit dem du einfach irgendwie sprechen kannst,
00:12:43: weil der sich auch an gestern und dann letzte Woche erinnert. Und was halt so ganz schön ist,
00:12:47: das finde ich tatsächlich, weil ich auch die Stimme irgendwie nicht mehr hören kann mittlerweile,
00:12:50: weil ich es sehr intensiv nutze, ist, dass man die Stimme jetzt anpassen kann und auch
00:12:55: Chat GPT so in Dialekten sprechen kann. Es gibt 9 Stimmen, die da verfügbar sind,
00:12:59: durch so, was sie nennen, ist glaube ich naturinspirierte Namen, würde ich das auf Deutsch
00:13:05: glaube ich nennen. Aber es ist interessant und ich glaube mit diesem Voice Mode kannst du
00:13:09: einfach auch völlig neue Themengebiete für dich selbst mal irgendwie ausprobieren und
00:13:13: bespielen. Also Nutzer können zum Beispiel Chat GPT auch nutzen, um sich Geschichten
00:13:18: erzielen zu lassen, sich auf irgendwelche komischen Situationen im Business oder auf,
00:13:22: keine Ahnung, First Date, auf Vorstellungsgespräche vorzubereiten und du kannst es jetzt viel
00:13:26: besser nutzen, auch um Sprachkenntnisse zu trainieren. Ich habe so ein bisschen, also als
00:13:31: spanisch und französisch mal so ein bisschen versucht, rumzusprechen und das mir auch als
00:13:38: so, ja, keine Ahnung, Duolingo Ersatz mir aufzubauen, auch das funktioniert nach einer ganzen Weile.
00:13:43: Und ich habe tatsächlich in der Woche, bevor das rauskam mit der Version von GPT4O, das mal
00:13:51: ausprobiert als, als Bot, den ich mir damit direkt gebaut habe, für eine bestimmte Interviewsituation
00:13:57: in einem Gremium, was mir sehr schwierige Fragen gestellt hat und das habe ich quasi versucht
00:14:02: zu simulieren mit einem Rollenspielcharakter. Und ich habe dann mit jeder weiteren Frage,
00:14:07: Antwort, Kombination wirklich gemerkt, dass es viel, viel besser wird und ich dann das ab und zu
00:14:12: einfach beim Joggen und zwischendurch und wenn ich im Kanal, im Taxi oder im Zug war, einfach
00:14:16: tatsächlich als Dialog mit diesem Advanced Voice Mode genutzt und ich glaube, dass wir
00:14:20: in viele Menschen machen, sich auf Alltagssituationen, Business Situationen halt irgendwie vorzubereiten.
00:14:25: Weiß ich, also eine ganz neue Form des Dirty Talks erlebe ich gerade, davon abgesehen. Was ich
00:14:32: aber spannend finde, was hast du nur im Nebensatz erwähnt? Zwei Dinge, das eine nämlich Emotionen.
00:14:38: Du kannst jetzt im Advanced Voice Mode sagen, spreche mit besonders fröhlicher Stimme, spreche
00:14:45: mit besonders seriöser Stimmfarbe und Klangfarbe und dann ändert sich die Stimme auch entsprechend.
00:14:52: Du kannst auch lustige Sachen machen, spreche mit besonders piepsiger Stimme, mit Mickey Mouse
00:14:56: Stimme, dann wird die Stimme entsprechend erhöht oder sehr beruhigend. Also kannst
00:15:01: ja dann eine eigene Yogersession quasi machen. Das zweite Thema, was ich noch viel spannender
00:15:06: finde, ist nämlich die Tatsache und das hast du gerade gesagt, die Konversation ist sehr viel
00:15:09: natürlicher und die ist deshalb viel natürlicher, weil wie bei unserem Podcast, du mich und ich dich
00:15:15: unterbrechen kannst und Chatchivity in dem Fall dann auch darauf reagiert. Das heißt,
00:15:21: wenn sie bis hierhin war es immer so, wenn was gesagt wurde, musst du sie immer abwarten oder
00:15:26: halt mit per Knopfdruck quasi interrupten. Hier kannst du einfach dazwischen quatschen und der
00:15:31: Kontext geht nicht verloren. Das finde ich super spannend und macht natürlich das Gespräch super
00:15:35: natürlich und du hast es gerade angesprochen, gerade wenn du Sprachen lernen willst oder
00:15:39: wenn du halt so eine Interviewsituation testen möchtest. Ja, es fühlt sich tatsächlich viel
00:15:43: natürlicher an und auch das ist mittlerweile auch schon wieder gewöhnt bei mir. Ich denke halt so,
00:15:46: ja klar, aber logisch, das ist ja irgendwie auch dann neu. Die Nutzung ist so ein bisschen schwierig
00:15:52: noch, es ist zeitlich noch begrenzt. Ich glaube, nach 30 Minuten oder so wird so eine Nachricht
00:15:56: angezeigt, dass die Zeit abläuft. Bei mir ist das nicht so ein Problem, weil ich immer sehr schnell
00:16:00: spreche und das mir endlich mal zur Gute kommt. Ich glaube aber persönlich wirklich daran so als
00:16:05: kleine Konklusio hier, dass diese natürliche Sprachinteraktion mit den Chatchy-Betis, diese
00:16:10: Nutzerinnenbindungen einfach noch viel mehr fördert und auch die Akzeptanz noch viel mehr
00:16:14: steigern wird und das Ganze halt auch gepaart mit dieser Memory Funktion über die wir gesprochen
00:16:18: haben und ich bin mir auch ziemlich sicher, dass Chatchy-Betis damit noch viel mehr zum
00:16:21: persönlichen Assistenten/Sprachassistenten dann aktuell in über 50 Sprachen werden kann,
00:16:28: als es das jetzt ohnehin schon ist. Also ganz witzig ist in dem Kontext, ich habe ein Artikel
00:16:33: gefunden auf dem amerikanischen Fox, wo der Artikel beschreibt, dass es eine wachsende,
00:16:40: emotionale Abhängigkeit von Menschen zu fortschrittlichen K.H.-Headboards wie G.B.T.4. gibt,
00:16:45: die dann quasi natürliche Gespräche für Rundemotion widerspiegeln können und selbst OpenAI
00:16:52: selbst warnt vor dieser emotionalen Abhängigkeit und der Gefahr, dass Menschen den Kontakt
00:16:57: zu realen Beziehungen verlieren, wo ich so sage, ach ok, jetzt haben sie vielleicht noch wieder
00:17:01: eine Ethik-Team oder zumindest noch mal einen alten Artikel von Elias Hutzkever irgendwie
00:17:05: ausgegraben, den er irgendwo geschrieben hat, als er noch bei OpenAI war. Aber sie argumentieren,
00:17:10: dass trotz des Risikos das Modell quasi mit einer Sprachausgabe für Nutzer veröffentlicht wird,
00:17:16: so wie wir eben darüber gesprochen haben. Aber in diesem Artikel wird überlegt, ob solche
00:17:22: Beziehungen zukünstliche Intelligenz süchtig machen und auch dann den sozialen Umgang,
00:17:27: so wie unsere Fähigkeit eine echte menschliche Beziehung zu pflegen, dann auch negativ beeinflussen
00:17:33: kann. Ich finde das ein ganz spannender Aspekt, weil ich denke jetzt gerade, also Gefahren sieht
00:17:38: man schnell und ja, ich erwische mich ja auch dabei, wie ich in so einem Chat vergesse,
00:17:43: dass das gegenüber letztendlich sehr künstlich ist, also keine natürliche Person. Aber wenn
00:17:49: wir jetzt mal an solche Situationen denken wie Senioren, also alte Menschen, die vielleicht
00:17:55: keinen Kontakt zu Familie haben aus verschiedensten Gründen oder aber auch im medizinischen
00:18:03: Umfeld. Ich denke hier an Autismus zum Beispiel, die große Probleme haben, soziale Interaktion
00:18:08: mit echten Menschen sozusagen durchzuführen oder am Leben zu erhalten. Da ist natürlich so etwas,
00:18:15: eher Segen als Fluch. Und ich glaube am Ende ist es eine Form der Gewöhnung. Also wir haben immer
00:18:22: von neuen Technologien gewarnt und es gab immer eine Form der Abhängigkeit. Ich erinnere mich an
00:18:26: den Game Boy, alle waren abhängig vom Game Boy, davor waren es die Comics, davor waren es keine Ahnung,
00:18:32: was Bücher, dann das Fernsehen irgendwann. Also ja, also man muss sicherlich aufpassen und es gibt
00:18:38: Gefahren, aber ich sehe hier sehr viel mehr Nutzen. Und wir kommen ja auch gleich nochmal zu anderen
00:18:47: Themen, also auch im Bereich von Support. Also wenn du einen Kunden hast, der irgendwie total
00:18:52: erboßt ist, dann ist das vielleicht schöner, wenn der einen künstlichen Assistenten anschreit und
00:18:59: das Gefühl hat, da ernst genommen zu werden, als wenn sich der echte Support mitarbeitet, damit
00:19:03: auseinandersetzen muss. Ja, total. Also ich glaube, es gibt ganz, ganz viele positive Beispiele. In
00:19:09: diesem Artikel, wir verlinken den auch nochmal, da gibt es ja so negative Beispiele, die auch so
00:19:13: ganz witzig sind, finde ich. Also da gibt es vor allem so diese emotionale Abhängigkeit. Da gibt es
00:19:17: eine Person, die beschrieben wird, wie sie eine enge Bindung zu einem KI-Assistenten entwickelt,
00:19:23: der in so eine Halskette eingebaut ist und dass sie quasi diesen enger empfindet als ihre realen
00:19:30: Freunde und sich dann nur noch mit diesem Ding irgendwie unterhält und ihre kompletten Freundschaften
00:19:33: verliert. Ein weiteres Beispiel ist auf so einer Plattform, die heißt Replica, auf der Menschen
00:19:38: dann romantische und teilweise sogar sexuelle Beziehungen mit KI-Bekleitern eingehen. Und als
00:19:44: diese KI dann die Möglichkeit zu den erotischen Chats eingeschränkt hat, waren viele Nutzer halt
00:19:50: komplett irgendwie emotional betroffen und haben dann irgendwie da rumrandaliert, was es denn soll,
00:19:54: weil das ja ja der eigentliche Grund, warum sie halt irgendwie dort sind. Aber das ist so ein
00:19:58: bisschen eskaliert und wurde dann glaube ich auch geschlossen. Ich musste eben ein bisschen
00:20:03: schmunzeln, also sagen, du hättest den Artikel bei Vox gefunden und ich dachte, der ist, warum
00:20:08: bist du auf Vox News? Das ist aber Vox mit V in Anfang geschrieben, also Entwarnung für die
00:20:15: Lesse. Deswegen haben wir ja auch die zunachs gegeben, die amerikanische Version. Es ist nicht
00:20:19: TV Vox gleich neben RTL2. Ich dachte an Vox News, also ich hatte was ganz anderes. Vom orangefarmenen
00:20:28: Clown. Genau, Thema Stimmen auch spannend. Meter hat jetzt auch schon glaube ich zwei Wochen her,
00:20:36: aber vielleicht habt ihr das noch nicht alle mitbekommen. Lama 3.2 vorgestellt und hat bekannt
00:20:42: gegeben in seiner neuen Version des Modells, dass nun auch visuelle Fähigkeiten besitzt,
00:20:48: dass da auch neue Stimmen drin sind und zwar prominente Stimmen. Die haben jetzt irgendwie
00:20:52: Judy Dench, die haben John Cena mit dabei und wie immer, die neuen Funktionen sind natürlich
00:20:58: erstmal nur in den USA eingeführt und sollen dann in weiteren Märkten eingeführt werden,
00:21:01: aber auch Meter hat begriffen, dass das Thema Voice und Voice Ausgabe und tatsächlich halt irgendwie
00:21:07: Assistenten absolut über Voice funktioniert und deutlich weniger über Spracheingabe und hat
00:21:12: das gesamte Modell 3.2 jetzt auch in diese Richtung gestrickt, weil wie wir auch schon hier ab und
00:21:17: zu besprochen haben, das Thema Latents ist bei Voice natürlich wahnsinnig wichtig und muss
00:21:21: halt von Anfang an mitgebaut werden, weil du später nicht mehr reintrainieren kannst.
00:21:25: Muss ich mich jetzt schämen, wenn ich die Namen nicht kenne, die du gerade genannt hast?
00:21:28: Du kennst Judy Dench nicht. Nee, was macht die? Die war Q bei James Bond.
00:21:37: James Bond, schon mal gehört? Ah, ja, ist das die Britin, die ältere?
00:21:44: Äh, ja. Okay. Überleg selber, ob du es rausschneiden möchtest. Genau, Judy, ich glaube, die ist auch,
00:21:52: ich weiß gar nicht, ob die gestorben ist. Die war halt...
00:21:55: Ich meine, tatsächlich, die ist gestorben vor ein paar Wochen, kann das sein?
00:21:58: Weil sie nicht. Also, die hatte glaube ich, die hatte so ein paar Themen und die war schon ewig
00:22:05: halt irgendwie bei James Bond, aber die war nicht Q jetzt, wo ich so hätte einfängelt.
00:22:08: Genau, das war M-Body. Aber die ist dann irgendwann ausgeschieden, was echt traurig war für alle
00:22:13: eingefleischten James Bond Fans, weil die war halt irgendwie 100 Jahre mit dabei und war wirklich,
00:22:18: wirklich toll. Okay. Genau, back to a script. So ein richtiges Script haben wir ehrlicherweise
00:22:25: heute gar nicht, aber es gibt ein total spannendes Thema auch nochmal aus dem Bereich AI Goes to
00:22:30: Hollywood, könnte man es formulieren. Es gibt ja diese Firma Lionsgate und für viele,
00:22:35: vielleicht auch für dich, bekannt wie Blockbuster, wie John Wick oder die Tribute to Panem, also
00:22:43: Hunger Games und die haben nun eine Partnerschaft mit diesem KI Startup Runway, über das wir
00:22:48: auch schon mal gesprochen haben, geschlossen. Und was die wollen, ist ein Genereye Video Modell
00:22:53: gemeinsam entwickeln, das dann Projekte von Filmemachern erstmal unterstützen soll, denn
00:22:59: Lionsgate sieht in dieser Technologie eine Möglichkeit, die Inhalte einfach viel effizienter
00:23:04: zu produzieren, um so natürlich neue Projekte günstiger, aber auch irgendwie kreativer zu
00:23:08: gestalten, ohne dass du halt irgendwie krasse Effekte halt irgendwie einbauen musst. Und der
00:23:13: Anbieter Runway ist ja spezialisiert genau auf diese generative Modelle und natürlich auch bekannt
00:23:17: für solche KI Tools. Eine Gen2 haben wir mal darüber gesprochen, das ist so ein KI Tool,
00:23:21: das aus Textbeschreibungen wirklich...
00:23:23: absolut foto und video realistische Content Videos erstellen kann und dieser runway CEO hat
00:23:31: jetzt zusammen mit dem Lionsgate Manager hervorgehoben, dass die diese Technologie
00:23:35: Filmemacher ganz neue Möglichkeiten bieten soll ihre Geschichten zu erzählen und dann
00:23:39: auch das Interesse von Produzenten wecken möchte. Gleichzeitig ist natürlich auch ganz ganz
00:23:44: viel Skepsis mit dabei, weil einfach noch unklar ist, ob und wie diese kreativen Teams
00:23:49: ob die vergütet werden, wenn ihre Projekte als Trainingsmaterial natürlich für KI auch
00:23:53: genutzt werden, also die gute alte Copyright-Debatte, die wir hier auch schon ein paar Mal irgendwie
00:23:57: thematisiert haben, aber ich finde diese Partnerschaft kommt einfach zu einer Zeit,
00:24:00: in der KI offenbar in der Filmindustrie überall auf der Welt so intensiv diskutiert wird und
00:24:06: natürlich gleichzeitig bei ganz vielen kreativen Besorgnisauslös, sowohl die Copyright-Debatte
00:24:11: als auch gleichzeitig natürlich ob es zukünftig überhaupt noch Models, Schauspieler und Co. geben
00:24:16: wird und ob es überhaupt noch braucht oder ob alles wirklich on-demand live erstellt wird
00:24:22: mit einem LLM und ich glaube es gibt ganz viele Filmemacher und diese ganzen Produktionsfirmen,
00:24:27: die diesen Einsatz jetzt als Unterstützung begrüßen und ich glaube ganz viele fürchten
00:24:32: einfach die Existenz ihres Arbeitsplatzes. Ja, total nachvollziehbar und wir kommen ja
00:24:38: gleich noch noch zu weiteren OpenAI News zum Thema Entwickler, also Softwareentwickler. Es gibt
00:24:45: in der Tat Berufszweige, die sich glaube ich sehr stark verändern werden. Du hast es gerade
00:24:51: genannt, also der ganze kreative Bereich, alles was mit Bild- und Videogenerative AI zu tun hat und
00:24:57: ich habe auch noch ein Beispiel mitgebracht von Pica, da kommen wir gleich zu, es ist wirklich wild,
00:25:02: was momentan schon funktioniert. Zugegebenermaßen immer so vier, fünf Sekunden Spots, aber das
00:25:10: ist ja der Anfang und ich würde mich nicht wundern, wenn wir in den nächsten Jahren nicht
00:25:16: Monaten, aber wenigen Jahren wirklich AI generierte Zähnen oder vielleicht sogar ganze Filme sehen
00:25:21: werden. Auf jeden Fall. Ich glaube auch wenn du die Memory Funktion von den einzelnen Charakteren
00:25:26: und Hintergründen und Zähnen einfach speichern kannst und einfach wirklich eins zu eins wieder
00:25:33: verwenden kannst, dann ist es ja nicht mehr schwer und wenn du dann halt irgendwie in aller
00:25:37: Kreativität dann die Welten miteinander verbindest, dann sparst du dir einfach so viel Geld, Aufwand,
00:25:44: Kapazität für die Ressourcen überall, also von der Infrastruktur aber eben auch von den
00:25:50: wirklich dann auch sehr teuren Schauspieler*innen. Du hast ja eben gerade schon Meter genannt,
00:25:55: dann kommen wir vielleicht die News direkt anschieben. Also Meter hat ja nicht nur ein neues LLama 3.2
00:26:00: vorgestellt, sondern auch ein neues Tool namens Movie Gen. Ein Movie Gen ist wirklich wild,
00:26:06: man kann es noch nicht nutzen, also man kann sich nur die Beispiele anschauen und das richtet sich
00:26:12: an wirklich Kreative und wenn man sich anschaut was möglich ist mit einfachen Tools und Text
00:26:19: Proms und was als Ergebnis rauskommt, auch die Tatsache, dass ich Bilder oder viel mehr Videos,
00:26:26: die da sind, manipulieren kann. Also in Beispiels Videos sieht man jemanden, der auf einer Strecke
00:26:32: gerade ausjoggt und man hat einfach mal mir nichts, je nichts im Hintergrund geändert oder dem
00:26:38: irgendwelche neue Klamotten angezogen. Es ist schon sehr beeindruckend. Natürlich sieht man es jetzt,
00:26:44: stand jetzt noch, das sieht nicht so 100% echt aus, aber auch hier bewegen wir uns ja am Anfang und
00:26:50: das was du gerade beschrieben hast, nämlich dass ich neue Zähnen erstellen kann, neue Film
00:26:54: erstellen kann. Das ist sicherlich das Endergebnis, aber wenn wir uns anschauen wie einfach es es
00:27:00: jetzt möglich ist für Unternehmen eigene Werbeclips zu erzeugen. Ich meine, das war früher großen
00:27:05: Companies vorenthalten, kreative Werbung zu schalten und auf die Webseite zu packen. Das wird
00:27:12: in wenigen Monaten, wenigen Jahren für jeder Mann, jeder Frau möglich sein, für das eigene
00:27:17: Unternehmen vom Dachdecker bis hin zum Friseurgeschäft sein eigenes Imagevideo zu erstellen, ohne dass
00:27:23: du aufwendige Dreharbeiten durchführen musst. Das ist super spannend. Wir werden sicherlich mehr
00:27:30: Bewegbild in nächster Zeit sehen, aber auch natürlich super erschreckend, wenn man überlegt.
00:27:37: Der hängt natürlich auch sonst krasse Arbeitsplätze und eine ganze Industrie dran.
00:27:40: Hast du noch ein Thema, was dazu passt?
00:27:42: Tatsächlich, Pica. Pica ging so ein bisschen durch die Decke in den letzten Tagen, weil sie eine
00:27:50: neue Version geloncht haben. Also auch für die Hörerinnen und Hörer, Pica ist eines der vielen
00:27:55: Text-to-Video-Tools, wo man Bilder hochladen kann und aus den Bildern kann man sich lustige
00:28:01: Bewegbilder machen oder komplett neu animieren. Und die haben eine neue Version geloncht, Version 1.5.
00:28:10: Und mit dieser Version 1.5 haben sie Presets eingeführt. Also man kann es noch nicht so
00:28:16: superfrei benutzen, aber die Presets sind sehr beeindruckend. Ich schick dir gleich mal ein
00:28:21: kleines Video. Man kann also sagen, es gibt ein Bild und mache aus dem Bild einen Luftballon
00:28:28: oder lass es zerquetschen. Und was dann passiert ist, also das Bild wird dann benutzt, um beispielsweise
00:28:35: ein Porträtfoto als Riesen-Luftballon aufblasen zu lassen, was super überzeugend und auch witzig
00:28:41: aussieht. Und man kann halt lustige Memes draus basteln, als kostenlos zu nutzen. Man muss
00:28:47: sich nur anmelden. Wir verlinken es natürlich und packen es in die Show-Nauts und vielleicht
00:28:50: packen wir auch mal so ein kleines Beispiel Video von mir, wo man meinen Kopf als Kuchen
00:28:56: zerschneidet. Sieht sehr überzeugend aus und hat zumindest bei meinen Geschwistern für
00:29:00: großes Entsetzen gesorgt. Entsetzen oder Freude, das liegt im Auge des Betrachters.
00:29:06: Es wurde kommentiert mit IGIT. Das weiß ich nicht, warum. Weil ich nimm Kuchen oder wegen
00:29:12: meinem Gesicht, I don't know. Genau, das hatten wir dazu. Vielleicht machen wir so ein bisschen,
00:29:21: wir hatten eben schon über OpenAI gesprochen. Tatsächlich, du hast ja ganz viel, was das
00:29:24: Thema Finanzierung betrifft, quasi auseinandergenommen. Aber es ist auch darüber hinaus einiges passiert.
00:29:33: Auf der einen Seite haben im Oktober die OpenAI Dev Days angefangen. Der erste war bereits
00:29:42: am 1. Oktober in San Francisco. Am 30. Oktober geht es in London weiter und zu Ende sind
00:29:48: die Dev Days dann am 21. November. Im Rahmen dessen hat Sam Altmann auch einen kleinen
00:29:54: Fiser-Chat zum Besten gegeben oder wie mehr gab es einen Fiser-Chat mit ihm. Den verlinken
00:30:01: wir natürlich und es wurde einiges auch angekündigt. Developer Days bedeuten, es wurden ganz viele
00:30:08: Sachen angekündigt, dass Entwicklerinnen und Entwickler aus aller Welt halt die neuen OpenAI
00:30:12: Tools implementieren können. Es gibt so zwei, drei, die ich ganz spannend finde. Auf der
00:30:17: einen Seite hat man eine neue Real-Time Voice API herausgebracht oder bringt sie jetzt
00:30:23: heraus, was dazu führt, dass Entwickler und Entwicklerinnen das ganze Thema Speech-to-Speech
00:30:31: in ihre Anwendung implementieren können. Also alles, was mit Voice zu tun hat, wir denken
00:30:37: jetzt auch, du hast eben das Beispiel gemacht mit dem Thema Sprache. Sprache lernen, aber
00:30:45: auch wenn es darum geht, um Sprachausgabe, also dass ich in der App beispielsweise Artikel,
00:30:52: Online und so weiter vorlesen kann, das ist jetzt mit der neuen Voice API noch viel einfacher
00:30:57: und vor allen Dingen echts halt möglich. Das heißt, man kann halt einfach dieser API einbinden
00:31:02: und dann entsprechend seine Lösung entsprechend mit dem Thema Sprache aufzuwerten. Genau,
00:31:10: dann war das Thema Sprache. Dann habe ich so ein bisschen das für mich verordnet und
00:31:17: dann haben wir eben auch schon drüber gesprochen, was hat das auch für Auswirkungen, die ganzen
00:31:20: Entwicklungen auf Arbeitsplätze und insbesondere beim Thema Softwareentwicklung hat ChatGiviti
00:31:26: jetzt Canvas herausgebracht oder wird es herausbringen. Das ist ein neues Tool, wo ich
00:31:32: im Prinzip den Programmcode direkt mit bearbeiten kann in einer Chat-Funktionität. Bisher war
00:31:39: es immer so, ich konnte natürlich mir Programmcode erstellen lassen, aber Canvas ist im Prinzip
00:31:44: ein Entwicklungsfenster oder Tool, wo ich zusammen mit ChatGiviti am Code arbeiten kann
00:31:50: und Code direkt ändern kann. Das heißt, als Entwickler komme ich sehr viel schneller
00:31:53: zum Ziel. Ganz viel Fleißarbeit fällt weg, der die sonst notwendig ist und ein krasser
00:32:01: Schritt auch in Richtung Anwendungs- und App-Entwicklung. Genau, das waren die beiden interessanten
00:32:08: Themen, die ich noch hatte zum Thema OpenAI. Ich glaube, Canvas, einmal kurz eingehakt,
00:32:14: es wird, glaube ich, wirklich cool. Ich habe da so ein bisschen angefangen, mit rum zu
00:32:18: spielen, aber es ist irgendwie, vielleicht stelle ich mich auch ein bisschen dummer,
00:32:22: aber es ist noch nicht so richtig da. Aber die ursprüngliche Chat-Bots-Oberfläche hat
00:32:27: ja quasi nicht zugelassen, dass du einzelne Abschnitte von einem Ergebnis überarbeiten
00:32:31: kannst. Stattdessen war ja immer so eine Anpassung nur mittels genauer Beschreibung,
00:32:36: also ein Reprompting möglich. Oder der Nutzer musste dann den ganzen Abschnitt neu kopieren
00:32:41: und neu einfügen. Und durch diese neue Canvas-Funktion kannst du es quasi wie so ein Lector oder
00:32:46: ein Codeprüfer nutzen, um so ein direktes Feedback quasi reinzugeben. Und was Canvas
00:32:50: macht, das soll sich dann automatisch in so einem neuen Fenster öffnen, wenn GPT so ein
00:32:54: Szenario erkennt, in dem die Anwendung hilfreich sein könnte. Und dann gibt es irgendwie
00:32:58: auch noch Shortcuts, die du dann irgendwie einfügen kannst, was ich auch ganz cool finde,
00:33:03: mit denen sich der Nutzer dann direkt vorschlägt und auch Feedback zu einzelnen setzen oder
00:33:08: teilen in einem Bild oder einem Video abholt. Die längeren Dokument ändern kann, rechtschreiben,
00:33:14: prüfen, Leseniveau anpassen etc. Und das sind so Funktionen, die wir aus Deepel kennen,
00:33:21: aus diesem deutschen KIS-Data, wenn man so aus Köln. Aber das ist damit drin und das
00:33:27: finde ich super schön, dass das jetzt auch tatsächlich als UI-Erweiterung oder Optimierung
00:33:34: jetzt erscheinen wird.
00:33:35: Sie erinnert mich sehr an das, ich komme, ich denke die ganze Zeit drüber nach und suche
00:33:39: hier parallel. Es gab in einem unserer Ausgaben vor, weiß ich nicht, zwei, drei Monaten schon
00:33:44: mal ein Startup, was so ein bisschen durch die, oder AI-Unternehmen, was durch die Decke
00:33:48: ging, die einen ähnlichen Approach hatten. Da ging es auch sehr stark um das Thema Anwendungsentwicklung.
00:33:53: Ich komme nicht mehr auf den Namen, weißt du noch, wer das war? Nee, muss ich nachreden.
00:33:59: Ich such's mal für die Show-Nurz raus. Genau, dann habe ich noch so zwei, drei Sachen,
00:34:04: mehr oder weniger witzige oder mal nicht witzig aus dem Reich. Der Hardware gibt's noch mal
00:34:09: ein bisschen was Neues, nachdem du dir ja immer noch keine Wischenproge gekauft hast und
00:34:14: offensichtlich auch noch keine MetaQuest, gibt es aber etwas von Ray-Ban. Die Smartglasses
00:34:21: von Ray-Ban sind nochmal aufgewertet worden durch ein neues Firmenbeer-Update, also da
00:34:26: setzt Meta zusammen mit Ray-Ban augenscheinlich sehr viel drauf auf das Thema. Die Ray-Ban
00:34:32: Smartglasses, wer sie nicht kennt, sind ja im Grunde nichts anderes als eine Brille. Also
00:34:37: es gibt keine visuelle Funktion, aber mit eingebauten, wie heißt es, Knochen-Schall-Kopfhörer als auch
00:34:45: Mikrofon und Kamera. Das heißt, man kann halt auf eine sehr natürliche Art und Weise mit
00:34:51: seinem Chat-Bot interagieren. Man kann fragen, was sehe ich hier vor mir, man kann sich
00:34:58: Kontext holen. Man kann aber auch jetzt mit dem neuen Firmenbeer-Update QR-Codes erkennen
00:35:03: und das abspeichern und man kann auch Erinnerungsfunktionen hinzufügen nach dem Motto. Ich parke hier.
00:35:08: Das finde ich ganz cool. Erinner mich dran oder sag mir später den Weg zurück zum Auto
00:35:14: und die Brille erfasst das dann entsprechend alles. Aber das ist cool, dass ich jetzt so
00:35:19: ein bisschen erweitere. Ich habe die tatsächlich auch schon zwei, drei Mal aufgehapt. Die sieht
00:35:26: halt aus wie eine normale, bisschen dickere vom Stegherr Ray-Ban-Brille. Die gibt es mittlerweile
00:35:31: auch nicht nur in schwarz, sondern auch in schöneren Farben und auch echt cool, echt sexy.
00:35:36: Ich bin ja auch selber so 50% Brillenträger im Leben. Also habe ich mir gedacht, warum denn
00:35:41: eigentlich nicht so ein Ding? Wer so ist Apple Vision Pro? Aber die Hauptuse-Cases sind,
00:35:47: du nimmst halt irgendwie schnell ein Foto oder ein Video Snippet für Facebook, Insta,
00:35:52: auf und das sind einfach nicht meine Portale und deswegen macht das halt irgendwie für
00:35:59: mich nicht so viel Sinn. Aber wenn du es jetzt breiter und generischer machst wie halt über
00:36:02: dieses Merk, die in meinem Auto steht, Funktion oder QR-Codes, die ich ja für ihre Weise im
00:36:06: echten Leben sehr wenig gibt, außer jetzt keine Ahnung, auf speisekartenden Restaurants oder so was,
00:36:11: dann finde ich das schon wieder echt cool. Die haben eine gute Laufzeit mittlerweile,
00:36:15: die haben schöne Designs, die Akkusen glaube ich sauber verarbeitet und die kosten halt auch
00:36:19: jetzt nicht so ein Vermögen. Nein, ich meine 199 oder kann das sein? Ja, das Einstiegsmodell. Ich
00:36:25: glaube, dass man wirklich was anfangen kann, ist dann schon wieder bei 399, aber das sind dann
00:36:29: auch so wieder die Designvarianten. Das ist halt immer noch nicht mal ein Zehntel von Apple Vision
00:36:34: Pro mit entsprechendem Zubehör. Ich werde das auch weiter stressen, so lange bist du hier mit
00:36:39: der Taucherbrille sitzt. Das merkt man gar nicht. Das merkt man gar nicht. Genau, dann gibt es nur
00:36:43: noch eine kleine, aber man merkt natürlich, was man schon merkt. Das ganze Thema Hardware ist noch
00:36:46: nicht vom Tisch. Ich habe auch jetzt die Jungs noch mal gelesen, hier steht es doch nicht, aber das
00:36:49: ehemaliger Chefdesigner von Apple, John Ivey, ich glaube wohl, ne? Johnny Ivey. Johnny Ivey,
00:36:57: so rum war es. Zusammen mit Sam Ordmann nach wie vor an einer eigenen Hardware tüftelt. Das ist
00:37:04: wohl noch nicht vom Tisch und das ganze Thema AI ist ja in jeder Hardware, die man sich vorstellen
00:37:10: kann, so natürlich auch in der neuesten Amazon Fire HD Generation, also die nächsten Tablets,
00:37:15: die jetzt rauskommen, Version 8, wie Amazon sagt, mit umfangreichen AI Features. Im Grunde
00:37:22: wird das so etwas sehr Ähnliches sein, wie wir jetzt bei Samsung erleben, aber auch wie wir bei
00:37:25: Apple erleben. Das heißt, das ganze Thema Betriebssystem ist einfach mehr mit AI Funktionalitäten
00:37:31: ausgestattet und erweitert. Das werden wir sicherlich immer mehr sehen und auf immer mehr
00:37:37: Geräten sehen. Ich bin übrigens sehr gespannt auf Apple Intelligence. Ich habe es mir mal angeschaut,
00:37:42: dass was man bisher testen kann, ist ja sehr reduziert auf so ein bisschen Siri und so ein
00:37:47: bisschen Foto, sagt man, Ritusche, Rituschieren. Das funktioniert schon ganz gut, aber so richtig
00:37:54: vom Hocker gehauen hat mich das alles noch nicht. Wenn ich ehrlich bin, mal schauen, wenn es dann
00:37:59: wirklich live und in der Fläche verfügbar ist. Ja, das war so meine Nachricht. Ich habe gesehen,
00:38:05: du hast oben noch ein, zwei Sachen. Ja, zwei vielleicht noch und dann, ich glaube, man schließen
00:38:10: wir es. Aber bei Klaner ist ja so ganz viel passiert. Wir haben ja vor, ich weiß nicht, einem
00:38:15: Vierteljahr oder vier Monaten darüber berichtet, dass der Sebastian Semiat-Koski, der CEO und Gründer
00:38:21: von Klaner das Thema KI total umarmt und hat, glaube ich, als erstes seinen Kundenservice durch
00:38:27: so ein Chatbot so ein bisschen obsolet gemacht und ist halt sofort irgendwie mit der Tür ins
00:38:32: Investorinhaus gefallen und hat gesagt, dadurch fallen halt irgendwie 700 Stellen jetzt auch
00:38:36: verlässlich weg. Das Ding ist super, das funktioniert einwandfrei, so ein bisschen auch die
00:38:40: Blaupause für viele andere Fintechs. Revolut hat zu seinen Chatbots eigentlich eins zu eins
00:38:44: genauso gebaut und funktioniert auch sehr gut. Und jetzt zündet Klaner irgendwie so diesen
00:38:50: nächsten Turbo. Wir haben darüber gesprochen, dass sie viel jetzt über Marketing-Automation
00:38:54: machen wollen, dass sie keine Kampagnen und Content Snippets mehr selber bauen, sondern das
00:38:57: alles nur noch über eigene Gen AI-Systeme dann auch integrieren. Und ich will das jetzt auch
00:39:07: gar nicht alles aufwärmen. Ich selber habe irgendwie zwei Artikel über Klaner auch geschrieben,
00:39:11: so zum Thema KI-Bank der Zukunft und Co. Aber ein, anders finde ich es so ganz spannend und das ist,
00:39:16: was die jetzt auch mit seinen oder mit den Partnerschaften von diesen typischen Software-Asset-Service-Giganten
00:39:23: Salesforce und auch Workday machen. Die haben nämlich einmal komplett die Verträge gekündigt und
00:39:28: wollen damit massiv umstrukturieren oder viel massiver als der Markt hat eigentlich erwartet.
00:39:32: Das heißt, in den kommenden Wochen möchte Klaner dann ihre Sales-Plattformen durch komplett
00:39:37: selbst entwickelte Lösungen über Gen AI ersetzen. Natürlich in allererster Linie, um Kosten zu
00:39:42: senken. Sie wollen flexibler sein, aber sie wollen ja vor allem irgendwie ihre valuation, also den
00:39:46: Unternehmenswert vor dem geplanten IPO jetzt in die Höhe treiben. Aber die sagen ganz klar oder
00:39:52: eher sagt in einem Interview, ich glaube auf Bloomberg, dass Gen AI es Klaner zu 100 Prozent
00:39:58: ermöglichen soll, externe Software-Asset-Service-Funktionalitäten durch komplett eigene Technologien
00:40:03: zu ersetzen. Und ob das so wirklich funktioniert, das sei mal dahingestellt. Da hat jetzt irgendwie
00:40:08: Philipp Klöckner vom Doppelgänger oder Holger Chapitz vom Weltpodcast schon so ein bisschen
00:40:12: drüber geschrieben und philosophiert. Aber wenn so was zur Blaupause wird, dann haben B2B Software-Asset-Service
00:40:19: an B2B Sales-Force natürlich ein massives Problem, denn mehr und mehr Digitalfirmen sprechen
00:40:24: öffentlich darüber, ihre Services und Subscriptions runterzufahren und dann auch auf eigene Lösungen
00:40:29: zu setzen. Ich glaube Sales-Force hat das schon so ein bisschen erkannt. Die haben jetzt in einem
00:40:33: exklusiven Interview auf Fortune mal so eine harte Wende zumindest vorgestellt und sagen,
00:40:40: ja, sie setzen auch voll auf AI. Sie machen jetzt Investments in Anthropic, Cohe hier haben sie investiert
00:40:45: together AI auch. Aber ich glaube, das ist so der Beginn, dass diese Sales-Landschaft einfach wirklich
00:40:52: von einem tiefgreifendem Wandel stehen wird und das typische Subscription Enterprise Sales-Modell
00:40:58: vielleicht ein Auslaufmodell sein wird. Echt spannend. Genau, und zweites Thema noch, was wir auch hier
00:41:07: schon mal besprochen haben, das war Perplexity und das hier ja vielleicht so ein Google-Angriff auf
00:41:13: das Thema Werbemodell anstreben wollen. Und das ist ja unser beider Lieblings-KI-Suchmaschine,
00:41:20: Perplexity, wenn man so will. Das führt nach Berichten der Financial Times jetzt zurzeit Gespräche
00:41:25: mit riesigen Brands unter anderem Nike, um so ein neues Werbemodell in der Search-Industrie
00:41:29: bald auszuprobieren und die sprechen tatsächlich von Etablieren. Wir haben ja hier schon mal darüber
00:41:35: gesprochen, dass Perplexity quasi die Vorherrschaft von Google in diesem 300-Milliarden-schweren
00:41:40: Search-Markt irgendwie angreifen möchte. Und genau das haben sie jetzt letzte Woche
00:41:44: gelounscht. Sie möchten das von Google auktionsbasierte Anzeigensystemen komplett
00:41:50: umgestalten und wollen Marken stattdessen gesponderte Fragen anbieten, die sie dann von
00:41:56: den Werbetreibenden als genehmigte KI-Antworten folgen lassen. Dieses Google-Modell, das funktioniert
00:42:02: ja, wenn man so ganz simpel gesprochen, so ganz einfach, dass sie halt Werbekunden für Clicks
00:42:08: bezahlen lassen. Also CPC, ein Cost per Click-Modell, ist total etabliert, gibt es seit 100 Jahren.
00:42:12: Und im Perplexity-Modell zahlt man nicht mehr per Click, sondern wirklich für die effektiv
00:42:17: genutzte Reichweite. Also dieses CPM-Modell, das nennt sich Cost per Mill, also Cost per
00:42:22: Impressions, wenn man so will. Und der Preis-Unterschied soll aber bei plus 50 Dollar im Perplexity-Modell
00:42:28: für große Brands sein. Das heißt, bis Ende 2024 wird Perplexity jetzt diesen CPM-basierten
00:42:35: Zeichenmechanismus einführen und bis dahin vor allem Premium Brands für dieses Modell
00:42:40: gewinnen. Und ich glaube, wenn das wirklich klappt und die Marketeers von den relevanten
00:42:45: Brands hier draufhüpfen, dann kann das Suchgeschäft tatsächlich den radikalsten Wandel seit Beginn
00:42:51: erleben. Hängt natürlich total davon ab, ob dieses neue Anzeigensystem von Perplexity
00:42:56: dann auch funktioniert und wie schnell das Start-up dann auch so seine Suchanfragen skalieren
00:43:01: kann. Ich habe nochmal nachgeschaut, Perplexity selbst hat gesagt, dass sie im Juli schon zwei
00:43:05: Hundertfünfzig Millionen Suchanfragen über die Plattform gestellt bekommen haben. Das
00:43:10: ist viel. 250 Millionen muss halt auch, also das war halt, der Juli auf Google werden immer
00:43:17: noch jeden Tag um die 3,4 Milliarden suchen begonnen. Trotzdem ist es ein relevanter Teil,
00:43:23: finde ich. Absolut. Mich hat die Nachricht so ein bisschen verängstigt, wenn ich ehrlich
00:43:28: bin. Da haben wir nämlich auch schon mal darüber gesprochen. In dem Moment, wo mich natürlich
00:43:31: als werbetreibender Ergebnis beeinflussen kann oder ein anderes Ranking bekomme, bin ich natürlich
00:43:37: auch ganz schnell bei solchen Sachen wie, was ist ein Wahlkampf ist und dann auf einmal Trump
00:43:42: bei Perplexity, also so ich sage, anfängt dort Gewerbung in Anführungsstrichen zu schalten.
00:43:50: Das finde ich ein bisschen schwierig bis hin zu spannend, wie man das lösen möchte,
00:43:55: weil ich möchte natürlich Informationen haben, die im weitesten Sinne neutral sind, wo wir wissen,
00:44:00: dass es das wahrscheinlich auch nicht gibt, so richtig neutrale Informationen. Das sehen wir ja
00:44:04: nicht nur an den AIS beispielsweise, an LLAMA, aber auch an anderen generativen AIS,
00:44:11: dass das nicht immer 100 Prozent neutral ist, aber in dem Moment, wo natürlich ein richtiges
00:44:15: Businessmodell werbebasierend aufs Tableau kommt. Ja, spannend. Ich habe aber noch eine Sache,
00:44:22: die wollte ich noch, weil du sagst, du herzt noch zwei. Ich habe noch eine mini kleine Sache,
00:44:26: die ich lustig als auch erschreckend zugleich finde. Ich habe Anfang der Woche ebenfalls
00:44:31: einen LinkedIn-Post dazu geschrieben, nämlich die Suche nach dem Baby Peacock, der bei Google
00:44:38: nach dem Baby V sucht, findet in der Google-Bildersuche, ich würde mal sagen 80 Prozent an Bildern,
00:44:46: die kein Baby V sind, zwar sehr süß aussehen, aber halt AI generierte Bilder sind. Und der Grund
00:44:53: ist ein ganz einfacher. Google ranked natürlich das, was am meisten geklickt wird an erster Stelle.
00:44:59: Und es hat wiederum vor einigen Wochen diverse Bilder, die viral gegangen sind. Man hat nämlich
00:45:05: über Flux und Co. einen Baby V generieren lassen. Super süß, süßer kleiner Vogel, hat nur nichts
00:45:13: mit dem echten V zu tun und heißt oder zeigt auch, wie wenig verlässlich eigentlich die
00:45:20: Ergebnisse und der Content ist, den wir dargestellt bekommen oder angezeigt bekommen. Und da würde
00:45:27: ich mit dir, Sascha, tatsächlich gerne mal ein Deep Dive machen, wie wir uns in Zukunft da verschützen
00:45:32: bzw. was mögliche Wege sein könnten zu verifizieren, dass das, was wir angezeigt bekommen, auch
00:45:39: wenigstens ein wenig der Realität entspricht. Ich kann dir nicht folgen, ich bin abgedriftet in
00:45:48: den Bilder, die wir suchen von Baby V, es ist echt cuteness overload, aber wahrscheinlich ist kein
00:45:53: einziges Bild, was ich hier sehe, das, was du beschreibst, weil es ist genauso, wenn dann, also
00:45:57: da drunter kommt dann, wir sehen junge Pfauen aus und da steht ein junges Küken, hat ein helles,
00:46:01: braunes Nest und Downenkleid und ist etwas dunkler an der Oberseite. Nichts davon ist
00:46:06: dunkel, ist es einfach ein wunderschönes Farbentier, aber offenbar alles fake. Ja, das Interessante
00:46:12: ist, also ich will dem V nicht so nah drehen, aber wie beim Endline ist, gibt das hässliche
00:46:17: Endline und der V ist halt als Baby kein so wirklich prachtvoller Vogel, aber ja, schaut
00:46:23: es euch an, sucht einfach mal bei Google nach Baby V oder im englischen Baby Peacock und dann
00:46:29: werdet ihr überrascht sein. Genau. Das ist wie bei uns beiden. Ich glaube wir sind am Ende, ne?
00:46:32: Damit schließen wir die Folge, genau. Das war die heutige Folge, Folge 22 hattest du im
00:46:36: Intro gesagt, wir bleiben dran, versprochen, freuen uns, wenn ihr uns auch treu bleibt. Bis bald ihr
00:46:43: Bis bald, macht's gut.
00:46:45: Gut.
Neuer Kommentar