Nach der Sommerpause: AI Update, News und Trends
Shownotes
Hier sind die Links im gewünschten Format:
Digitalexperte Sascha Lobo: EU vernichtet mit AI Act KI-Zukunft des Kontinents: https://www.spiegel.de/netzwelt/netzpolitik/ai-act-die-eu-vernichtet-die-ki-zukunft-des-kontinents-kolumne-a-a2b607aa-ebb0-4878-8f9b-13978a5a3a70
„Künstliche Intelligenz macht die Welt dümmer“: https://www.handelsblatt.com/technik/ki/ki-forscher-gary-marcus-kuenstliche-intelligenz-macht-die-welt-duemmer-02/
GPT-4o Mini: Kein spezifischer Link angegeben.
OpenAI testet SearchGPT - KI-gestützte Websuche mit Quellenangaben: https://openai.com/index/searchgpt-prototype/?utm_source=morning-crunch-ai.beehiiv.com&utm_medium=newsletter&utm_campaign=ai-investments-milliarden-fliessen-weiter
Neue Sprachfunktion von OpenAI – Erweiterter Modus für ChatGPT: https://www.theverge.com/2024/7/30/24209650/openai-chatgpt-advanced-voice-mode
KI: Warum Meta jetzt die Stimmen von Promis haben will: https://www.heise.de/news/KI-Meta-will-die-Stimmen-von-Promis-haben-9823684.html
Meta stellt Llama 3.1 vor - Das bisher leistungsfähigste Open-Source-KI-Modell: https://ai.meta.com/blog/meta-llama-3-1/?utm_source=morning-crunch-ai.beehiiv.com&utm_medium=newsletter&utm_campaign=ai-investments-milliarden-fliessen-weiter
FLUX.1 von Black Forest Labs: https://blackforestlabs.ai/
Riesen-Funding mit $100 Mio. für AI-Legaltech Harvey: https://www.nzz.ch/meinung/kuenstliche-intelligenz-uebertrieben-die-kuriose-welt-der-ki-gadgets-ld.1839976?utm_source=morning-crunch-ai.beehiiv.com&utm_medium=newsletter&utm_campaign=ai-funding-100-mio-fur-harvey
KI übertrieben: Die kuriose Welt der KI-Gadgets: https://www.nzz.ch/meinung/kuenstliche-intelligenz-uebertrieben-die-kuriose-welt-der-ki-gadgets-ld.1839976
Amazon Music erleichtert mit „Topics“ und KI das Entdecken von Podcasts (US-only): https://stadt-bremerhaven.de/amazon-music-erleichtert-mit-topics-und-ki-das-entdecken-von-podcasts-us-only/
Evident AI Index: https://evidentinsights.com/ai-index/
J.P. Morgan integriert die KI-gestützte Plattform von Slope, um sofortige B2B-Finanzierung am Point of Sale anzubieten: https://tearsheet.co/payments/case-study-j-p-morgan-integrates-slopes-ai-powered-platform-to-offer-instant-b2b-financing-at-point-of-sale/
JPMorgan stellt seinen Mitarbeitern “AI Research Analysten” zur Verfügung: https://techinformed.com/jpmorgan-rolls-out-gen-ai-research-analyst-to-employees/
Nur 47 Prozent der Banken legen Wert darauf KI einzusetzen: https://www.n-tv.de/ticker/Nur-47-Prozent-der-Banken-legen-Wert-darauf-KI-einzusetzen-article25113377.html
OpenAI hält ein Tool zurück, das ChatGPT-Texte mit Wasserzeichen versehen könnte: https://stadt-bremerhaven.de/openai-haelt-ein-tool-zurueck-das-chatgpt-texte-mit-wasserzeichen-versehen-koennte/
OpenAI könnte in den nächsten zwölf Monaten das Geld ausgehen.: https://www.business-punk.com/2024/08/openai-vor-milliardenverlusten-wann-wird-sam-altman-das-geld-ausgehen/
Musk verklagt mal wieder Open AI: https://www.faz.net/aktuell/wirtschaft/unternehmen/altruismus-gegen-gier-elon-musk-verklagt-mal-wieder-open-ai-19901129.html
OpenAI DevDay: https://openai.com/devday/
Tools:
Letsrecast: https://app.letsrecast.ai/
Glif.app: https://glif.app/
Disclaimer: Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.
Transkript anzeigen
00:00:00: [Musik]
00:00:06: AI in Finance.
00:00:09: Der Anplugpodcast von Sascha Diewald und Mike Klotz.
00:00:14: [Musik]
00:00:23: Hallo und herzlich willkommen zur 19. Ausgabe von AI in Finance.
00:00:29: Ich bin Mike Klotz und nach einer längeren Pause Sascha,
00:00:35: ich glaube, drei Wochen war es, melde mir uns aus der kleinen Sommerpause,
00:00:40: sozusagen zurück. Die Sommerpause wird wahrscheinlich noch ein bisschen anhalten.
00:00:45: Das liegt einfach an der Natur der Sache. Auch wir machen ab und an Urlaub.
00:00:49: Ich war dran und lieber Sascha, du gehst ja jetzt quasi in deinen Urlaub.
00:00:53: Und damit begrüße ich dich auch ganz, ganz herzlich. Schön, dass du da bist.
00:00:57: Ja, schön, dass wir uns mal wiedersehen.
00:00:59: Ein bisschen geschrieben haben wir in den letzten Wochen, aber du hast dir ein schönes
00:01:03: Digital Detox verordnet. Diesmal war ich der deutlich aktivere.
00:01:06: Ich habe heute meinen ersten Urlaubstag, wie du unschwer in meinem Outfit erkennen kannst.
00:01:11: Freu mich auf die nächsten Wochen. Bin jetzt ab morgen erst mal für ein paar Tage in Paris
00:01:15: bei den olympischen Spielen. Und wird bestes Wetter erwartet und ich freue mich ganz,
00:01:19: ganz doll, da auch bei vielen Events mit dabei zu sein.
00:01:22: Kann ich beim nächsten Mal so ein bisschen berichten.
00:01:24: Genau, aber ich würde sagen, wir steigen mal mit so ein paar News ein.
00:01:28: News der Woche ist ein bisschen schwer, weil wir jetzt tatsächlich ein paar Wochen nicht
00:01:30: aufgenommen haben und wir wollen jetzt auch nicht wieder alles aufwärmen, was ihr ganz
00:01:35: sicher so schon irgendwo anders gesehen oder gelesen habt.
00:01:38: Aber es gibt so ein paar spannende Entwicklungen, vor allem um den EU-AI-Akt.
00:01:43: Wir haben lange schon darüber gesprochen, da wurde sehr lange verhandelt und wurde dann
00:01:47: Medienwirksam in Brüssel dann auch beschlossen.
00:01:50: Und jetzt wurde der AI-Akt dann als weltweit erstes Gesetz für künstliche Intelligenz
00:01:55: dann auch offiziell eingeführt. Seit dem ersten 8. also letzte Woche gelten in der EU
00:01:59: damit klare und zum Teil finde ich auch sehr strenge Regeln für den Einsatz von KI-Systemen.
00:02:04: Wir haben da ja schon eine Sonderfolge mal, ich glaube, vor drei Monaten gemacht und
00:02:07: ausführlich darüber berichtet. Und damit würde ich sagen, ist der AI-Akt einfach jetzt auch
00:02:11: ein Teil einer Reihe von neuen EU-Gesätzen, die darauf abzielen, den digitalen Raum besser
00:02:17: und hoffentlich dann auch nachhaltig zu regulieren. Ich glaube seit April 21 diskutiert die EU
00:02:23: bereits über den AI-Akt, wobei die intensiven Verhandlungen dann im letzten Jahr halt stattgefunden
00:02:27: haben. Teilweise haben wir ja auch darüber gesprochen, dann sogar fast Scheiterten aufgrund
00:02:31: von Frankreich und Deutschland. Ganz schön viel Widerstand wurde dort ausgelöst.
00:02:35: Aber jetzt nun in der verabschiedeten Fassung teilt der AI-Akt dann KI-Systeme basierend
00:02:41: auf ihren potenziellen Risiken für sich ein Heil für Grundrechte, für Gesundheit, dann
00:02:45: in verschiedene Risikokategorien ein. Haben wir auch schon viel darüber gesprochen. Immer
00:02:48: wieder spannend sind so die verbotenen Systeme, finde ich. Also zum Beispiel biometrische
00:02:53: Kategorisierungssysteme, vor allem dann solche die personenbezogene Daten automatisiert weiter
00:02:57: verarbeiten wollen. Das heißt, Unternehmen müssen ab jetzt wirklich sicherstellen, dass
00:03:01: ihre KI-Systeme nicht in diese Kategorie der verbotenden oder hochrisikoki fallen und
00:03:07: damit natürlich auch neue Systeme fürs Risikomanagement implementieren.
00:03:11: Das ist ein ganz wichtiger Punkt, weil es ist ja nicht ganz kritiklos, das ganze Thema.
00:03:16: Auf der einen Seite hast du eben was gesagt, nämlich na es gibt da durchaus eine strenge
00:03:20: Regulatorik und manche Sachen sind vielleicht nicht ganz so, wie soll ich sagen, Innovationsfördern.
00:03:26: Auf der anderen Seite sehen wir aber auch jetzt schon Unternehmen und das prominenteste
00:03:30: Beispiel ist Apple, die ja mit deren AI namens Apple Intelligence jetzt sagen na ja mit EU
00:03:38: oder Europa gucken wir mal bei und wenn dann vielleicht nur auf Mac, aber noch nicht auf
00:03:42: den iOS geräten. Also so schön das ist, dass wir eine Regulatorik haben und du hast ja
00:03:47: auch gleich noch ein Link mitgebracht von dem Kommentar von Sascha Lobo. So schön das
00:03:52: ist, dass wir den EU AI-Act jetzt haben und auch in der Umsetzung ist, er ist ja nicht
00:03:56: ganz kritiklos.
00:03:57: Total, also sowohl von den großen Unternehmen, die Hyperscaler und die großen Magnificent
00:04:05: haben aus den USA, die du gerade sprichst, aber eben auch für EU-Unternehmen, die natürlich
00:04:09: hier und da erstmal ein Wettbewerbsnachteil jetzt irgendwie auch sehen, wenn sie solche
00:04:12: Systeme als Kundenservice oder auch anderen Iterationen bei sich einführen und ich glaube
00:04:19: erst mal stehen die auf jeden Fall für Fetten Herausforderungen. Was jetzt so ein bisschen
00:04:23: durch die Presse in den letzten Wochen geht und ich weiß nicht durch wen das jetzt begonnen
00:04:28: wurde, wurde auch dann einzustreuen, ist das diese vielleicht sogar langfristig von der
00:04:32: regulatorischen Vorbereiterrolle so ein bisschen profitieren, weil natürlich auch die Nicht-EU-Unternehmen,
00:04:37: die dann KI in der EU einsetzen, von diesen neuen Regeln natürlich betroffen sind, weil
00:04:42: bei Nichteinhaltung drohen auch Bußgelder von bis zu 7% des weltweiten Jahresumsetzes.
00:04:47: Noch ist natürlich nicht ganz klar, wer das Ganze dann wie auch kontrollieren und irgendwie
00:04:52: auch bestrafen soll, denn so eine eigenständig dafür zuständige Behörde wird es in Deutschland
00:04:56: zumindest erstmal nicht geben. Aktuell wird glaube ich über eine geteilte Überwachung
00:05:00: durch die Bundesnetzagentur und diverse Bundesdatenschutzbehörden diskutiert, aber wie das dann wirklich
00:05:06: exekutiert und kontrolliert werden soll, ist bisher zumindest noch nicht klar.
00:05:10: Bei dem EU-Akt sind ja so ein paar Sachen noch nicht so richtig klar und definiert. Also
00:05:14: allein die Definition, was eigentlich unter künstlicher Intelligenz verstanden wird,
00:05:19: ist ja sehr waage gehalten und du hast eben was gesagt, das ist noch unklar, wie das alles
00:05:24: kontrolliert und also reguliert ist das eine, aber wie es vor allem kontrolliert wird,
00:05:30: dann werden noch spannende Diskussionen und auch Zeiten auf uns zukommen und wir hatten
00:05:34: in der Tat vor ein paar Monaten ja unsere Sonderfolge zu dem Thema, ja werden wir in
00:05:39: die Show noch mal verlinken, so wichtig wie das ist und so schön es ist in der EU bei
00:05:43: dem Thema Vorreiter zu sein. Ich glaube, da wird es relativ schnell, wie soll ich sagen,
00:05:50: ja Verbesserungspotenzial oder Verbesserungsbedarf bestehen, weil ansonsten könnte es sein,
00:05:55: dass wir wirklich was Wettbewerb betrifft und etwas ins Hintertreffen gelangen. Also wir
00:06:01: werden so wie es gerade sich gestaltet, man muss ein bisschen abwarten, aber nicht in der Lage
00:06:06: sein mit den großen Unternehmen, die jetzt gerade vorlegen und die allesamt eben nicht aus der
00:06:10: EU kommen, Schritt halten zu können. Ja, ich sehe hier immer so diese schöne Meme vor mir,
00:06:16: America Innovates, China Replicates und Europe Regulates, das ist so ganz schön und dazu passt
00:06:22: auch dieses Zitat vom Sascha Lobo, was du gesagt hast, das ist glaube ich ein Spiegelartikel,
00:06:28: wir verlinken den, wir wollen ihn jetzt nicht ganz hier wiedergeben, aber was hängen geblieben ist,
00:06:31: ist das Zitat, indem er sagt, dass die EU-Kommission und das Europäische Parlament sich einen
00:06:36: gequirlten Quark für den wirtschaftlichen Fortschritt offenbar interessieren, denn an der KI-Verordnung
00:06:41: zeigt sich mal wieder wie Gagga die Vorstellung der Parlamente von der Realität ist. Also tatsächlich
00:06:48: sehr schön gesagt, wir lassen euch den Kommentar mal in den Schaunaus. Ein anderes richtig gutes
00:06:55: Interview, was wir euch ans Herz legen und ich glaube, dass es auch ohne Paywall erhältlich
00:06:59: beim Handelsblatt ist von einem ja sehr umstrittenen Kopf der KI-Szene, er gilt so ein bisschen,
00:07:05: ich glaube, es hat er sich selber gegeben, den Namen als das Enfant Terrible der KI-Szene,
00:07:10: das ist Gary Marcus, der hat dem Handelsblatt ein ziemlich wildes Interview gegeben, wie ich finde,
00:07:14: was wir wie gesagt verlinken und der ist seit 20 Jahren auch ein ziemlicher Forscher, aber auch
00:07:20: Kritiker bei diesem ganzen Thema, zum Beispiel Hallucinationen von Sprachmodellen und er sieht
00:07:27: halt im Gegensatz zu Sam Ortonmann und Elon Musk und all den anderen einfach eine sehr große Gefahr
00:07:31: und gar nicht so dieses AGI, wir werden alle Sterben gefahren, sondern tatsächlich er sieht halt,
00:07:37: dass diese ganzen KI-Modelle einfach viel zu großer Hype sind, der wahrscheinlich bald zerbröselt und
00:07:43: einfach aufgrund der extremen Kosten und Trainingssituation und fossilen Brennstoffe und Co.
00:07:48: einfach komplett in den Untergang geht und er glaubt, dass zum Beispiel ChatGPT4O, was ja das
00:07:54: neue halbwegs neue Modell von OpenAI ist, einfach ein gescheiteter Versuch ist, GPT5 hat
00:08:00: rauszubringen und deswegen wurde das halt quasi nur mal irgendwie zwischendurch released und
00:08:05: er sagt auch, dass OpenAI in der Vergangenheit immer wieder angedeutet hat, GPT5 steht Codes
00:08:09: bevor und danach kommt dann wirklich diese AGI. Die Wahrheit ist aber seiner Meinung nach, dass
00:08:15: die Fortschritte in der KI-Inwicklung zuletzt einfach immer kleiner geworden sind und OpenAI
00:08:19: damit komplett auf dem Holz weg ist und er sagt auch ChatGPT mag zwar beliebt sein,
00:08:24: bei Millionen von Menschen, aber er sagt, dass es halt alles andere als vertrauenswürdig. Er
00:08:28: sagt ganz klar, dass große Sprachmodelle einfach eine gute Lösung für Average-Jaws sind,
00:08:34: die sind sehr beliebt, aber er sagt ganz klar, sie bergen krass viele Risiken. Das eine ist
00:08:39: irgendwie das Thema Fehlinformationen, haben wir darüber gesprochen und das andere ist
00:08:43: einfach Halluzination. Also die Tatsache, dass die Modelle einfach immer noch auf breiter
00:08:47: Spur antworten und Ergebnisse erfinden. Das ist ein ganz wichtiger Punkt und ich habe den
00:08:53: Artikel total gefeiert. Also ich kannte ihn nicht und war total dankbar, dass du den gescheit
00:08:57: hast und wir den auch nachher dann in den Show notes scheren. Aber was also erst einmal ist,
00:09:01: Gary Markus ja nicht irgendwer, du hast es gerade gesagt, der beschäftigt sich schon seit zwei,
00:09:04: drei Wochen, schräg schriegt 20 Jahren mit dem Thema, also er kennt sich wirklich aus und was
00:09:09: er halt vor allen Dingen sagt ist, dass wenn wir uns mal das Thema anschauen und er bringt
00:09:14: ja Beispiel auch von autonomen Fahren, wo ja auch KI zum Einsatz kommt, es hilft halt nicht,
00:09:19: wenn das System 5% fantasiert und glaubt, da läuft gerade niemand über die Straße,
00:09:25: das hilft halt dann nicht und das Thema Vertrauen spielt hier eine ganz große Rolle und ein ganz
00:09:30: weiteren wichtigen Punkt nennt er und ich muss sagen, ich denke über den Artikel immer mehr
00:09:34: nach, ist nämlich das Thema wie Informationen beschaffen werden und wenn man sich den Mensch
00:09:39: anschaut, dann werden Menschen ja nicht schlau, weil sie Bücher lesen, sondern Menschen werden
00:09:43: schlau, weil sie rausgehen in die Natur, in die Welt, sie lernen laufen, sie lernen miteinander
00:09:48: kommunizieren und das ist etwas, was all diesen LLMs eben fehlt. Sie können nur auf das zugreifen,
00:09:57: was an geschriebenen Wort da ist und du erinnert sich ja an den Vortrag auf der OMR von Philipp,
00:10:04: ich sag schon, Philipp Klöcker zum Thema AI, da spricht er ja auch noch mal darüber, dass die AI-Systeme ja
00:10:14: anfangen ihren eigenen Content zu konsumieren und so eine Art Insucht geschieht. Ich glaube,
00:10:19: wie heißt das, dass Nürn... Habsburger Problem nicht ist. Habsburger Problem nicht Nürnberger.
00:10:25: Und das ist in der Tat ein ungelöstes Problem und ja, ich will gar nicht so viel erzählen,
00:10:31: weil ich so begeistert bin von dem Artikel, aber es ist wirklich ein sehr, sehr gutes Interview,
00:10:35: kann ich nur empfehlen. Ich hoffe, die Nürnberger fühlen sich jetzt nicht angegriffen von dir,
00:10:38: dass du sie "intestuous" genannt hast. Die Habsburger auf jeden Fall, meine Güte.
00:10:43: Nee, aber also das ist total spannend, alles was du sagst, lehst ihn auf jeden Fall mal, weil
00:10:47: der Gary spielt halt zu Grundsätze erstmal auf die Mechanik von den großen Sprachmodellen an und
00:10:54: ein großes Sprachmodell am Ende ist genau das, was es vor ewigem Zeiten auch war. Es ist einfach
00:10:58: ein probabilistisches Modell, das immer noch das wahrscheinlich nächste Wort in einem Satz
00:11:04: ausrechnet, also ganz algorithmisch tatsächlich. Und damit kaut es am Ende einfach nur genau das
00:11:09: wieder, womit es dann halt gefüttert wurde, einfach nur mit Trainingsdaten aufgrund von
00:11:13: Text, Videobildern etc. Aber das Ganze ist natürlich begrenzt und er überlegt ganz klar,
00:11:19: wie kann man das lösen? Also wie kann man halt die 80 Prozent der Probleme, die gut gelöst
00:11:24: werden, mit den 20 Prozent jetzt auch wirklich aufgleisen, denen es halt noch fehlt? Und das ist
00:11:30: genau das, was du sagst. Natürlich, wir können noch so viele Bücher und Zeitschriften lesen und
00:11:33: noch so viele akademische Titel erreichen, wenn wir aber nicht rausgehen und Gespräche führen und
00:11:38: weiter fortbilden und echte Meinung bilden, dann kommt es einfach zu nichts Neuem. Das ist immer
00:11:42: nur was Wiedergekautes. Und das ist einfach dieses große Problem von diesen synthetischen Daten,
00:11:48: wenn die halt immer weiter generierte oder KI generierte Daten dann tatsächlich auch in das
00:11:52: Training und nicht nur in die Influenz aufnehmen, dann werden die Modelle zwar immer obenfangreicher,
00:11:57: aber sie werden nicht besser, sondern sie werden halt immer spezifischer und immer
00:12:00: immer gleicher auf das auf das gleiche Training. Es ist spannend, lesen Artikel, klare Empfehlung.
00:12:05: Genau, sonst würde ich sagen, gehen wir zu den üblichen Verdächtigen. Da ist halt mal wieder
00:12:10: eine ganze Menge passiert. OpenAI hat mit GPT-4O Mini neues Modell, was leichter ist, kostengünstiger,
00:12:17: veröffentlicht und vor allem die kostengünstige Thematik ist hier relevant, denn hier kostet
00:12:24: es tatsächlich nur 15 Cent pro eine Million Eingabe Token und 60 Cent glaube ich pro eine Million
00:12:29: Ausgabe Token. Wenn man sich noch überlegt bei GPT-4O ist es noch bei fünf Dollar pro eine
00:12:36: Million Token. Und das sind ungefähr, wir hatten es ja schon mal hier so ein bisschen versucht,
00:12:39: Herzleitung auszurechnen, eine Million Token sind ungefähr 750.000 Wörter. Das ist,
00:12:43: wir haben es glaube ich damals versucht, Herzleitung ein bisschen weniger als die gesammelten Harry
00:12:48: Potter Ausgaben zusammen, also richtig viel. Und dieses Modell hat also ziemlich die gleichen
00:12:53: Parameter wie der große Bruder GPT-4O und erzielte sogar 82 Prozent in einem von diesen aktuellen
00:12:59: Target Face Benchmarks fahren, das glaube ich und zeigt, dass es extrem leistungsstark ist,
00:13:04: und zwar genauso leistungsstark wie das Cloud 3 Heiko oder das Gemini 1.5 Flash und eignet sich
00:13:10: damit, weil es so klein und so kostengünstig ist, natürlich vor allem so für total simple oder
00:13:15: vermeintlich simple KI-Inwendungen. Wir haben schon sehr viel hier über Kunden Support, Chatbots
00:13:19: gesprochen. Ich habe darüber gesprochen, dass wir bei uns das Ganze auch über einen GPT 3.5
00:13:25: aktuell betreiben, aber so einen GPT-4O Mini wären natürlich deutlich kostengünstiger zu
00:13:29: betreiben, gerade wenn du halt irgendwann in Tausende, 10.000 oder 100.000 Transaktionen
00:13:34: halt irgendwie pro Tag reinläufst, dann ist es schon wichtig, kostet das Ding halt irgendwie
00:13:37: $5 pro 1 Million Hockey oder tatsächlich nur 15 Cent. Ja und es ist halt wie du es gerade gesagt
00:13:42: hast, sehr performant und eignet sich natürlich hervorragend für mobile Anwendungen. Das dürfen
00:13:46: wir ja auch nicht vergessen, das ist noch eine große Achillesphärse bei GPT-4O beispielsweise
00:13:51: ist alles was mobil halt stattfindet. Ja und ich glaube, dass es jetzt so dieses Race to the Bottom
00:13:56: ist halt bei diesen ganzen Sprachunternehmen jetzt wirklich mal mindestens eröffnet oder
00:13:59: geht vielleicht sogar in die nächste Runde, denn damit befinden sich halt so viele LLMs mittlerweile
00:14:05: im gleichen Benchmark oder zumindest auf dem gleichen Qualitätsniveau und wenn der Kernunterschied
00:14:11: nicht mehr die Qualität ist, sondern tatsächlich nur noch für die institutionellen Anwender
00:14:16: der Preis, dann überlegen wahrscheinlich jetzt alle irgendwie ihre Preise auch entsprechend
00:14:20: anzupassen. Und ich glaube noch fängt so zusätzlicher Bedarf von vielen Unternehmen,
00:14:24: die darauf setzen wollen, die sinkenden Preise für die LLM-Betreiber auf und auch die LLM-Entwickler
00:14:30: bezahlen ihren Research natürlich immer noch irgendwie mit ihren prall gefüllten Menschen
00:14:34: Capital Kassen, aber ich glaube auf Dauer wird sich dieser Preiskampf dann ganz sicher auch auf
00:14:38: der Umsatzseite zeigen und damit stellt sich ja mir natürlich die Frage, wie dann auch die
00:14:41: Betreiber großer Sprachmodeller langfristig so diese massiven Entwicklungskosten stemmen wollen.
00:14:46: Genau, weitere News von OpenAI, endlich ist Search GPT da, auch das haben wir glaube ich vor 2,
00:14:55: 3, 4 Literationen oder Editionen mal gesagt, also ist ein Prototyp für eine KI-gestützte Web-Suche
00:15:02: und OpenAI sagt selbst, das ist ein System, was sehr schnell antworten liefert mit mittlerweile
00:15:07: klaren Quellenangaben und es ermöglicht dann quasi auch Nachfragen im gleichen Kontext und dabei
00:15:12: ist Search GPT direkt in GPT oder Chat GPT integriert und diese Funktion wie immer kann
00:15:19: natürlich nur von sehr wenigen Testern ausprobiert werden. Ganz am Ende ist es eine Erweiterung
00:15:23: der Web-Suche im Chatboard und weil es sich um eine Suchfunktion handelt, greifen natürlich
00:15:27: diese neuen Crawler von OpenAI auch auf alle Webseiten zu, das heißt so diese Ausschlüsse von
00:15:32: anderen Bots, die mittlerweile halt irgendwie tatsächlich einfach weit auf weiter Flur ausgeschlossen
00:15:37: sind, gelten hier nicht, was ein ziemlich smarter Move ist. Auf der anderen Seite,
00:15:40: ein smarter Move, ja, aber dringend erforderlich, weil das was Search GPT vorgestellt hat und du
00:15:46: hast es gerade gesagt, ist jetzt da oder was OpenAI vorgestellt, ist jetzt da als Prototyp. Man
00:15:52: kann sich das auf der Webse so ein bisschen durchlesen, erinnert mich aber sehr stark und du bist
00:15:56: ja auch wie ich Nutzer von Perplexity an das, was wir bereits kennen, Perplexity macht genau
00:16:01: das und ich bin gespannt, ob es OpenAI mit der Search GPT-Suche dann besser macht. Wir werden
00:16:09: es sehen leider noch nicht für alle zudem nicht. Ja, die Links wären halt schön prominent dargestellt,
00:16:15: das ist genau das, was du sagst, diese Kritik hat OpenAI sich halt sehr viel anhören müssen,
00:16:19: weil immer nicht ersichtlich war, woher Informationen wirklich stammen, was ist die Primerquelle,
00:16:23: gibt es überhaupt eine oder ist es irgendwie halbzuniert. Wir werden es halt sehen, also ich
00:16:27: habe es selbst noch nicht getestet, weil Search GPT steht natürlich wie immer noch nicht allen
00:16:30: zur Verfügung, Europäern sowieso erst mal nicht. Es gibt eine Warteliste, da habe ich mich drauf
00:16:34: schreiben lassen, aber da kam auch nichts, noch nicht mal eine E-Mail oder so. Also ich bin gespannt,
00:16:41: wie es aussieht und ich glaube neben Verbesserung dieser Suche plant OpenAI auch einfach eine
00:16:46: tiefen Integration, also es wird mehr kregenale und lokale Informationen geben. Ich denke,
00:16:50: sie werden den Handel viel tiefer mit einbeziehen und am Ende klingt das so ein bisschen nach
00:16:54: Google's Strategie oder Klassischer Suche der letzten Jahrzehnte, wo einfach sehr viel gesponsorter
00:17:01: Content und auch vor allem e-Commerce dann einfach sehr prominent angezeigt werden. Ob OpenAI dann
00:17:07: auch plant, ihre Werbung auszuspielen, da habe ich nirgendwo finden können bisher, ich glaube,
00:17:11: das wird halt irgendwie intern modelliert, ist aber auf jeden Fall noch nicht ganz klar. Und ich glaube,
00:17:15: OpenAI ist grundsätzlich der Ansicht, dass Search GPT die Suche nach Antworten im Internet noch mehr
00:17:21: vereinfachen kann und damit einfach viel mehr relevante Ergebnisse ausspuckt. Ich bin halt
00:17:26: gespannt, ob sie mit Search GPT wirklich in direkte Konkurrenz mit Google Suchmaschinen treten.
00:17:30: Die haben ja immer noch irgendwie über 90, weit über 90 Prozent des Suchmaschinenmarktes in
00:17:35: der Dominanz. Es gibt super viele Versuche, kleinere KI Suchmaschinen an Google Suchmaschinen, Monopol,
00:17:42: irgendwas abzuknappsen, alle gescheitert, aber auch wie es, glaube ich, die Doppelgänger mal vor
00:17:46: so ein paar Editionen ihres Podcasts hergeleitet haben, wenn du halt irgendwie zwei bis sogar fünf
00:17:51: Prozent des Market shares von Google irgendwie aus dem Suchmaschinenmarkt rauskriegst, sind
00:17:57: das halt immer noch ein paar hundert Milliarden Euro. Also ist nicht ganz klein. Ja, und OpenAI lässt
00:18:02: sich daher zu Recht oder auf jeden Fall nicht in die Karten gucken. Also die werden jetzt in Teufel
00:18:07: tun und sagen, wir werden in bestimmte Bereiche einsteigen. Also da hält man sich nachvollziehbar
00:18:11: verschlossen. Ich persönlich kann mir das nicht nur gut vorstellen, sondern würde es für sehr
00:18:16: nachvollziehbar halten. Es geht auch bei OpenAI irgendwann darum, Geld zu verdienen, dass
00:18:20: wenn sie nicht mit Premium-Abus hinbekommen und es ist total naheliegend. Aber auch hier,
00:18:25: die Frage ist so ein bisschen, wie gut ist letztendlich das, was wir präsentiert bekommen und
00:18:30: was wir auch nicht vergessen dürfen, ist, es gibt ja auch noch Google, die sowas sagen Gemini und
00:18:35: sich auch mit dem Thema AI beschäftigen. Und auch da, glaube ich, der Abstand zwischen Google und
00:18:41: OpenAI war von einem Jahr deutlich größer, als es heute noch der Fall ist. Also alle rüsten auf.
00:18:47: Ja, und weiter rüste OpenAI auch mit einer neuen Sprachfunktion auf. Für uns beide natürlich super
00:18:54: relevant, weil wir beide ja quasi GPT4O Nutzer der ersten Stunde auch im Dialog sind mit der
00:19:03: synthetischen Stimme und auch sehr darauf gehofft haben, dass wir mal irgendwie mit Sam, also
00:19:08: gerade Johanzen, besprechen können. Aber das kam es ja leider nicht dazu. Wir wissen ja,
00:19:12: gab es eine kleine Verzögerung aufgrund, glaube ich, haben sie sich gesagt, Sicherheitsbedenken.
00:19:16: Also am Ende war es Kritik, dass der Sprachmodus gerade Johanzen viel zu sehr ähnelt. Aber nun
00:19:21: plant OpenAI dieses Feature im Herbst dann allen Plus-Abonnenten anzubieten und auch einfach
00:19:26: mit deutlich mehr Stimmen. Und die nennt es Voice Mode. Damit kann man dann in Echtzeit kommunizieren.
00:19:31: Es sollte nochmal viel leistungsfähiger sein, viel weniger Latents haben. Und als der aktuelle
00:19:37: Vorgänger quasi und er soll auch auf Emotionen reagieren. Das ist das, was wir vor ein paar Wochen
00:19:42: mal mit diesem anderen Modell dargestellt haben. Weißt du doch? Du hast genau zwei Punkte. Das
00:19:47: einmal das Thema Emotion und der Voice Mode, der kommen soll. Und das ist ja das, was momentan
00:19:51: noch fehlt. Momentan ist ja die Konversation zwischen dem Voice-Bot von OpenAI so ein bisschen wie man
00:19:57: früher Armatur-Funk gemacht hat. Also ich drücke, spreche, warte auf die Antwort und kann ja nicht
00:20:04: unterbrechen. Und das soll dann möglich sein. Also wir können dann oder es soll so sein, dass man
00:20:08: wirklich miteinander fast flüssig reden kann und auch unterbrechen kann, um zu sagen, nee, ich
00:20:14: mein einen anderen Punkt oder gehe auf das Thema ein. Bleibt super spannend. Und in der Tat eine
00:20:19: Funktion, wo ich mich wirklich darauf freue. Ja, und die haben auch nochmal so ein bisschen das
00:20:22: aufgegriffen, was in der allerersten Vorstellung vom halben Jahr von Google Gemini drin war. Da hat
00:20:28: die CTO Mira Murati jetzt bei OpenAI quasi das neue Modell mit Rechenaufgaben gefüttert. Die hat
00:20:36: offenblatt Papier geschrieben und dann in die Kamera gehalten und dann konnte das GPT4O quasi
00:20:41: vorlesen und dann mit Emotionen so ein bisschen das direkt live ausrechnen. Und es gab so eine
00:20:46: kleine Show-Einlage in dem Video, wie GPT4O den Gesichtsausdruck bei einem Live-Selfie interpretiert.
00:20:52: Auch das, wir wissen immer nicht, wie viel davon ist gestaged oder sogar gefact, aber es ist
00:20:56: zumindest sehr unterhaltsam und ich glaube, es kommt immer mehr in die Nähe eines Personalsistens.
00:21:02: Wir haben immer noch keinen Zugriff. Schauen wir mal, angeblich bekommt ein User, der auf dieser
00:21:09: Warteliste ist dann entsprechend auch einen Hinweis in ChatchiPetier und eine Mail mit den Anweisungen.
00:21:13: Aktuell, ich habe es gestern an, gerade nochmal gecheckt, habe ich nur die klassischen vier Stimmen,
00:21:18: zwei Männer, zwei Frauen und damit müssen wir uns ein bisschen begenügen.
00:21:22: Aber das so schön das ist und so spannend das ist, was mir nach wie vor fehlt und
00:21:26: da bin ich gespannt, wie OpenAI oder auch andere das lösen wollen.
00:21:29: OpenAI ist nicht in der Lage, einen Termin einzustellen.
00:21:32: OpenAI ist nicht in der Lage, mir das Licht zu Hause an oder auszumachen.
00:21:36: Das heißt, natürlich gibt es überall Connectivity, aber das ist etwas, was all den
00:21:42: ganzen Assistenten, VoiceBots, den ganzen AIS-Teas gibt, momentan fehlt und wo ja gerade
00:21:48: Apple mit Apple Intelligence natürlich durch diese tiefe Betriebssystemintegration
00:21:54: vielleicht noch einen Vorsprung hat, weil das wäre mein Traum, dass ich sagen kann,
00:21:58: wir reden über ein bestimmtes Thema und ich kann dann sagen, okay, erinnere mich bitte
00:22:03: dran und dann stellen wir ein Termin ein.
00:22:05: Die Schnittstellen gibt es, aber aktuell ist es halt eben noch nicht integriert und
00:22:09: es ist ein reines.
00:22:10: So als wenn wir zwei miteinander quatschen, naja, ist schön, aber du kannst mir auch keine Termine
00:22:14: einstellen.
00:22:15: Klar, kann ich das machen.
00:22:16: Ja, das stimmt.
00:22:18: Das machst du.
00:22:18: Ja, du hältst dich nur nicht dran, so wie heute Früh.
00:22:23: Ich glaube, das ist eines der größten Probleme.
00:22:26: Ich habe mittlerweile über so ein If This, then That meine Serie mit einem GPT-4O so
00:22:32: gebaut, dass ich hier quasi nur ihren Namen sagen muss, jetzt geht es hier auch direkt
00:22:36: an, muss ich wegklicken und dann kommt sofort quasi die Stimme von GPT-4O rein und ich komme
00:22:41: sofort in den Dialog hinein, aber es ist genau wie du sagst.
00:22:44: Wenn ich dann keine Ahnung, mir ein Remindersetzen will für irgendwas, eine E-Mail, eine E-Mail,
00:22:48: eine schreiben willenden Kalendereintrag, dann muss ich quasi daraus wieder zurückkehren
00:22:52: in die echte Serie hinein, die das dann sehr unbeholfen macht, aber mittlerweile eigentlich
00:22:57: so ganz gut ist.
00:22:58: Oder ich mache es halt irgendwie schnell selber und ich flippe so ein bisschen zwischen den
00:23:01: beiden Assistenten gerade hin und her.
00:23:02: Alexa habe ich mittlerweile völlig aufgegeben, aber ich glaube, wenn das dann kommt, dann
00:23:07: ist es wirklich sexy und attraktiv, aber alles, was ich darüber lese, ist maximal zurückhaltend.
00:23:12: Genau, aber wäre auch noch stimmt.
00:23:15: Weiteres.
00:23:16: Entschuldige.
00:23:17: Ja, alles gut.
00:23:18: Also Meta macht jetzt auch Stimme und wir hatten im vergangenen Herbst einmal über die hauseigene
00:23:26: Messe Connect, also wir haben im Januar darüber gesprochen, dass es diese hauseigene Messe
00:23:31: von Meta gibt, die heißt Connect.
00:23:33: Und dort haben sie angekündigt, dass sie auch KI-Chatbots bauen wollen, die den Stimmen
00:23:37: von verschiedenen Prominenten entsprachen.
00:23:39: Damals waren so die Beispieles Snoop Dogg und Paris Hilton, sie hatten so ganz viele
00:23:43: Sportler und Influencer und die sollten dann als KI-Assistenten dienen mit ihren Stimmen.
00:23:49: So, das gibt es nicht mehr, ich habe das gesucht, aber offenbar kein Erfolg.
00:23:52: Jetzt wiederum verhandelt Meta erneut mit Promis, um deren Stimmen offiziell zu licenzieren,
00:23:57: also erst zu synthetisieren und dann tatsächlich für KI zweckenutzbar zu machen.
00:24:01: Und da sind irgendwie Schauspielerin Julie Dench dabei und die New York Times hatten
00:24:05: Artikel, dass es große Verhandlungen mit allen relevanten Agenturen in Hollywood gibt,
00:24:10: die Stars aller Colour betreuen gerade und für diese Rechte an den Stimmen soll richtig
00:24:15: viel Geld in die Hand genommen werden.
00:24:17: Und diese Stimmen sollen in alle Meta AI Produkte integriert werden, also off Insta,
00:24:22: in Facebook, WhatsApp.
00:24:23: Du kannst sie dann in den Metas Smart Glasses von Rayben auch integrieren, was total viel
00:24:29: Sinn macht, weil hier bietet es sich an, weil du echte Spracheingaben machen kannst und
00:24:34: das ganze dann quasi durch die integrierten Kopfhörer dann auch dir wieder anhören kannst.
00:24:38: Genau, ich glaube eben die nächste Connected jetzt im September auf dem Plan und die Neuigkeiten
00:24:43: im Bereich KI sollen dann genau das sein.
00:24:46: Dass es einfach neue KI-Stimmen gibt.
00:24:48: Und ich bin sehr gespannt.
00:24:50: Also vor ein paar Tagen gibt es einen neuen Artikel von Meta, dass man im AI Studio sich
00:24:54: sogar selber KI-Charaktere bauen können soll.
00:24:57: Das heißt, die Zielgruppe sind irgendwie Influencer, die ihren Followern dann per KI-Assistenten
00:25:03: Fragen beantworten und sich selbst so ein bisschen die Arbeit erleichtern können.
00:25:06: Das Ganze nennt sich Custom AI, ist natürlich wieder nur in den USA verfügbar, wir können
00:25:10: uns das nur anschauen, aber auf jeden Fall nicht ausprobieren.
00:25:12: Und das Ganze dann gepaart nochmal mit einer prominenten Stimme wird bestimmt ganz attraktiv.
00:25:17: Das heißt, wir sehen dann auch in dem nächsten Jahr auf der DKB-Webseite dann dich als Spot,
00:25:22: wie du dann die Kunden fragen persönlich beantwortest.
00:25:24: Genau.
00:25:25: Das wäre es, oder?
00:25:26: Ich glaube, das würden die meisten ablehnen, hoffentlich.
00:25:29: Ja, aber es gibt es noch, Meta hat noch eine ganze Reise Neues, sie haben ein neues sehr
00:25:35: leistungsfähiges Sprachmodell, natürlich Open Source, Lama 3.1.
00:25:41: Das hat jetzt 405 Milliarden, das sind es glaube ich genau, 405 Milliarden Parameter ist so
00:25:47: eines der größten Sprachmodelle, hat einen riesigen Kontext an Token natürlich auch und
00:25:54: ist komplett wieder verbessert in allen Fähigkeiten, in allen Sprachen, die man sich mittlerweile
00:25:58: so vorstellen kann.
00:25:59: Und auch das ist natürlich wieder sehr interessant, weil auch dieses Modell ist zu 100 Prozent
00:26:04: Open Source, Mark Zuckerberg hat dazu eine Pressekonferenz gegeben und hat es auch erklärt,
00:26:11: dass das halt nachhaltig sein Geschäftsmodell sein möchte und er möchte tatsächlich diesen
00:26:15: Code grundsätzlich halt zur Verfügung stellen.
00:26:17: Und es ist so ganz interessant auf jeden Fall, dass andere so diese closed-loop-Modelle haben,
00:26:22: aber Meta nachhaltig quasi an den Open Source Modellen hängt.
00:26:25: Genau, dann gibt es eine Alternative zum Mid Journey und Dali und Co.
00:26:33: Es ist ein deutsches Startup, das heißt Flux One oder Flux 1 und das bietet jetzt eine
00:26:39: neue vermeintlich sehr leistungsstarke Bildgenerierung in verschiedenen Varianten, mal wieder so
00:26:45: eine Pro-Variante für allerhöchste Qualität, eine Development-Variante für kommerzielle
00:26:49: Anwendung und dann einfach eine schnelle Lösung für so lokale Entwicklungen und Devicelösungen.
00:26:54: Die Qualität und auch gerade die Nutzung von Text in Bildern funktioniert erstaunlich
00:26:59: gut, sind halt wieder nur so kleine Anwendungsfälle, von daher kann man noch nicht so richtig
00:27:02: sehen, was passiert dahinter.
00:27:04: Aber offenbar hat ein kleines deutsches Team mit sehr wenig Geld, mit sehr wenig Aufwand
00:27:09: in kurzer Zeit, offenbar eine sehr schöne Alternative zum Mid Journey und Dali gebaut
00:27:13: und nehmen wir mal in die Show-Nurz mit rein, könnt ihr ein bisschen rumspielen.
00:27:16: Ich gehe mal davon aus, wenn sich das Thema durchsetzt und wirklich auch das hält, was
00:27:20: es in der Presse oder auf der Website verspricht, das wird auch mal eine ganze Menge mehr davon
00:27:24: hören werden in der Zukunft.
00:27:25: Dann gab es einen Riesen-Funding für so mein Lieblings-AI-Legal-Tech, wenn man so will,
00:27:33: das hat den Namen Harvey von offenbar Harvey Specter, von der Serie Suits, wo ich ein absoluter
00:27:38: Fanboy von bin.
00:27:39: Und das ist so ein Legal-Tech-Stardop, das hat jetzt in der Series C-Runde 100 Millionen
00:27:44: Dollar eingesammelt, mit Google Ventures im Leads, mit Kleiner Perk & Sick Hoja, etc.,
00:27:51: alle mit dabei, haben mittlerweile einen Gesamt-Funding von über 200 Millionen, haben
00:27:54: eine Bewertung von mittlerweile 1,5 Milliarden und Harvey will dieses frische Kapital hauptsächlich
00:28:00: in Datensammlungen und das Training von Domänen spezifischen KI-Modellen investieren.
00:28:05: Also am Ende ist es eine Spezial-KI für Juristen.
00:28:10: Und am Ende, was die haben, ist so ein Legal-Core-Pile, das heißt, Harvey kann im Hintergrund,
00:28:16: angetrieben von OpenAI, GPT-4, juristische Fragen in jeglicher natürlichen Sprache beantworten
00:28:22: und er bietet Tools zur automatischen Extraktion von Informationen und von Dokumenten.
00:28:26: Das heißt, ganz am Ende, dass so diese ganzen Top-Juristen mit Tages- oder Stunden-Sätzen
00:28:31: von vielen vielen Hundert Euro, die viel Zeit in den Abhändigs- und Infusnoten von relativ
00:28:36: standardisierten Vertragswerk verbringen, ab jetzt, das entweder mit Harvey machen können,
00:28:41: das einfach ein sehr nützliches Tool an der Seite ist und trotzdem den gleichen Stundensatz
00:28:45: abrechnen oder es wird tatsächlich zum absoluten Disruptor von dieser Industrie.
00:28:49: Weil am Ende ist es halt einfach das neue Damokleschwert im Nacken, weil Harvey kostet
00:28:53: aktuell gar nichts und selbst wenn es halt irgendwie für die Token ein bisschen Geld
00:28:58: kostet, ist das halt irgendwie nichts im Vergleich zu dem, was Top-Juristen abrechnen.
00:29:02: Auf der einen Seite, ich muss ein bisschen an den Steuermarkt denken, es gibt ja schon
00:29:06: seit Jahrzehnten Tools, die mir helfen, meine Einkommenssteuererklärung zu machen, ja, das
00:29:10: wird natürlich auch vom Steuerberater eingesetzt.
00:29:12: Am Ende brauchst du natürlich immer in irgendeiner Art und Weise eine offizielle Instanz, also
00:29:17: du wirst den Anwalt nicht, zumindest kurzfristig nicht weg, rationalisieren können, aber es
00:29:23: ist auch, wie du sagst, ein Riesentool und es zeigt, wie ich finde, auch, dass AI gerade
00:29:29: in so Bereiche ja gut reinpasst, wo es ja ehrlicherweise nicht um Logik geht, sondern ich habe mal
00:29:36: ein bekannter von mir, der ist Jurist, der hat entsprechend studiert und er sagte, naja,
00:29:43: wenn du Jura studierst, dann geht es eigentlich darum, Texte auswählen zu lernen und zu wissen,
00:29:47: wo steht ihr was und am Ende einigermaßen eloquent akumentieren zu können, aber es
00:29:52: ist ja nicht Mathematik, also du musst nicht logisch immer denken, sondern du musst
00:29:56: halt einfach die Gesetze können und da ist er natürlich und das ist das, was du ja gerade
00:29:59: sagtest oder wo wir eben auch drüber gesprochen haben, ob man AI, ob man AI kann nicht rechnen,
00:30:05: also Chatchivity kann nicht rechnen, also so einfache Sachen gehen, aber wenn es komplizierter
00:30:08: wird, keine Ahnung, es ist halt ein LLM bei Justiz oder bei Gesetzestexten oder bei
00:30:15: regulatorischen, alles was man mit regulatorisch mit Texten so tun hat, da passt es natürlich
00:30:19: super, also perfekte Anwendungsbewerbungen.
00:30:22: Ja, das ist total, also wir müssen halt beobachten, wie sich das tatsächlich dann auf breiter
00:30:26: Flur entwickelt, weil aufgrund dieser sehr sensiblen Natur von juristischen Daten gibt's
00:30:31: natürlich auch sofort wieder Bedenken, also natürlich vor allem aus Deutschland, aber
00:30:34: auch hinsichtlich der Nutzung auf breiter Fläche.
00:30:38: HW selbst betont, dass die KI natürlich nur unter Aufsicht von lizenzierten Anwälten
00:30:43: verwendet werden sollte, aber gut, das ist halt irgendwie der Einstieg.
00:30:47: Es gibt mittlerweile schon große Cans-Line wie Ellen & Overie und auch PWC, die das
00:30:52: wohl täglich nutzen und schauen wir mal.
00:30:55: Also ich glaube tatsächlich, dass es nichts weniger ist, als das Schlüssel zur radikalen
00:31:00: Revolution in diesem speziellen Segment, schauen wir mal.
00:31:04: Ich glaube so ganz viel Arbeit von Parallegals und diese ganze Sachbearbeitung auch bei Notaren
00:31:09: und wie du sagst Steuerberatern, fällt dann einfach weg und ist halt dann die Frage, kann
00:31:14: es noch gebild werden oder gibt es jetzt auch wieder neue Wettbewerbe, die sich dann darauf
00:31:17: spezialisieren und dann auch wieder nach Pareto-Prinzip, die 80 Prozent zu 20 Prozent der Kosten machen
00:31:23: können.
00:31:24: Ja genau, letztes Ding, was ich noch habe, ist ein wahnsinnig spaßiger Artikel über
00:31:30: die kuriosen Welt von KI-Gadgets.
00:31:33: Also wir haben ja schon mal bei der KI-Zahnbürste vor einer Weile irgendwie sehr geschmunzelt,
00:31:37: beide Asserie entdeckt haben und sehen ja irgendwie, dass man irgendwie gefühlt jedes
00:31:42: Produkt gerade künstlich intelligent machen will, aber leider bleiben halt irgendwie dabei
00:31:47: der gesunde Menschenverstand und blöderweise auch die Umwelt ganz oft auf der Strecke.
00:31:51: Was ich gefunden habe, ist herrlich, es gibt ein gutes Beispiel als neuen intelligenten
00:31:56: Spiegel für das Badezimmer.
00:31:57: Das heißt, wenn du dann morgens reinkommst, völlig verschlafen, analysiert dir erst mal
00:32:01: irgendwie deine Laune, dann bietet dir individuelle Lichtmeditation an am Spiegel selber, dann
00:32:08: sagt er so paar aufbauende Sprüche zu dir, dass du da gar nicht so alt aus siehst oder
00:32:12: wie "Freshert" - das ist nicht mehr helfen.
00:32:14: Das ist was ich jeden Morgen versuche bei dir, wenn du nicht so richtig ankommst, das
00:32:17: macht dir im nächsten Badezimmer Spiegel.
00:32:19: Und das klingt halt so ein bisschen wie so eine Szene aus der Tech-Distupie und also
00:32:22: auch wirklich total bescheuert.
00:32:24: Aber genau dieser Spiegel hat jetzt bei der Elektronikmesse CS einen Innovationspreis
00:32:28: bekommen.
00:32:29: Also als einer von drei Gadgets, ein anderes Gadget auch bei dieser Messe war jetzt die
00:32:35: neue Vorzeige Waschmaschine von Samsung mit dem tollen Namen Beespoke AI und die verspricht
00:32:43: nichts weniger als alles ganz, also wirklich die Wäsche zu revolutionieren.
00:32:47: Die haben nämlich eine neue Technologie eingeführt, die heißt "Bubble Shot" - Technologie.
00:32:52: Und in der Beschreibung steht auch drin, dass sie eine Vielzahl von AI-Funktionen nutzen,
00:32:58: um die Wäsche noch besser zu machen, noch energieeffizienter zu waschen, das Ganze
00:33:02: noch mit einem iPhone besser irgendwie zu pairn, mit einem Taming-Calendar und Co.
00:33:06: Völlig verrückt.
00:33:07: Also wirklich, wirklich witzig, ich will gar nicht zu viel spoilern, eine Sache vielleicht
00:33:10: noch aus diesem Artikel.
00:33:11: Also wirklich geil, kommt das Herr Schweiz, hier hat ein Starhop eine KI-Katzenklappe
00:33:17: erfunden, die Katzen nur dann ins Haus lässt, wenn sie vorher ihre eroberte Beute ablegen.
00:33:22: Hat die Katze den Maus gefangen, wird es irgendwie stolz dem Herrchen zeigen, darf
00:33:26: aber nicht rein, weil mit Maus ist nicht, gerade frisch durchgefischt.
00:33:30: Genau, und dann geht es noch um Hunde fressen, Netfe und Fitness-Uren und also wirklich
00:33:34: coole Sachen und geht auch so ein bisschen auf das Thema Daten, Datensouveränität von
00:33:38: Dating App und Tinder.
00:33:39: Und es gibt auch noch einen Teddybear für Kinder, der völlig weird quasi, ich will
00:33:47: gar nicht zu viel spoilern, lehst es euch durch, ist es wirklich amüsant.
00:33:49: Ja, amüsant ist stimmt, bis auf den Teddy, das fand ich eher spooky ehrlicherweise und
00:33:56: weiß ich noch nicht so genau, aber ja, lehst es euch durch, wir wollen nicht so viel spoilern
00:33:59: in der Tat.
00:34:00: Ja, ich habe auch noch 2, 3 Newsmütche gebracht, gar nicht so spektakulär, also auf der
00:34:04: einen Seite habe ich mir mal wieder 2, 3 Tools angeguckt, die ich eigentlich ganz spannend
00:34:08: fand, aber dazu gleich oder später.
00:34:11: Wir hatten ja schon über OpenAI gesprochen und ein Problem beim, nicht ein Problem, aber
00:34:18: ein Problem beim Einsatz von LLMs ist, die helfen natürlich dabei, Arbeit abzunehmen,
00:34:26: Text zu schreiben etc.
00:34:28: Pipi und gerade wenn es darum geht, Content zu erstellen, muss man sagen, dass was da
00:34:33: rauskommt, hört sich zumindest immer wieder sehr gut an und hat ja auch bis zum gewissen
00:34:37: Prozentsatz auch entsprechende Qualität, fernab des Fantasierens.
00:34:42: Problem ist es natürlich, insbesondere wenn wir jetzt mal auf Hochschulen schauen oder
00:34:47: auf Schulen generell, wenn es darum geht, um Arbeiten abzugeben, Doktorarbeiten, Bücher
00:34:51: etc.
00:34:52: Pipi, wissen wir natürlich heute nicht mehr, ist der Text tatsächlich von Sascha geschrieben
00:34:58: oder von Mike oder hat das letztendlich Chatty Pity gemacht.
00:35:02: Und es ist so, dass OpenAI ein Tool hat, das halten sie aber momentan noch zurück, was
00:35:07: in der Lage ist, wohl Texte mit einem Wasserzeichen zu versehen.
00:35:12: Soll heißen, man kann dann erkennen, aha, dieser Text wurde von Chatty Pity erstellt
00:35:19: oder von entsprechenden LLM.
00:35:22: Und das finde ich insofern ganz spannend und auch total hilfreich, weil wir ja, ihr erleben
00:35:26: das ja jeden Tag an den sozialen Medien, aber auch natürlich generell, wenn man dem
00:35:30: Netz unterwegs ist.
00:35:32: Es gibt Texte, den sieht man noch an, also klar, das hat diese Person never ever geschrieben,
00:35:37: aber die Qualität wird besser und wir wissen eben nicht mehr.
00:35:41: Ist das, was wir gerade lesen, ist das, was wir gerade sehen, ein echt oder von irgendeinem
00:35:47: entsprechenden LLM-Erzeug und da könnte dieses Tool wertvolle Dienste leisen.
00:35:54: Also ein Wasserzeichen-Werkzeug von OpenAI, das aber noch nicht veröffentlicht wurde.
00:36:00: Was meinst du, warum das nicht veröffentlicht?
00:36:02: Ich glaube, also in dem Moment, wo es draußen ist, wird es natürlich sehr viele Menschen
00:36:08: geben, die versuchen das auszuhebeln.
00:36:10: Ich könnte mir vorstellen, dass es damit noch zusammenhängt, dass man einfach, dass man
00:36:14: das einfach herten möchte, um das umgehen, vielleicht schwieriger zu gestalten.
00:36:19: Aber das ist momentan, ja, mein...
00:36:23: Ich glaube, es gibt einen ganz großen Grund.
00:36:25: Es wird halt, glaube ich, von Herrscharen, von Schülern und Studenten gerade einfach
00:36:29: auf komplett breiter Flur eingesetzt.
00:36:32: Aber wenn die fürchten müssen, dass ihre Professoren ihre Texte entlarven, werden sie
00:36:36: es vielleicht nicht mehr machen oder machen es dann irgendwo anders.
00:36:39: Das heißt, ihnen geht dann einfach die Transaktion und das Training durch die Lappen.
00:36:42: Und am Ende, glaube ich, ist es einfach eine reine Umsatzgeschichte, dass sie halt irgendwie
00:36:45: Angst haben, dass sie jetzt den Prüfern quasi viel mehr helfen als den eigentlichen Anwendern.
00:36:51: Trotzdem sehe ich es halt wie du.
00:36:53: Also ich glaube, wenn das Ding halt einmal draußen ist, dann wird es wieder andere Systeme
00:36:58: geben, die dieses Wasserzeichen halt irgendwie rausnehmen können.
00:37:00: Oder du lässt dir deinen ersten Entwurf von Chatchi B.T. schreiben, jagst ihn danach noch
00:37:04: mal mit einer leichten Synonymisierung oder Abwandlung in Perplexity rein und danach noch
00:37:10: mal ganz so anders.
00:37:11: Und dann hast du wahrscheinlich auch jedes Wasserzeichen irgendwie wieder rausverwässert.
00:37:13: Ja, wobei ich mir vorstellen kann, dass es nicht ganz so leicht sein wird.
00:37:19: Auf der anderen Seite ist es Text.
00:37:21: Und wie will man Text mit einem Wasserzeichen versehen?
00:37:24: Das ist sicherlich auch dann spannend.
00:37:26: Ich finde es prinzipiell gut und wir haben ja auch schon oft darüber gesprochen, insbesondere
00:37:31: bei dem Thema AI braucht es in irgendeiner Art und Weise ein Schlüssel oder Siegel, an
00:37:38: dem ich erkennen kann.
00:37:39: Das Bild, was ich gerade sehe, ist ein echtes Bild von Sacha.
00:37:42: Das Video, was ich gerade sehe, ist ein echtes Video.
00:37:45: Das Thema "Digitale Identitäten" wird glaube ich in dem Zusammenhang ganz, ganz, ganz wichtig,
00:37:51: weil wir sonst geflutet werden mit Content und mit Inhalten, die einfach nicht mehr echt
00:37:57: sind.
00:37:58: Und insbesondere in Zeiten, wir haben jetzt die Wahlen stehen in den USA vor der Tür.
00:38:04: Wir sehen jetzt schon wieder viele gefakte Videos und Bilder, die übrigens von den
00:38:10: Republikanern zum Teil ja selber verbreitet werden.
00:38:13: Das macht Angst.
00:38:14: Und momentan sieht man das noch, wenn auf einem Bild sechs Finger zu sehen sind.
00:38:19: Okay.
00:38:20: Aber wenn ich mir anschaue, wir kennen ja dieses Bild, wo Will Smith ein Spaghetti ist, wo
00:38:27: man über die Monate hinweg die neuen Modelle hat getestet.
00:38:31: Und das sieht halt einfach immer echter und immer überzeugender aus.
00:38:35: Ich glaube bei Bildern wirst du eine andere Qualität von Watermarking haben können.
00:38:40: Ich glaube bei Texten wird es halt wahnsinnig schwierig oder wenn es halt multimodal wird.
00:38:43: Also du kannst natürlich immer sagen, aufgrund der, also wir haben ja vorhin darüber gesprochen,
00:38:49: wie die Mechanik ist bei LLMs, dass einfach jedes Wort quasi neu durch den Algorithmus
00:38:52: nachberechnet wird.
00:38:54: Das kannst du ja quasi re-engineeren, aber auch nur in der Theorie.
00:38:57: Weil mittlerweile bei den neuen Modellen wissen ja selbst die Produzenten nicht mehr
00:39:03: genau, wie sich das zusammensetzt.
00:39:05: Weil das hat die künstliche Intelligenz natürlich irgendwie selber durchgerechnet.
00:39:08: Das heißt, es ist glaube ich auch so ein bisschen das Armutzeugnis dahinter, dass sie gar nicht
00:39:13: sagen können, wie hat sich das jetzt zusammengesetzt und wie kann ich jetzt sauber re-engineeren,
00:39:18: weil ich es wahrscheinlich einfach gar nicht kann.
00:39:19: Ja, aber lass uns nochmal ganz kurz bei OpenAI tatsächlich bleiben.
00:39:25: Wir hatten zwar am Anfang, aber eine Nachricht fand ich noch ganz bemerkenswert, nämlich
00:39:29: die These zumindest, muss man sagen, dass OpenAI innerhalb der nächsten 12 Monate das
00:39:34: Geld ausgehen könnte.
00:39:35: Und deswegen auch Sam Ordmann auf der stetigen Suche nach Investoren ist.
00:39:40: Ganz interessanter Artikel, der sich wiederum auf einen anderen Artikel bezieht, nämlich
00:39:45: was das Thema Betriebskosten betrifft.
00:39:47: Die sind nicht so niedrig.
00:39:49: Energie ist ja auch so ein Thema, wird auch nicht billiger.
00:39:51: Ich persönlich glaube nicht, dass das Geld ausgehen wird.
00:39:54: Ich glaube, es wird auch weitere Investoren geben.
00:39:57: Aber es zeigt letztendlich, dass das Ganze ein unglaublich ressourcenhonrig ist.
00:40:03: Es ist ja nicht teuer, weil da so viele Menschen arbeiten, sondern es ist so teuer, weil es
00:40:06: einfach unendlich viel Energie verbraucht.
00:40:09: Und deswegen bleibt es auch da spannend, wie sich das weiterentwickelt, insbesondere
00:40:15: wenn wir das Thema Energie sprechen.
00:40:16: Ja, die haben im aktuellen Jahr einen Plan, die wohl fünf Milliarden Euro verlust.
00:40:21: Alleine aus Personalkosten, anderthalb Milliarden, was ja schon irgendwie echt ein Brett ist,
00:40:24: weil so viele Menschen arbeiten da ja noch nicht.
00:40:26: Da kannst du irgendwie quasi hochrechnen, wie viel durchschnittlich das Gehalt ist.
00:40:31: Das ist glaube ich schon niedrig siebenstellig.
00:40:33: Lass dem mal auf der Zunge, dass das da geht.
00:40:35: Aber ich glaube, das ist wie du.
00:40:38: Ja, die verbrennen jetzt halt irgendwie mal die ein oder andere Milliarde hier.
00:40:40: Aber am Ende hat Ordnion ja selber gesagt, ob das jetzt 50 Millionen oder 500 Millionen
00:40:47: kostet, AGI zu bauen, ist ihm am Ende erst mal wurscht.
00:40:50: Er will es halt tun.
00:40:51: Die Frage ist nur auch immer wieder, warum machen sie ... Das erklärte Ziel von Ordnion
00:40:56: AI ist AGI.
00:40:57: Und wenn du das so visionär verfolgst, warum machst du dann all den anderen Kramen?
00:41:02: Und das hilft dir natürlich schon ein bisschen im Learning und Co.
00:41:05: Aber GPT4O Mini oder Stimm-Syntetisierung von Scarlett Johansson.
00:41:11: Bringt dich das deinem Ziel wirklich näher oder müsstest du nicht die paarhundert besten
00:41:16: Datacentisten, die du hast, in denen du halt irgendwie jedes Jahr Millionen an Kohle halt
00:41:21: irgendwie reinsteckst, solltest du die nicht einfach in den Zimmer einschließen und sagen,
00:41:25: ihr steht halt erst wieder auf, wenn AGI da ist und verplämpert halt irgendwie nicht
00:41:29: eure Zeit halt irgendwie mit Stimm-Syntetisierung.
00:41:31: Das ist so ein bisschen die Frage, ne?
00:41:33: Genau.
00:41:34: Last but not least, wie gesagt, ich war ja im Urlaub, deswegen habe ich gar nicht so
00:41:40: viele Nachrichten und du hast ja vieles aufbereitet.
00:41:42: Aber ich habe im Urlaub natürlich nicht nur Pool gelegen und die wunderbare Insel die
00:41:50: Matera angeschaut, sondern auch an Netflix geschaut.
00:41:54: Und da ist mir etwas bewusst geworden, dass nämlich AGI tatsächlich immer mehr in der
00:42:00: breite Anwendung findet, auch in Bereichen, wo wir es vielleicht gar nicht vermuten.
00:42:04: Und in dem Zusammenhang kann ich eine Serie empfehlen, auch für dich, weil du bist ja
00:42:10: so ein alter Backstreet Boys-Fan, die Mini-Serie, ein nutziges Pop-Geschäft.
00:42:14: Es geht in der Serie um den Manager, nämlich Lou Pölner.
00:42:19: Und der ein oder andere wird ihn vielleicht noch kennen.
00:42:21: Aber ein krasser Manager, der letztendlich schrecklich viel Geld verbrelt hat in so
00:42:26: eine Art Schneemalsystem.
00:42:27: Und darum geht es auch eigentlich im Fokus.
00:42:31: Und dass man den ganzen Boybands passiert so im Hintergrund ist super unterhaltsam, ist
00:42:34: super gut.
00:42:35: Kann ich nur empfehlen.
00:42:36: Aber was da interessant ist, dass am Anfang der, ich glaube jeder Folge, auf jeden Fall
00:42:40: am Anfang der ersten Folge, wird gesagt, Achtung, hier gibt es ganz viele Interviewauszüge
00:42:47: von besagten Lou Pölner.
00:42:49: Und die sind mit einer AI generiert.
00:42:53: Das heißt, sie hat mal ein Buch geschrieben und aus diesem Buch liest ein digitaler Avatar
00:42:59: vor.
00:43:00: Das haben die super gut gemacht.
00:43:01: Der sitzt aus einem Schreibtisch.
00:43:03: Das ist so ein bisschen im VHS-Style.
00:43:05: Und wer dieser Hinweis nicht gekommen, hätte ich mich maximal gewundert, warum der da so
00:43:09: steif sitzt.
00:43:10: Aber mir wäre das nicht aufgefallen.
00:43:11: Ein schönes Beispiel dafür, dass AI wirklich auch mittlerweile in Bereichen zum Einsatz
00:43:16: kommen, wo man vielleicht gar nicht daran denkt.
00:43:17: Und auch wieder pläto je dafür auch bei uns in der Branche.
00:43:21: Und da passt eine Zahl zu, die ich mitgebracht habe.
00:43:25: Nämlich, dass sich ein Großteil der Finanzinstitute, insbesondere der Banken mit dem Thema AI
00:43:31: noch überhaupt gar nicht beschäftigen.
00:43:33: Das ist zwar eine Anflugstrichenstudie eines AI-Anbieters Snowflake.
00:43:40: Ich kenne die nicht, aber die haben sich damit mal ein bisschen beschäftigt und sind zu
00:43:44: einem Schluss gekommen, dass nur 47 Prozent der Banken, insbesondere in Deutschland überhaupt
00:43:49: mit dem Thema AI beschäftigen, was irgendwie, wie ich finde, wenig ist.
00:43:56: Auch vor dem Hintergrund, dass Beschäftigen ja oft nur ist, wir gucken jetzt mal bei
00:44:02: einem Chatboard, wir gucken jetzt mal, da haben da jetzt mal eine Person auf dem Thema sitzen,
00:44:07: sondern es findet ja noch gar nicht in der Breite oder in der breiten Anwendung statt.
00:44:11: Ein schönes Beispiel, wie gesagt, einmal von Netflix und auf der anderen Seite mal noch
00:44:17: eine Zahl packen wir mal in die Show notes rein und pläto je, dass wir uns in unserer
00:44:21: Branche intensiver damit beschäftigen, so wie wir zwei.
00:44:24: Dann?
00:44:25: Ja, machen wir ja immer.
00:44:28: Und dann habe ich mir noch so zwei, drei Tools tatsächlich angeschaut, also zwei, drei
00:44:33: sind tatsächlich nur zwei.
00:44:35: Einmal ein lustiges AI-Tool namens Let's Recast.
00:44:40: Und das ist wirklich wild.
00:44:42: Let's Recast ist eine Plattform und letztendlich Browser-Erweitung, wo ich unter Chrome jede
00:44:48: mir liebe Webseite, wir kennen das lange Webseite, lange Texte, keine Lust zu lesen, kann ich
00:44:55: mir als Recast erstellen lassen, also wie so eine Art Podcast, das heißt, es wird nicht
00:45:01: einfach nur vorgelesen, sondern es wird mit Zusammenfassung der Webseite gemacht, also
00:45:04: des Articles.
00:45:05: Und das mit einer entsprechenden natürlichen Stimme.
00:45:08: Leider nur in Englisch, man kann solche deutsche Webseiten da reinpacken, das ist gar kein
00:45:12: Thema, bekommt diesen Recast aber aktuell nur in Englischer Sprache.
00:45:17: Nicht so, dass du trotzdem, ich habe es jetzt zwei, drei mal ausprobiert, ich fand es super
00:45:20: cool, vor allen Dingen weil man es nebenher in der U-Bahn hören kann, ohne irgendwie jetzt
00:45:25: was lesen zu müssen oder auch beim Autofahren, das ist eigentlich eine witzige Idee.
00:45:29: Packen wir die Show Notes, kann man aktuell kostenlos testen.
00:45:34: Dann gibt es eine sehr witzige App namens Glif und ich muss ehrlich sein, ich kann das nicht
00:45:43: so 100% beschreiben, was es ist, es ist eine Art AI Baukasten, so was wie dieses, ja, Make.com
00:45:52: oder if, then, na, if this, then that, aber sehr viel einfacher, ich kann also dort mir
00:46:00: ja einzelne AI Apps bauen, es gibt auch vorgefertigte AI Apps und die kann ich dann, wie gesagt,
00:46:06: relativ leicht nutzen, indem ich dann Prompteintrage.
00:46:10: Am besten ist es wirklich sich das anzuschauen, es gibt dann nämlich zum Beispiel eine vorgefertigte
00:46:16: AI App, die es ermöglicht Webseiten zu bauen im Stil der 90er, das ist witzig und dann
00:46:22: kann man das schreiben.
00:46:23: Das ist wie geil.
00:46:24: Sehr witzig.
00:46:25: Oder eine AI App macht Aufkleber, so Sticker, die ich mir auch dann direkt runterlegen kann
00:46:31: und dann bei diversen Stickerdiensten produzieren lassen kann, dann kann man sagen, okay, mach
00:46:35: mir jetzt mal einen Sticker von einer Ameise, die gegen einen Gorilla kämpft und dann machen
00:46:39: die es so ein Comic-Style ist.
00:46:41: Super witzig, ist so ein bisschen rabbit hole, ich hab da gestern, glaube ich, nach halb
00:46:44: drei, vier Stunden mit rumgespielt.
00:46:45: Ich fand es cool, packen wir mit in die Show Notes.
00:46:50: Das war es von meiner Seite, viel mehr Nachrichten und tolle Tools habe ich nicht.
00:46:54: Wie gesagt, Urlaub sei Dank, ich gelove Besserung beim nächsten Mal, dass du weniger News mitbringen
00:47:01: und ich bringe ein paar mehr mit.
00:47:03: Herrlich, last week habe ich mir gerade runtergeladen und ich glaube, ich werde meine Nacht mit
00:47:07: Gliff verbringen.
00:47:08: Also wirklich mega.
00:47:10: Wie bedanken wir uns bei euch, dass ihr zugehört habt.
00:47:13: 19. Folge ist rum.
00:47:14: Nächstes Mal machen wir wieder ein kleine Anniversary mit 20.
00:47:17: Hat Spaß gemacht, vielleicht machen wir es direkt nächste Woche kurz bevor ich wegfahre
00:47:21: oder wenn ich dann unterwegs bin in der italienischen Hitze.
00:47:24: Genau, wenn ihr noch Ideen habt, schreibt uns eine E-Mail an hello@unpluggedpodcast.de.
00:47:29: Ab und zu gibt es ein ganz schönes Feedback von den Usern.
00:47:33: Auch schon mal vielen Dank dafür, dass ihr da direkt in den Dialog mit uns tretet.
00:47:37: Ansonsten sind wir auch über LinkedIn ansprechbar und wir würden sagen, bis bald, macht es
00:47:42: gut.
00:47:43: Bis bald, tschüss.
Neuer Kommentar