Nach der Sommerpause: AI Update, News und Trends

Shownotes

Hier sind die Links im gewünschten Format:

  1. Digitalexperte Sascha Lobo: EU vernichtet mit AI Act KI-Zukunft des Kontinents: https://www.spiegel.de/netzwelt/netzpolitik/ai-act-die-eu-vernichtet-die-ki-zukunft-des-kontinents-kolumne-a-a2b607aa-ebb0-4878-8f9b-13978a5a3a70

  2. „Künstliche Intelligenz macht die Welt dümmer“: https://www.handelsblatt.com/technik/ki/ki-forscher-gary-marcus-kuenstliche-intelligenz-macht-die-welt-duemmer-02/

  3. GPT-4o Mini: Kein spezifischer Link angegeben.

  4. OpenAI testet SearchGPT - KI-gestützte Websuche mit Quellenangaben: https://openai.com/index/searchgpt-prototype/?utm_source=morning-crunch-ai.beehiiv.com&utm_medium=newsletter&utm_campaign=ai-investments-milliarden-fliessen-weiter

  5. Neue Sprachfunktion von OpenAI – Erweiterter Modus für ChatGPT: https://www.theverge.com/2024/7/30/24209650/openai-chatgpt-advanced-voice-mode

  6. KI: Warum Meta jetzt die Stimmen von Promis haben will: https://www.heise.de/news/KI-Meta-will-die-Stimmen-von-Promis-haben-9823684.html

  7. Meta stellt Llama 3.1 vor - Das bisher leistungsfähigste Open-Source-KI-Modell: https://ai.meta.com/blog/meta-llama-3-1/?utm_source=morning-crunch-ai.beehiiv.com&utm_medium=newsletter&utm_campaign=ai-investments-milliarden-fliessen-weiter

  8. FLUX.1 von Black Forest Labs: https://blackforestlabs.ai/

  9. Riesen-Funding mit $100 Mio. für AI-Legaltech Harvey: https://www.nzz.ch/meinung/kuenstliche-intelligenz-uebertrieben-die-kuriose-welt-der-ki-gadgets-ld.1839976?utm_source=morning-crunch-ai.beehiiv.com&utm_medium=newsletter&utm_campaign=ai-funding-100-mio-fur-harvey

  10. KI übertrieben: Die kuriose Welt der KI-Gadgets: https://www.nzz.ch/meinung/kuenstliche-intelligenz-uebertrieben-die-kuriose-welt-der-ki-gadgets-ld.1839976

  11. Amazon Music erleichtert mit „Topics“ und KI das Entdecken von Podcasts (US-only): https://stadt-bremerhaven.de/amazon-music-erleichtert-mit-topics-und-ki-das-entdecken-von-podcasts-us-only/

  12. Evident AI Index: https://evidentinsights.com/ai-index/

  13. J.P. Morgan integriert die KI-gestützte Plattform von Slope, um sofortige B2B-Finanzierung am Point of Sale anzubieten: https://tearsheet.co/payments/case-study-j-p-morgan-integrates-slopes-ai-powered-platform-to-offer-instant-b2b-financing-at-point-of-sale/

  14. JPMorgan stellt seinen Mitarbeitern “AI Research Analysten” zur Verfügung: https://techinformed.com/jpmorgan-rolls-out-gen-ai-research-analyst-to-employees/

  15. Nur 47 Prozent der Banken legen Wert darauf KI einzusetzen: https://www.n-tv.de/ticker/Nur-47-Prozent-der-Banken-legen-Wert-darauf-KI-einzusetzen-article25113377.html

  16. OpenAI hält ein Tool zurück, das ChatGPT-Texte mit Wasserzeichen versehen könnte: https://stadt-bremerhaven.de/openai-haelt-ein-tool-zurueck-das-chatgpt-texte-mit-wasserzeichen-versehen-koennte/

  17. OpenAI könnte in den nächsten zwölf Monaten das Geld ausgehen.: https://www.business-punk.com/2024/08/openai-vor-milliardenverlusten-wann-wird-sam-altman-das-geld-ausgehen/

  18. Musk verklagt mal wieder Open AI: https://www.faz.net/aktuell/wirtschaft/unternehmen/altruismus-gegen-gier-elon-musk-verklagt-mal-wieder-open-ai-19901129.html

  19. OpenAI DevDay: https://openai.com/devday/

Tools:

  1. Letsrecast: https://app.letsrecast.ai/

  2. Glif.app: https://glif.app/

Disclaimer: Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

00:00:00: [Musik]

00:00:06: AI in Finance.

00:00:09: Der Anplugpodcast von Sascha Diewald und Mike Klotz.

00:00:14: [Musik]

00:00:23: Hallo und herzlich willkommen zur 19. Ausgabe von AI in Finance.

00:00:29: Ich bin Mike Klotz und nach einer längeren Pause Sascha,

00:00:35: ich glaube, drei Wochen war es, melde mir uns aus der kleinen Sommerpause,

00:00:40: sozusagen zurück. Die Sommerpause wird wahrscheinlich noch ein bisschen anhalten.

00:00:45: Das liegt einfach an der Natur der Sache. Auch wir machen ab und an Urlaub.

00:00:49: Ich war dran und lieber Sascha, du gehst ja jetzt quasi in deinen Urlaub.

00:00:53: Und damit begrüße ich dich auch ganz, ganz herzlich. Schön, dass du da bist.

00:00:57: Ja, schön, dass wir uns mal wiedersehen.

00:00:59: Ein bisschen geschrieben haben wir in den letzten Wochen, aber du hast dir ein schönes

00:01:03: Digital Detox verordnet. Diesmal war ich der deutlich aktivere.

00:01:06: Ich habe heute meinen ersten Urlaubstag, wie du unschwer in meinem Outfit erkennen kannst.

00:01:11: Freu mich auf die nächsten Wochen. Bin jetzt ab morgen erst mal für ein paar Tage in Paris

00:01:15: bei den olympischen Spielen. Und wird bestes Wetter erwartet und ich freue mich ganz,

00:01:19: ganz doll, da auch bei vielen Events mit dabei zu sein.

00:01:22: Kann ich beim nächsten Mal so ein bisschen berichten.

00:01:24: Genau, aber ich würde sagen, wir steigen mal mit so ein paar News ein.

00:01:28: News der Woche ist ein bisschen schwer, weil wir jetzt tatsächlich ein paar Wochen nicht

00:01:30: aufgenommen haben und wir wollen jetzt auch nicht wieder alles aufwärmen, was ihr ganz

00:01:35: sicher so schon irgendwo anders gesehen oder gelesen habt.

00:01:38: Aber es gibt so ein paar spannende Entwicklungen, vor allem um den EU-AI-Akt.

00:01:43: Wir haben lange schon darüber gesprochen, da wurde sehr lange verhandelt und wurde dann

00:01:47: Medienwirksam in Brüssel dann auch beschlossen.

00:01:50: Und jetzt wurde der AI-Akt dann als weltweit erstes Gesetz für künstliche Intelligenz

00:01:55: dann auch offiziell eingeführt. Seit dem ersten 8. also letzte Woche gelten in der EU

00:01:59: damit klare und zum Teil finde ich auch sehr strenge Regeln für den Einsatz von KI-Systemen.

00:02:04: Wir haben da ja schon eine Sonderfolge mal, ich glaube, vor drei Monaten gemacht und

00:02:07: ausführlich darüber berichtet. Und damit würde ich sagen, ist der AI-Akt einfach jetzt auch

00:02:11: ein Teil einer Reihe von neuen EU-Gesätzen, die darauf abzielen, den digitalen Raum besser

00:02:17: und hoffentlich dann auch nachhaltig zu regulieren. Ich glaube seit April 21 diskutiert die EU

00:02:23: bereits über den AI-Akt, wobei die intensiven Verhandlungen dann im letzten Jahr halt stattgefunden

00:02:27: haben. Teilweise haben wir ja auch darüber gesprochen, dann sogar fast Scheiterten aufgrund

00:02:31: von Frankreich und Deutschland. Ganz schön viel Widerstand wurde dort ausgelöst.

00:02:35: Aber jetzt nun in der verabschiedeten Fassung teilt der AI-Akt dann KI-Systeme basierend

00:02:41: auf ihren potenziellen Risiken für sich ein Heil für Grundrechte, für Gesundheit, dann

00:02:45: in verschiedene Risikokategorien ein. Haben wir auch schon viel darüber gesprochen. Immer

00:02:48: wieder spannend sind so die verbotenen Systeme, finde ich. Also zum Beispiel biometrische

00:02:53: Kategorisierungssysteme, vor allem dann solche die personenbezogene Daten automatisiert weiter

00:02:57: verarbeiten wollen. Das heißt, Unternehmen müssen ab jetzt wirklich sicherstellen, dass

00:03:01: ihre KI-Systeme nicht in diese Kategorie der verbotenden oder hochrisikoki fallen und

00:03:07: damit natürlich auch neue Systeme fürs Risikomanagement implementieren.

00:03:11: Das ist ein ganz wichtiger Punkt, weil es ist ja nicht ganz kritiklos, das ganze Thema.

00:03:16: Auf der einen Seite hast du eben was gesagt, nämlich na es gibt da durchaus eine strenge

00:03:20: Regulatorik und manche Sachen sind vielleicht nicht ganz so, wie soll ich sagen, Innovationsfördern.

00:03:26: Auf der anderen Seite sehen wir aber auch jetzt schon Unternehmen und das prominenteste

00:03:30: Beispiel ist Apple, die ja mit deren AI namens Apple Intelligence jetzt sagen na ja mit EU

00:03:38: oder Europa gucken wir mal bei und wenn dann vielleicht nur auf Mac, aber noch nicht auf

00:03:42: den iOS geräten. Also so schön das ist, dass wir eine Regulatorik haben und du hast ja

00:03:47: auch gleich noch ein Link mitgebracht von dem Kommentar von Sascha Lobo. So schön das

00:03:52: ist, dass wir den EU AI-Act jetzt haben und auch in der Umsetzung ist, er ist ja nicht

00:03:56: ganz kritiklos.

00:03:57: Total, also sowohl von den großen Unternehmen, die Hyperscaler und die großen Magnificent

00:04:05: haben aus den USA, die du gerade sprichst, aber eben auch für EU-Unternehmen, die natürlich

00:04:09: hier und da erstmal ein Wettbewerbsnachteil jetzt irgendwie auch sehen, wenn sie solche

00:04:12: Systeme als Kundenservice oder auch anderen Iterationen bei sich einführen und ich glaube

00:04:19: erst mal stehen die auf jeden Fall für Fetten Herausforderungen. Was jetzt so ein bisschen

00:04:23: durch die Presse in den letzten Wochen geht und ich weiß nicht durch wen das jetzt begonnen

00:04:28: wurde, wurde auch dann einzustreuen, ist das diese vielleicht sogar langfristig von der

00:04:32: regulatorischen Vorbereiterrolle so ein bisschen profitieren, weil natürlich auch die Nicht-EU-Unternehmen,

00:04:37: die dann KI in der EU einsetzen, von diesen neuen Regeln natürlich betroffen sind, weil

00:04:42: bei Nichteinhaltung drohen auch Bußgelder von bis zu 7% des weltweiten Jahresumsetzes.

00:04:47: Noch ist natürlich nicht ganz klar, wer das Ganze dann wie auch kontrollieren und irgendwie

00:04:52: auch bestrafen soll, denn so eine eigenständig dafür zuständige Behörde wird es in Deutschland

00:04:56: zumindest erstmal nicht geben. Aktuell wird glaube ich über eine geteilte Überwachung

00:05:00: durch die Bundesnetzagentur und diverse Bundesdatenschutzbehörden diskutiert, aber wie das dann wirklich

00:05:06: exekutiert und kontrolliert werden soll, ist bisher zumindest noch nicht klar.

00:05:10: Bei dem EU-Akt sind ja so ein paar Sachen noch nicht so richtig klar und definiert. Also

00:05:14: allein die Definition, was eigentlich unter künstlicher Intelligenz verstanden wird,

00:05:19: ist ja sehr waage gehalten und du hast eben was gesagt, das ist noch unklar, wie das alles

00:05:24: kontrolliert und also reguliert ist das eine, aber wie es vor allem kontrolliert wird,

00:05:30: dann werden noch spannende Diskussionen und auch Zeiten auf uns zukommen und wir hatten

00:05:34: in der Tat vor ein paar Monaten ja unsere Sonderfolge zu dem Thema, ja werden wir in

00:05:39: die Show noch mal verlinken, so wichtig wie das ist und so schön es ist in der EU bei

00:05:43: dem Thema Vorreiter zu sein. Ich glaube, da wird es relativ schnell, wie soll ich sagen,

00:05:50: ja Verbesserungspotenzial oder Verbesserungsbedarf bestehen, weil ansonsten könnte es sein,

00:05:55: dass wir wirklich was Wettbewerb betrifft und etwas ins Hintertreffen gelangen. Also wir

00:06:01: werden so wie es gerade sich gestaltet, man muss ein bisschen abwarten, aber nicht in der Lage

00:06:06: sein mit den großen Unternehmen, die jetzt gerade vorlegen und die allesamt eben nicht aus der

00:06:10: EU kommen, Schritt halten zu können. Ja, ich sehe hier immer so diese schöne Meme vor mir,

00:06:16: America Innovates, China Replicates und Europe Regulates, das ist so ganz schön und dazu passt

00:06:22: auch dieses Zitat vom Sascha Lobo, was du gesagt hast, das ist glaube ich ein Spiegelartikel,

00:06:28: wir verlinken den, wir wollen ihn jetzt nicht ganz hier wiedergeben, aber was hängen geblieben ist,

00:06:31: ist das Zitat, indem er sagt, dass die EU-Kommission und das Europäische Parlament sich einen

00:06:36: gequirlten Quark für den wirtschaftlichen Fortschritt offenbar interessieren, denn an der KI-Verordnung

00:06:41: zeigt sich mal wieder wie Gagga die Vorstellung der Parlamente von der Realität ist. Also tatsächlich

00:06:48: sehr schön gesagt, wir lassen euch den Kommentar mal in den Schaunaus. Ein anderes richtig gutes

00:06:55: Interview, was wir euch ans Herz legen und ich glaube, dass es auch ohne Paywall erhältlich

00:06:59: beim Handelsblatt ist von einem ja sehr umstrittenen Kopf der KI-Szene, er gilt so ein bisschen,

00:07:05: ich glaube, es hat er sich selber gegeben, den Namen als das Enfant Terrible der KI-Szene,

00:07:10: das ist Gary Marcus, der hat dem Handelsblatt ein ziemlich wildes Interview gegeben, wie ich finde,

00:07:14: was wir wie gesagt verlinken und der ist seit 20 Jahren auch ein ziemlicher Forscher, aber auch

00:07:20: Kritiker bei diesem ganzen Thema, zum Beispiel Hallucinationen von Sprachmodellen und er sieht

00:07:27: halt im Gegensatz zu Sam Ortonmann und Elon Musk und all den anderen einfach eine sehr große Gefahr

00:07:31: und gar nicht so dieses AGI, wir werden alle Sterben gefahren, sondern tatsächlich er sieht halt,

00:07:37: dass diese ganzen KI-Modelle einfach viel zu großer Hype sind, der wahrscheinlich bald zerbröselt und

00:07:43: einfach aufgrund der extremen Kosten und Trainingssituation und fossilen Brennstoffe und Co.

00:07:48: einfach komplett in den Untergang geht und er glaubt, dass zum Beispiel ChatGPT4O, was ja das

00:07:54: neue halbwegs neue Modell von OpenAI ist, einfach ein gescheiteter Versuch ist, GPT5 hat

00:08:00: rauszubringen und deswegen wurde das halt quasi nur mal irgendwie zwischendurch released und

00:08:05: er sagt auch, dass OpenAI in der Vergangenheit immer wieder angedeutet hat, GPT5 steht Codes

00:08:09: bevor und danach kommt dann wirklich diese AGI. Die Wahrheit ist aber seiner Meinung nach, dass

00:08:15: die Fortschritte in der KI-Inwicklung zuletzt einfach immer kleiner geworden sind und OpenAI

00:08:19: damit komplett auf dem Holz weg ist und er sagt auch ChatGPT mag zwar beliebt sein,

00:08:24: bei Millionen von Menschen, aber er sagt, dass es halt alles andere als vertrauenswürdig. Er

00:08:28: sagt ganz klar, dass große Sprachmodelle einfach eine gute Lösung für Average-Jaws sind,

00:08:34: die sind sehr beliebt, aber er sagt ganz klar, sie bergen krass viele Risiken. Das eine ist

00:08:39: irgendwie das Thema Fehlinformationen, haben wir darüber gesprochen und das andere ist

00:08:43: einfach Halluzination. Also die Tatsache, dass die Modelle einfach immer noch auf breiter

00:08:47: Spur antworten und Ergebnisse erfinden. Das ist ein ganz wichtiger Punkt und ich habe den

00:08:53: Artikel total gefeiert. Also ich kannte ihn nicht und war total dankbar, dass du den gescheit

00:08:57: hast und wir den auch nachher dann in den Show notes scheren. Aber was also erst einmal ist,

00:09:01: Gary Markus ja nicht irgendwer, du hast es gerade gesagt, der beschäftigt sich schon seit zwei,

00:09:04: drei Wochen, schräg schriegt 20 Jahren mit dem Thema, also er kennt sich wirklich aus und was

00:09:09: er halt vor allen Dingen sagt ist, dass wenn wir uns mal das Thema anschauen und er bringt

00:09:14: ja Beispiel auch von autonomen Fahren, wo ja auch KI zum Einsatz kommt, es hilft halt nicht,

00:09:19: wenn das System 5% fantasiert und glaubt, da läuft gerade niemand über die Straße,

00:09:25: das hilft halt dann nicht und das Thema Vertrauen spielt hier eine ganz große Rolle und ein ganz

00:09:30: weiteren wichtigen Punkt nennt er und ich muss sagen, ich denke über den Artikel immer mehr

00:09:34: nach, ist nämlich das Thema wie Informationen beschaffen werden und wenn man sich den Mensch

00:09:39: anschaut, dann werden Menschen ja nicht schlau, weil sie Bücher lesen, sondern Menschen werden

00:09:43: schlau, weil sie rausgehen in die Natur, in die Welt, sie lernen laufen, sie lernen miteinander

00:09:48: kommunizieren und das ist etwas, was all diesen LLMs eben fehlt. Sie können nur auf das zugreifen,

00:09:57: was an geschriebenen Wort da ist und du erinnert sich ja an den Vortrag auf der OMR von Philipp,

00:10:04: ich sag schon, Philipp Klöcker zum Thema AI, da spricht er ja auch noch mal darüber, dass die AI-Systeme ja

00:10:14: anfangen ihren eigenen Content zu konsumieren und so eine Art Insucht geschieht. Ich glaube,

00:10:19: wie heißt das, dass Nürn... Habsburger Problem nicht ist. Habsburger Problem nicht Nürnberger.

00:10:25: Und das ist in der Tat ein ungelöstes Problem und ja, ich will gar nicht so viel erzählen,

00:10:31: weil ich so begeistert bin von dem Artikel, aber es ist wirklich ein sehr, sehr gutes Interview,

00:10:35: kann ich nur empfehlen. Ich hoffe, die Nürnberger fühlen sich jetzt nicht angegriffen von dir,

00:10:38: dass du sie "intestuous" genannt hast. Die Habsburger auf jeden Fall, meine Güte.

00:10:43: Nee, aber also das ist total spannend, alles was du sagst, lehst ihn auf jeden Fall mal, weil

00:10:47: der Gary spielt halt zu Grundsätze erstmal auf die Mechanik von den großen Sprachmodellen an und

00:10:54: ein großes Sprachmodell am Ende ist genau das, was es vor ewigem Zeiten auch war. Es ist einfach

00:10:58: ein probabilistisches Modell, das immer noch das wahrscheinlich nächste Wort in einem Satz

00:11:04: ausrechnet, also ganz algorithmisch tatsächlich. Und damit kaut es am Ende einfach nur genau das

00:11:09: wieder, womit es dann halt gefüttert wurde, einfach nur mit Trainingsdaten aufgrund von

00:11:13: Text, Videobildern etc. Aber das Ganze ist natürlich begrenzt und er überlegt ganz klar,

00:11:19: wie kann man das lösen? Also wie kann man halt die 80 Prozent der Probleme, die gut gelöst

00:11:24: werden, mit den 20 Prozent jetzt auch wirklich aufgleisen, denen es halt noch fehlt? Und das ist

00:11:30: genau das, was du sagst. Natürlich, wir können noch so viele Bücher und Zeitschriften lesen und

00:11:33: noch so viele akademische Titel erreichen, wenn wir aber nicht rausgehen und Gespräche führen und

00:11:38: weiter fortbilden und echte Meinung bilden, dann kommt es einfach zu nichts Neuem. Das ist immer

00:11:42: nur was Wiedergekautes. Und das ist einfach dieses große Problem von diesen synthetischen Daten,

00:11:48: wenn die halt immer weiter generierte oder KI generierte Daten dann tatsächlich auch in das

00:11:52: Training und nicht nur in die Influenz aufnehmen, dann werden die Modelle zwar immer obenfangreicher,

00:11:57: aber sie werden nicht besser, sondern sie werden halt immer spezifischer und immer

00:12:00: immer gleicher auf das auf das gleiche Training. Es ist spannend, lesen Artikel, klare Empfehlung.

00:12:05: Genau, sonst würde ich sagen, gehen wir zu den üblichen Verdächtigen. Da ist halt mal wieder

00:12:10: eine ganze Menge passiert. OpenAI hat mit GPT-4O Mini neues Modell, was leichter ist, kostengünstiger,

00:12:17: veröffentlicht und vor allem die kostengünstige Thematik ist hier relevant, denn hier kostet

00:12:24: es tatsächlich nur 15 Cent pro eine Million Eingabe Token und 60 Cent glaube ich pro eine Million

00:12:29: Ausgabe Token. Wenn man sich noch überlegt bei GPT-4O ist es noch bei fünf Dollar pro eine

00:12:36: Million Token. Und das sind ungefähr, wir hatten es ja schon mal hier so ein bisschen versucht,

00:12:39: Herzleitung auszurechnen, eine Million Token sind ungefähr 750.000 Wörter. Das ist,

00:12:43: wir haben es glaube ich damals versucht, Herzleitung ein bisschen weniger als die gesammelten Harry

00:12:48: Potter Ausgaben zusammen, also richtig viel. Und dieses Modell hat also ziemlich die gleichen

00:12:53: Parameter wie der große Bruder GPT-4O und erzielte sogar 82 Prozent in einem von diesen aktuellen

00:12:59: Target Face Benchmarks fahren, das glaube ich und zeigt, dass es extrem leistungsstark ist,

00:13:04: und zwar genauso leistungsstark wie das Cloud 3 Heiko oder das Gemini 1.5 Flash und eignet sich

00:13:10: damit, weil es so klein und so kostengünstig ist, natürlich vor allem so für total simple oder

00:13:15: vermeintlich simple KI-Inwendungen. Wir haben schon sehr viel hier über Kunden Support, Chatbots

00:13:19: gesprochen. Ich habe darüber gesprochen, dass wir bei uns das Ganze auch über einen GPT 3.5

00:13:25: aktuell betreiben, aber so einen GPT-4O Mini wären natürlich deutlich kostengünstiger zu

00:13:29: betreiben, gerade wenn du halt irgendwann in Tausende, 10.000 oder 100.000 Transaktionen

00:13:34: halt irgendwie pro Tag reinläufst, dann ist es schon wichtig, kostet das Ding halt irgendwie

00:13:37: $5 pro 1 Million Hockey oder tatsächlich nur 15 Cent. Ja und es ist halt wie du es gerade gesagt

00:13:42: hast, sehr performant und eignet sich natürlich hervorragend für mobile Anwendungen. Das dürfen

00:13:46: wir ja auch nicht vergessen, das ist noch eine große Achillesphärse bei GPT-4O beispielsweise

00:13:51: ist alles was mobil halt stattfindet. Ja und ich glaube, dass es jetzt so dieses Race to the Bottom

00:13:56: ist halt bei diesen ganzen Sprachunternehmen jetzt wirklich mal mindestens eröffnet oder

00:13:59: geht vielleicht sogar in die nächste Runde, denn damit befinden sich halt so viele LLMs mittlerweile

00:14:05: im gleichen Benchmark oder zumindest auf dem gleichen Qualitätsniveau und wenn der Kernunterschied

00:14:11: nicht mehr die Qualität ist, sondern tatsächlich nur noch für die institutionellen Anwender

00:14:16: der Preis, dann überlegen wahrscheinlich jetzt alle irgendwie ihre Preise auch entsprechend

00:14:20: anzupassen. Und ich glaube noch fängt so zusätzlicher Bedarf von vielen Unternehmen,

00:14:24: die darauf setzen wollen, die sinkenden Preise für die LLM-Betreiber auf und auch die LLM-Entwickler

00:14:30: bezahlen ihren Research natürlich immer noch irgendwie mit ihren prall gefüllten Menschen

00:14:34: Capital Kassen, aber ich glaube auf Dauer wird sich dieser Preiskampf dann ganz sicher auch auf

00:14:38: der Umsatzseite zeigen und damit stellt sich ja mir natürlich die Frage, wie dann auch die

00:14:41: Betreiber großer Sprachmodeller langfristig so diese massiven Entwicklungskosten stemmen wollen.

00:14:46: Genau, weitere News von OpenAI, endlich ist Search GPT da, auch das haben wir glaube ich vor 2,

00:14:55: 3, 4 Literationen oder Editionen mal gesagt, also ist ein Prototyp für eine KI-gestützte Web-Suche

00:15:02: und OpenAI sagt selbst, das ist ein System, was sehr schnell antworten liefert mit mittlerweile

00:15:07: klaren Quellenangaben und es ermöglicht dann quasi auch Nachfragen im gleichen Kontext und dabei

00:15:12: ist Search GPT direkt in GPT oder Chat GPT integriert und diese Funktion wie immer kann

00:15:19: natürlich nur von sehr wenigen Testern ausprobiert werden. Ganz am Ende ist es eine Erweiterung

00:15:23: der Web-Suche im Chatboard und weil es sich um eine Suchfunktion handelt, greifen natürlich

00:15:27: diese neuen Crawler von OpenAI auch auf alle Webseiten zu, das heißt so diese Ausschlüsse von

00:15:32: anderen Bots, die mittlerweile halt irgendwie tatsächlich einfach weit auf weiter Flur ausgeschlossen

00:15:37: sind, gelten hier nicht, was ein ziemlich smarter Move ist. Auf der anderen Seite,

00:15:40: ein smarter Move, ja, aber dringend erforderlich, weil das was Search GPT vorgestellt hat und du

00:15:46: hast es gerade gesagt, ist jetzt da oder was OpenAI vorgestellt, ist jetzt da als Prototyp. Man

00:15:52: kann sich das auf der Webse so ein bisschen durchlesen, erinnert mich aber sehr stark und du bist

00:15:56: ja auch wie ich Nutzer von Perplexity an das, was wir bereits kennen, Perplexity macht genau

00:16:01: das und ich bin gespannt, ob es OpenAI mit der Search GPT-Suche dann besser macht. Wir werden

00:16:09: es sehen leider noch nicht für alle zudem nicht. Ja, die Links wären halt schön prominent dargestellt,

00:16:15: das ist genau das, was du sagst, diese Kritik hat OpenAI sich halt sehr viel anhören müssen,

00:16:19: weil immer nicht ersichtlich war, woher Informationen wirklich stammen, was ist die Primerquelle,

00:16:23: gibt es überhaupt eine oder ist es irgendwie halbzuniert. Wir werden es halt sehen, also ich

00:16:27: habe es selbst noch nicht getestet, weil Search GPT steht natürlich wie immer noch nicht allen

00:16:30: zur Verfügung, Europäern sowieso erst mal nicht. Es gibt eine Warteliste, da habe ich mich drauf

00:16:34: schreiben lassen, aber da kam auch nichts, noch nicht mal eine E-Mail oder so. Also ich bin gespannt,

00:16:41: wie es aussieht und ich glaube neben Verbesserung dieser Suche plant OpenAI auch einfach eine

00:16:46: tiefen Integration, also es wird mehr kregenale und lokale Informationen geben. Ich denke,

00:16:50: sie werden den Handel viel tiefer mit einbeziehen und am Ende klingt das so ein bisschen nach

00:16:54: Google's Strategie oder Klassischer Suche der letzten Jahrzehnte, wo einfach sehr viel gesponsorter

00:17:01: Content und auch vor allem e-Commerce dann einfach sehr prominent angezeigt werden. Ob OpenAI dann

00:17:07: auch plant, ihre Werbung auszuspielen, da habe ich nirgendwo finden können bisher, ich glaube,

00:17:11: das wird halt irgendwie intern modelliert, ist aber auf jeden Fall noch nicht ganz klar. Und ich glaube,

00:17:15: OpenAI ist grundsätzlich der Ansicht, dass Search GPT die Suche nach Antworten im Internet noch mehr

00:17:21: vereinfachen kann und damit einfach viel mehr relevante Ergebnisse ausspuckt. Ich bin halt

00:17:26: gespannt, ob sie mit Search GPT wirklich in direkte Konkurrenz mit Google Suchmaschinen treten.

00:17:30: Die haben ja immer noch irgendwie über 90, weit über 90 Prozent des Suchmaschinenmarktes in

00:17:35: der Dominanz. Es gibt super viele Versuche, kleinere KI Suchmaschinen an Google Suchmaschinen, Monopol,

00:17:42: irgendwas abzuknappsen, alle gescheitert, aber auch wie es, glaube ich, die Doppelgänger mal vor

00:17:46: so ein paar Editionen ihres Podcasts hergeleitet haben, wenn du halt irgendwie zwei bis sogar fünf

00:17:51: Prozent des Market shares von Google irgendwie aus dem Suchmaschinenmarkt rauskriegst, sind

00:17:57: das halt immer noch ein paar hundert Milliarden Euro. Also ist nicht ganz klein. Ja, und OpenAI lässt

00:18:02: sich daher zu Recht oder auf jeden Fall nicht in die Karten gucken. Also die werden jetzt in Teufel

00:18:07: tun und sagen, wir werden in bestimmte Bereiche einsteigen. Also da hält man sich nachvollziehbar

00:18:11: verschlossen. Ich persönlich kann mir das nicht nur gut vorstellen, sondern würde es für sehr

00:18:16: nachvollziehbar halten. Es geht auch bei OpenAI irgendwann darum, Geld zu verdienen, dass

00:18:20: wenn sie nicht mit Premium-Abus hinbekommen und es ist total naheliegend. Aber auch hier,

00:18:25: die Frage ist so ein bisschen, wie gut ist letztendlich das, was wir präsentiert bekommen und

00:18:30: was wir auch nicht vergessen dürfen, ist, es gibt ja auch noch Google, die sowas sagen Gemini und

00:18:35: sich auch mit dem Thema AI beschäftigen. Und auch da, glaube ich, der Abstand zwischen Google und

00:18:41: OpenAI war von einem Jahr deutlich größer, als es heute noch der Fall ist. Also alle rüsten auf.

00:18:47: Ja, und weiter rüste OpenAI auch mit einer neuen Sprachfunktion auf. Für uns beide natürlich super

00:18:54: relevant, weil wir beide ja quasi GPT4O Nutzer der ersten Stunde auch im Dialog sind mit der

00:19:03: synthetischen Stimme und auch sehr darauf gehofft haben, dass wir mal irgendwie mit Sam, also

00:19:08: gerade Johanzen, besprechen können. Aber das kam es ja leider nicht dazu. Wir wissen ja,

00:19:12: gab es eine kleine Verzögerung aufgrund, glaube ich, haben sie sich gesagt, Sicherheitsbedenken.

00:19:16: Also am Ende war es Kritik, dass der Sprachmodus gerade Johanzen viel zu sehr ähnelt. Aber nun

00:19:21: plant OpenAI dieses Feature im Herbst dann allen Plus-Abonnenten anzubieten und auch einfach

00:19:26: mit deutlich mehr Stimmen. Und die nennt es Voice Mode. Damit kann man dann in Echtzeit kommunizieren.

00:19:31: Es sollte nochmal viel leistungsfähiger sein, viel weniger Latents haben. Und als der aktuelle

00:19:37: Vorgänger quasi und er soll auch auf Emotionen reagieren. Das ist das, was wir vor ein paar Wochen

00:19:42: mal mit diesem anderen Modell dargestellt haben. Weißt du doch? Du hast genau zwei Punkte. Das

00:19:47: einmal das Thema Emotion und der Voice Mode, der kommen soll. Und das ist ja das, was momentan

00:19:51: noch fehlt. Momentan ist ja die Konversation zwischen dem Voice-Bot von OpenAI so ein bisschen wie man

00:19:57: früher Armatur-Funk gemacht hat. Also ich drücke, spreche, warte auf die Antwort und kann ja nicht

00:20:04: unterbrechen. Und das soll dann möglich sein. Also wir können dann oder es soll so sein, dass man

00:20:08: wirklich miteinander fast flüssig reden kann und auch unterbrechen kann, um zu sagen, nee, ich

00:20:14: mein einen anderen Punkt oder gehe auf das Thema ein. Bleibt super spannend. Und in der Tat eine

00:20:19: Funktion, wo ich mich wirklich darauf freue. Ja, und die haben auch nochmal so ein bisschen das

00:20:22: aufgegriffen, was in der allerersten Vorstellung vom halben Jahr von Google Gemini drin war. Da hat

00:20:28: die CTO Mira Murati jetzt bei OpenAI quasi das neue Modell mit Rechenaufgaben gefüttert. Die hat

00:20:36: offenblatt Papier geschrieben und dann in die Kamera gehalten und dann konnte das GPT4O quasi

00:20:41: vorlesen und dann mit Emotionen so ein bisschen das direkt live ausrechnen. Und es gab so eine

00:20:46: kleine Show-Einlage in dem Video, wie GPT4O den Gesichtsausdruck bei einem Live-Selfie interpretiert.

00:20:52: Auch das, wir wissen immer nicht, wie viel davon ist gestaged oder sogar gefact, aber es ist

00:20:56: zumindest sehr unterhaltsam und ich glaube, es kommt immer mehr in die Nähe eines Personalsistens.

00:21:02: Wir haben immer noch keinen Zugriff. Schauen wir mal, angeblich bekommt ein User, der auf dieser

00:21:09: Warteliste ist dann entsprechend auch einen Hinweis in ChatchiPetier und eine Mail mit den Anweisungen.

00:21:13: Aktuell, ich habe es gestern an, gerade nochmal gecheckt, habe ich nur die klassischen vier Stimmen,

00:21:18: zwei Männer, zwei Frauen und damit müssen wir uns ein bisschen begenügen.

00:21:22: Aber das so schön das ist und so spannend das ist, was mir nach wie vor fehlt und

00:21:26: da bin ich gespannt, wie OpenAI oder auch andere das lösen wollen.

00:21:29: OpenAI ist nicht in der Lage, einen Termin einzustellen.

00:21:32: OpenAI ist nicht in der Lage, mir das Licht zu Hause an oder auszumachen.

00:21:36: Das heißt, natürlich gibt es überall Connectivity, aber das ist etwas, was all den

00:21:42: ganzen Assistenten, VoiceBots, den ganzen AIS-Teas gibt, momentan fehlt und wo ja gerade

00:21:48: Apple mit Apple Intelligence natürlich durch diese tiefe Betriebssystemintegration

00:21:54: vielleicht noch einen Vorsprung hat, weil das wäre mein Traum, dass ich sagen kann,

00:21:58: wir reden über ein bestimmtes Thema und ich kann dann sagen, okay, erinnere mich bitte

00:22:03: dran und dann stellen wir ein Termin ein.

00:22:05: Die Schnittstellen gibt es, aber aktuell ist es halt eben noch nicht integriert und

00:22:09: es ist ein reines.

00:22:10: So als wenn wir zwei miteinander quatschen, naja, ist schön, aber du kannst mir auch keine Termine

00:22:14: einstellen.

00:22:15: Klar, kann ich das machen.

00:22:16: Ja, das stimmt.

00:22:18: Das machst du.

00:22:18: Ja, du hältst dich nur nicht dran, so wie heute Früh.

00:22:23: Ich glaube, das ist eines der größten Probleme.

00:22:26: Ich habe mittlerweile über so ein If This, then That meine Serie mit einem GPT-4O so

00:22:32: gebaut, dass ich hier quasi nur ihren Namen sagen muss, jetzt geht es hier auch direkt

00:22:36: an, muss ich wegklicken und dann kommt sofort quasi die Stimme von GPT-4O rein und ich komme

00:22:41: sofort in den Dialog hinein, aber es ist genau wie du sagst.

00:22:44: Wenn ich dann keine Ahnung, mir ein Remindersetzen will für irgendwas, eine E-Mail, eine E-Mail,

00:22:48: eine schreiben willenden Kalendereintrag, dann muss ich quasi daraus wieder zurückkehren

00:22:52: in die echte Serie hinein, die das dann sehr unbeholfen macht, aber mittlerweile eigentlich

00:22:57: so ganz gut ist.

00:22:58: Oder ich mache es halt irgendwie schnell selber und ich flippe so ein bisschen zwischen den

00:23:01: beiden Assistenten gerade hin und her.

00:23:02: Alexa habe ich mittlerweile völlig aufgegeben, aber ich glaube, wenn das dann kommt, dann

00:23:07: ist es wirklich sexy und attraktiv, aber alles, was ich darüber lese, ist maximal zurückhaltend.

00:23:12: Genau, aber wäre auch noch stimmt.

00:23:15: Weiteres.

00:23:16: Entschuldige.

00:23:17: Ja, alles gut.

00:23:18: Also Meta macht jetzt auch Stimme und wir hatten im vergangenen Herbst einmal über die hauseigene

00:23:26: Messe Connect, also wir haben im Januar darüber gesprochen, dass es diese hauseigene Messe

00:23:31: von Meta gibt, die heißt Connect.

00:23:33: Und dort haben sie angekündigt, dass sie auch KI-Chatbots bauen wollen, die den Stimmen

00:23:37: von verschiedenen Prominenten entsprachen.

00:23:39: Damals waren so die Beispieles Snoop Dogg und Paris Hilton, sie hatten so ganz viele

00:23:43: Sportler und Influencer und die sollten dann als KI-Assistenten dienen mit ihren Stimmen.

00:23:49: So, das gibt es nicht mehr, ich habe das gesucht, aber offenbar kein Erfolg.

00:23:52: Jetzt wiederum verhandelt Meta erneut mit Promis, um deren Stimmen offiziell zu licenzieren,

00:23:57: also erst zu synthetisieren und dann tatsächlich für KI zweckenutzbar zu machen.

00:24:01: Und da sind irgendwie Schauspielerin Julie Dench dabei und die New York Times hatten

00:24:05: Artikel, dass es große Verhandlungen mit allen relevanten Agenturen in Hollywood gibt,

00:24:10: die Stars aller Colour betreuen gerade und für diese Rechte an den Stimmen soll richtig

00:24:15: viel Geld in die Hand genommen werden.

00:24:17: Und diese Stimmen sollen in alle Meta AI Produkte integriert werden, also off Insta,

00:24:22: in Facebook, WhatsApp.

00:24:23: Du kannst sie dann in den Metas Smart Glasses von Rayben auch integrieren, was total viel

00:24:29: Sinn macht, weil hier bietet es sich an, weil du echte Spracheingaben machen kannst und

00:24:34: das ganze dann quasi durch die integrierten Kopfhörer dann auch dir wieder anhören kannst.

00:24:38: Genau, ich glaube eben die nächste Connected jetzt im September auf dem Plan und die Neuigkeiten

00:24:43: im Bereich KI sollen dann genau das sein.

00:24:46: Dass es einfach neue KI-Stimmen gibt.

00:24:48: Und ich bin sehr gespannt.

00:24:50: Also vor ein paar Tagen gibt es einen neuen Artikel von Meta, dass man im AI Studio sich

00:24:54: sogar selber KI-Charaktere bauen können soll.

00:24:57: Das heißt, die Zielgruppe sind irgendwie Influencer, die ihren Followern dann per KI-Assistenten

00:25:03: Fragen beantworten und sich selbst so ein bisschen die Arbeit erleichtern können.

00:25:06: Das Ganze nennt sich Custom AI, ist natürlich wieder nur in den USA verfügbar, wir können

00:25:10: uns das nur anschauen, aber auf jeden Fall nicht ausprobieren.

00:25:12: Und das Ganze dann gepaart nochmal mit einer prominenten Stimme wird bestimmt ganz attraktiv.

00:25:17: Das heißt, wir sehen dann auch in dem nächsten Jahr auf der DKB-Webseite dann dich als Spot,

00:25:22: wie du dann die Kunden fragen persönlich beantwortest.

00:25:24: Genau.

00:25:25: Das wäre es, oder?

00:25:26: Ich glaube, das würden die meisten ablehnen, hoffentlich.

00:25:29: Ja, aber es gibt es noch, Meta hat noch eine ganze Reise Neues, sie haben ein neues sehr

00:25:35: leistungsfähiges Sprachmodell, natürlich Open Source, Lama 3.1.

00:25:41: Das hat jetzt 405 Milliarden, das sind es glaube ich genau, 405 Milliarden Parameter ist so

00:25:47: eines der größten Sprachmodelle, hat einen riesigen Kontext an Token natürlich auch und

00:25:54: ist komplett wieder verbessert in allen Fähigkeiten, in allen Sprachen, die man sich mittlerweile

00:25:58: so vorstellen kann.

00:25:59: Und auch das ist natürlich wieder sehr interessant, weil auch dieses Modell ist zu 100 Prozent

00:26:04: Open Source, Mark Zuckerberg hat dazu eine Pressekonferenz gegeben und hat es auch erklärt,

00:26:11: dass das halt nachhaltig sein Geschäftsmodell sein möchte und er möchte tatsächlich diesen

00:26:15: Code grundsätzlich halt zur Verfügung stellen.

00:26:17: Und es ist so ganz interessant auf jeden Fall, dass andere so diese closed-loop-Modelle haben,

00:26:22: aber Meta nachhaltig quasi an den Open Source Modellen hängt.

00:26:25: Genau, dann gibt es eine Alternative zum Mid Journey und Dali und Co.

00:26:33: Es ist ein deutsches Startup, das heißt Flux One oder Flux 1 und das bietet jetzt eine

00:26:39: neue vermeintlich sehr leistungsstarke Bildgenerierung in verschiedenen Varianten, mal wieder so

00:26:45: eine Pro-Variante für allerhöchste Qualität, eine Development-Variante für kommerzielle

00:26:49: Anwendung und dann einfach eine schnelle Lösung für so lokale Entwicklungen und Devicelösungen.

00:26:54: Die Qualität und auch gerade die Nutzung von Text in Bildern funktioniert erstaunlich

00:26:59: gut, sind halt wieder nur so kleine Anwendungsfälle, von daher kann man noch nicht so richtig

00:27:02: sehen, was passiert dahinter.

00:27:04: Aber offenbar hat ein kleines deutsches Team mit sehr wenig Geld, mit sehr wenig Aufwand

00:27:09: in kurzer Zeit, offenbar eine sehr schöne Alternative zum Mid Journey und Dali gebaut

00:27:13: und nehmen wir mal in die Show-Nurz mit rein, könnt ihr ein bisschen rumspielen.

00:27:16: Ich gehe mal davon aus, wenn sich das Thema durchsetzt und wirklich auch das hält, was

00:27:20: es in der Presse oder auf der Website verspricht, das wird auch mal eine ganze Menge mehr davon

00:27:24: hören werden in der Zukunft.

00:27:25: Dann gab es einen Riesen-Funding für so mein Lieblings-AI-Legal-Tech, wenn man so will,

00:27:33: das hat den Namen Harvey von offenbar Harvey Specter, von der Serie Suits, wo ich ein absoluter

00:27:38: Fanboy von bin.

00:27:39: Und das ist so ein Legal-Tech-Stardop, das hat jetzt in der Series C-Runde 100 Millionen

00:27:44: Dollar eingesammelt, mit Google Ventures im Leads, mit Kleiner Perk & Sick Hoja, etc.,

00:27:51: alle mit dabei, haben mittlerweile einen Gesamt-Funding von über 200 Millionen, haben

00:27:54: eine Bewertung von mittlerweile 1,5 Milliarden und Harvey will dieses frische Kapital hauptsächlich

00:28:00: in Datensammlungen und das Training von Domänen spezifischen KI-Modellen investieren.

00:28:05: Also am Ende ist es eine Spezial-KI für Juristen.

00:28:10: Und am Ende, was die haben, ist so ein Legal-Core-Pile, das heißt, Harvey kann im Hintergrund,

00:28:16: angetrieben von OpenAI, GPT-4, juristische Fragen in jeglicher natürlichen Sprache beantworten

00:28:22: und er bietet Tools zur automatischen Extraktion von Informationen und von Dokumenten.

00:28:26: Das heißt, ganz am Ende, dass so diese ganzen Top-Juristen mit Tages- oder Stunden-Sätzen

00:28:31: von vielen vielen Hundert Euro, die viel Zeit in den Abhändigs- und Infusnoten von relativ

00:28:36: standardisierten Vertragswerk verbringen, ab jetzt, das entweder mit Harvey machen können,

00:28:41: das einfach ein sehr nützliches Tool an der Seite ist und trotzdem den gleichen Stundensatz

00:28:45: abrechnen oder es wird tatsächlich zum absoluten Disruptor von dieser Industrie.

00:28:49: Weil am Ende ist es halt einfach das neue Damokleschwert im Nacken, weil Harvey kostet

00:28:53: aktuell gar nichts und selbst wenn es halt irgendwie für die Token ein bisschen Geld

00:28:58: kostet, ist das halt irgendwie nichts im Vergleich zu dem, was Top-Juristen abrechnen.

00:29:02: Auf der einen Seite, ich muss ein bisschen an den Steuermarkt denken, es gibt ja schon

00:29:06: seit Jahrzehnten Tools, die mir helfen, meine Einkommenssteuererklärung zu machen, ja, das

00:29:10: wird natürlich auch vom Steuerberater eingesetzt.

00:29:12: Am Ende brauchst du natürlich immer in irgendeiner Art und Weise eine offizielle Instanz, also

00:29:17: du wirst den Anwalt nicht, zumindest kurzfristig nicht weg, rationalisieren können, aber es

00:29:23: ist auch, wie du sagst, ein Riesentool und es zeigt, wie ich finde, auch, dass AI gerade

00:29:29: in so Bereiche ja gut reinpasst, wo es ja ehrlicherweise nicht um Logik geht, sondern ich habe mal

00:29:36: ein bekannter von mir, der ist Jurist, der hat entsprechend studiert und er sagte, naja,

00:29:43: wenn du Jura studierst, dann geht es eigentlich darum, Texte auswählen zu lernen und zu wissen,

00:29:47: wo steht ihr was und am Ende einigermaßen eloquent akumentieren zu können, aber es

00:29:52: ist ja nicht Mathematik, also du musst nicht logisch immer denken, sondern du musst

00:29:56: halt einfach die Gesetze können und da ist er natürlich und das ist das, was du ja gerade

00:29:59: sagtest oder wo wir eben auch drüber gesprochen haben, ob man AI, ob man AI kann nicht rechnen,

00:30:05: also Chatchivity kann nicht rechnen, also so einfache Sachen gehen, aber wenn es komplizierter

00:30:08: wird, keine Ahnung, es ist halt ein LLM bei Justiz oder bei Gesetzestexten oder bei

00:30:15: regulatorischen, alles was man mit regulatorisch mit Texten so tun hat, da passt es natürlich

00:30:19: super, also perfekte Anwendungsbewerbungen.

00:30:22: Ja, das ist total, also wir müssen halt beobachten, wie sich das tatsächlich dann auf breiter

00:30:26: Flur entwickelt, weil aufgrund dieser sehr sensiblen Natur von juristischen Daten gibt's

00:30:31: natürlich auch sofort wieder Bedenken, also natürlich vor allem aus Deutschland, aber

00:30:34: auch hinsichtlich der Nutzung auf breiter Fläche.

00:30:38: HW selbst betont, dass die KI natürlich nur unter Aufsicht von lizenzierten Anwälten

00:30:43: verwendet werden sollte, aber gut, das ist halt irgendwie der Einstieg.

00:30:47: Es gibt mittlerweile schon große Cans-Line wie Ellen & Overie und auch PWC, die das

00:30:52: wohl täglich nutzen und schauen wir mal.

00:30:55: Also ich glaube tatsächlich, dass es nichts weniger ist, als das Schlüssel zur radikalen

00:31:00: Revolution in diesem speziellen Segment, schauen wir mal.

00:31:04: Ich glaube so ganz viel Arbeit von Parallegals und diese ganze Sachbearbeitung auch bei Notaren

00:31:09: und wie du sagst Steuerberatern, fällt dann einfach weg und ist halt dann die Frage, kann

00:31:14: es noch gebild werden oder gibt es jetzt auch wieder neue Wettbewerbe, die sich dann darauf

00:31:17: spezialisieren und dann auch wieder nach Pareto-Prinzip, die 80 Prozent zu 20 Prozent der Kosten machen

00:31:23: können.

00:31:24: Ja genau, letztes Ding, was ich noch habe, ist ein wahnsinnig spaßiger Artikel über

00:31:30: die kuriosen Welt von KI-Gadgets.

00:31:33: Also wir haben ja schon mal bei der KI-Zahnbürste vor einer Weile irgendwie sehr geschmunzelt,

00:31:37: beide Asserie entdeckt haben und sehen ja irgendwie, dass man irgendwie gefühlt jedes

00:31:42: Produkt gerade künstlich intelligent machen will, aber leider bleiben halt irgendwie dabei

00:31:47: der gesunde Menschenverstand und blöderweise auch die Umwelt ganz oft auf der Strecke.

00:31:51: Was ich gefunden habe, ist herrlich, es gibt ein gutes Beispiel als neuen intelligenten

00:31:56: Spiegel für das Badezimmer.

00:31:57: Das heißt, wenn du dann morgens reinkommst, völlig verschlafen, analysiert dir erst mal

00:32:01: irgendwie deine Laune, dann bietet dir individuelle Lichtmeditation an am Spiegel selber, dann

00:32:08: sagt er so paar aufbauende Sprüche zu dir, dass du da gar nicht so alt aus siehst oder

00:32:12: wie "Freshert" - das ist nicht mehr helfen.

00:32:14: Das ist was ich jeden Morgen versuche bei dir, wenn du nicht so richtig ankommst, das

00:32:17: macht dir im nächsten Badezimmer Spiegel.

00:32:19: Und das klingt halt so ein bisschen wie so eine Szene aus der Tech-Distupie und also

00:32:22: auch wirklich total bescheuert.

00:32:24: Aber genau dieser Spiegel hat jetzt bei der Elektronikmesse CS einen Innovationspreis

00:32:28: bekommen.

00:32:29: Also als einer von drei Gadgets, ein anderes Gadget auch bei dieser Messe war jetzt die

00:32:35: neue Vorzeige Waschmaschine von Samsung mit dem tollen Namen Beespoke AI und die verspricht

00:32:43: nichts weniger als alles ganz, also wirklich die Wäsche zu revolutionieren.

00:32:47: Die haben nämlich eine neue Technologie eingeführt, die heißt "Bubble Shot" - Technologie.

00:32:52: Und in der Beschreibung steht auch drin, dass sie eine Vielzahl von AI-Funktionen nutzen,

00:32:58: um die Wäsche noch besser zu machen, noch energieeffizienter zu waschen, das Ganze

00:33:02: noch mit einem iPhone besser irgendwie zu pairn, mit einem Taming-Calendar und Co.

00:33:06: Völlig verrückt.

00:33:07: Also wirklich, wirklich witzig, ich will gar nicht zu viel spoilern, eine Sache vielleicht

00:33:10: noch aus diesem Artikel.

00:33:11: Also wirklich geil, kommt das Herr Schweiz, hier hat ein Starhop eine KI-Katzenklappe

00:33:17: erfunden, die Katzen nur dann ins Haus lässt, wenn sie vorher ihre eroberte Beute ablegen.

00:33:22: Hat die Katze den Maus gefangen, wird es irgendwie stolz dem Herrchen zeigen, darf

00:33:26: aber nicht rein, weil mit Maus ist nicht, gerade frisch durchgefischt.

00:33:30: Genau, und dann geht es noch um Hunde fressen, Netfe und Fitness-Uren und also wirklich

00:33:34: coole Sachen und geht auch so ein bisschen auf das Thema Daten, Datensouveränität von

00:33:38: Dating App und Tinder.

00:33:39: Und es gibt auch noch einen Teddybear für Kinder, der völlig weird quasi, ich will

00:33:47: gar nicht zu viel spoilern, lehst es euch durch, ist es wirklich amüsant.

00:33:49: Ja, amüsant ist stimmt, bis auf den Teddy, das fand ich eher spooky ehrlicherweise und

00:33:56: weiß ich noch nicht so genau, aber ja, lehst es euch durch, wir wollen nicht so viel spoilern

00:33:59: in der Tat.

00:34:00: Ja, ich habe auch noch 2, 3 Newsmütche gebracht, gar nicht so spektakulär, also auf der

00:34:04: einen Seite habe ich mir mal wieder 2, 3 Tools angeguckt, die ich eigentlich ganz spannend

00:34:08: fand, aber dazu gleich oder später.

00:34:11: Wir hatten ja schon über OpenAI gesprochen und ein Problem beim, nicht ein Problem, aber

00:34:18: ein Problem beim Einsatz von LLMs ist, die helfen natürlich dabei, Arbeit abzunehmen,

00:34:26: Text zu schreiben etc.

00:34:28: Pipi und gerade wenn es darum geht, Content zu erstellen, muss man sagen, dass was da

00:34:33: rauskommt, hört sich zumindest immer wieder sehr gut an und hat ja auch bis zum gewissen

00:34:37: Prozentsatz auch entsprechende Qualität, fernab des Fantasierens.

00:34:42: Problem ist es natürlich, insbesondere wenn wir jetzt mal auf Hochschulen schauen oder

00:34:47: auf Schulen generell, wenn es darum geht, um Arbeiten abzugeben, Doktorarbeiten, Bücher

00:34:51: etc.

00:34:52: Pipi, wissen wir natürlich heute nicht mehr, ist der Text tatsächlich von Sascha geschrieben

00:34:58: oder von Mike oder hat das letztendlich Chatty Pity gemacht.

00:35:02: Und es ist so, dass OpenAI ein Tool hat, das halten sie aber momentan noch zurück, was

00:35:07: in der Lage ist, wohl Texte mit einem Wasserzeichen zu versehen.

00:35:12: Soll heißen, man kann dann erkennen, aha, dieser Text wurde von Chatty Pity erstellt

00:35:19: oder von entsprechenden LLM.

00:35:22: Und das finde ich insofern ganz spannend und auch total hilfreich, weil wir ja, ihr erleben

00:35:26: das ja jeden Tag an den sozialen Medien, aber auch natürlich generell, wenn man dem

00:35:30: Netz unterwegs ist.

00:35:32: Es gibt Texte, den sieht man noch an, also klar, das hat diese Person never ever geschrieben,

00:35:37: aber die Qualität wird besser und wir wissen eben nicht mehr.

00:35:41: Ist das, was wir gerade lesen, ist das, was wir gerade sehen, ein echt oder von irgendeinem

00:35:47: entsprechenden LLM-Erzeug und da könnte dieses Tool wertvolle Dienste leisen.

00:35:54: Also ein Wasserzeichen-Werkzeug von OpenAI, das aber noch nicht veröffentlicht wurde.

00:36:00: Was meinst du, warum das nicht veröffentlicht?

00:36:02: Ich glaube, also in dem Moment, wo es draußen ist, wird es natürlich sehr viele Menschen

00:36:08: geben, die versuchen das auszuhebeln.

00:36:10: Ich könnte mir vorstellen, dass es damit noch zusammenhängt, dass man einfach, dass man

00:36:14: das einfach herten möchte, um das umgehen, vielleicht schwieriger zu gestalten.

00:36:19: Aber das ist momentan, ja, mein...

00:36:23: Ich glaube, es gibt einen ganz großen Grund.

00:36:25: Es wird halt, glaube ich, von Herrscharen, von Schülern und Studenten gerade einfach

00:36:29: auf komplett breiter Flur eingesetzt.

00:36:32: Aber wenn die fürchten müssen, dass ihre Professoren ihre Texte entlarven, werden sie

00:36:36: es vielleicht nicht mehr machen oder machen es dann irgendwo anders.

00:36:39: Das heißt, ihnen geht dann einfach die Transaktion und das Training durch die Lappen.

00:36:42: Und am Ende, glaube ich, ist es einfach eine reine Umsatzgeschichte, dass sie halt irgendwie

00:36:45: Angst haben, dass sie jetzt den Prüfern quasi viel mehr helfen als den eigentlichen Anwendern.

00:36:51: Trotzdem sehe ich es halt wie du.

00:36:53: Also ich glaube, wenn das Ding halt einmal draußen ist, dann wird es wieder andere Systeme

00:36:58: geben, die dieses Wasserzeichen halt irgendwie rausnehmen können.

00:37:00: Oder du lässt dir deinen ersten Entwurf von Chatchi B.T. schreiben, jagst ihn danach noch

00:37:04: mal mit einer leichten Synonymisierung oder Abwandlung in Perplexity rein und danach noch

00:37:10: mal ganz so anders.

00:37:11: Und dann hast du wahrscheinlich auch jedes Wasserzeichen irgendwie wieder rausverwässert.

00:37:13: Ja, wobei ich mir vorstellen kann, dass es nicht ganz so leicht sein wird.

00:37:19: Auf der anderen Seite ist es Text.

00:37:21: Und wie will man Text mit einem Wasserzeichen versehen?

00:37:24: Das ist sicherlich auch dann spannend.

00:37:26: Ich finde es prinzipiell gut und wir haben ja auch schon oft darüber gesprochen, insbesondere

00:37:31: bei dem Thema AI braucht es in irgendeiner Art und Weise ein Schlüssel oder Siegel, an

00:37:38: dem ich erkennen kann.

00:37:39: Das Bild, was ich gerade sehe, ist ein echtes Bild von Sacha.

00:37:42: Das Video, was ich gerade sehe, ist ein echtes Video.

00:37:45: Das Thema "Digitale Identitäten" wird glaube ich in dem Zusammenhang ganz, ganz, ganz wichtig,

00:37:51: weil wir sonst geflutet werden mit Content und mit Inhalten, die einfach nicht mehr echt

00:37:57: sind.

00:37:58: Und insbesondere in Zeiten, wir haben jetzt die Wahlen stehen in den USA vor der Tür.

00:38:04: Wir sehen jetzt schon wieder viele gefakte Videos und Bilder, die übrigens von den

00:38:10: Republikanern zum Teil ja selber verbreitet werden.

00:38:13: Das macht Angst.

00:38:14: Und momentan sieht man das noch, wenn auf einem Bild sechs Finger zu sehen sind.

00:38:19: Okay.

00:38:20: Aber wenn ich mir anschaue, wir kennen ja dieses Bild, wo Will Smith ein Spaghetti ist, wo

00:38:27: man über die Monate hinweg die neuen Modelle hat getestet.

00:38:31: Und das sieht halt einfach immer echter und immer überzeugender aus.

00:38:35: Ich glaube bei Bildern wirst du eine andere Qualität von Watermarking haben können.

00:38:40: Ich glaube bei Texten wird es halt wahnsinnig schwierig oder wenn es halt multimodal wird.

00:38:43: Also du kannst natürlich immer sagen, aufgrund der, also wir haben ja vorhin darüber gesprochen,

00:38:49: wie die Mechanik ist bei LLMs, dass einfach jedes Wort quasi neu durch den Algorithmus

00:38:52: nachberechnet wird.

00:38:54: Das kannst du ja quasi re-engineeren, aber auch nur in der Theorie.

00:38:57: Weil mittlerweile bei den neuen Modellen wissen ja selbst die Produzenten nicht mehr

00:39:03: genau, wie sich das zusammensetzt.

00:39:05: Weil das hat die künstliche Intelligenz natürlich irgendwie selber durchgerechnet.

00:39:08: Das heißt, es ist glaube ich auch so ein bisschen das Armutzeugnis dahinter, dass sie gar nicht

00:39:13: sagen können, wie hat sich das jetzt zusammengesetzt und wie kann ich jetzt sauber re-engineeren,

00:39:18: weil ich es wahrscheinlich einfach gar nicht kann.

00:39:19: Ja, aber lass uns nochmal ganz kurz bei OpenAI tatsächlich bleiben.

00:39:25: Wir hatten zwar am Anfang, aber eine Nachricht fand ich noch ganz bemerkenswert, nämlich

00:39:29: die These zumindest, muss man sagen, dass OpenAI innerhalb der nächsten 12 Monate das

00:39:34: Geld ausgehen könnte.

00:39:35: Und deswegen auch Sam Ordmann auf der stetigen Suche nach Investoren ist.

00:39:40: Ganz interessanter Artikel, der sich wiederum auf einen anderen Artikel bezieht, nämlich

00:39:45: was das Thema Betriebskosten betrifft.

00:39:47: Die sind nicht so niedrig.

00:39:49: Energie ist ja auch so ein Thema, wird auch nicht billiger.

00:39:51: Ich persönlich glaube nicht, dass das Geld ausgehen wird.

00:39:54: Ich glaube, es wird auch weitere Investoren geben.

00:39:57: Aber es zeigt letztendlich, dass das Ganze ein unglaublich ressourcenhonrig ist.

00:40:03: Es ist ja nicht teuer, weil da so viele Menschen arbeiten, sondern es ist so teuer, weil es

00:40:06: einfach unendlich viel Energie verbraucht.

00:40:09: Und deswegen bleibt es auch da spannend, wie sich das weiterentwickelt, insbesondere

00:40:15: wenn wir das Thema Energie sprechen.

00:40:16: Ja, die haben im aktuellen Jahr einen Plan, die wohl fünf Milliarden Euro verlust.

00:40:21: Alleine aus Personalkosten, anderthalb Milliarden, was ja schon irgendwie echt ein Brett ist,

00:40:24: weil so viele Menschen arbeiten da ja noch nicht.

00:40:26: Da kannst du irgendwie quasi hochrechnen, wie viel durchschnittlich das Gehalt ist.

00:40:31: Das ist glaube ich schon niedrig siebenstellig.

00:40:33: Lass dem mal auf der Zunge, dass das da geht.

00:40:35: Aber ich glaube, das ist wie du.

00:40:38: Ja, die verbrennen jetzt halt irgendwie mal die ein oder andere Milliarde hier.

00:40:40: Aber am Ende hat Ordnion ja selber gesagt, ob das jetzt 50 Millionen oder 500 Millionen

00:40:47: kostet, AGI zu bauen, ist ihm am Ende erst mal wurscht.

00:40:50: Er will es halt tun.

00:40:51: Die Frage ist nur auch immer wieder, warum machen sie ... Das erklärte Ziel von Ordnion

00:40:56: AI ist AGI.

00:40:57: Und wenn du das so visionär verfolgst, warum machst du dann all den anderen Kramen?

00:41:02: Und das hilft dir natürlich schon ein bisschen im Learning und Co.

00:41:05: Aber GPT4O Mini oder Stimm-Syntetisierung von Scarlett Johansson.

00:41:11: Bringt dich das deinem Ziel wirklich näher oder müsstest du nicht die paarhundert besten

00:41:16: Datacentisten, die du hast, in denen du halt irgendwie jedes Jahr Millionen an Kohle halt

00:41:21: irgendwie reinsteckst, solltest du die nicht einfach in den Zimmer einschließen und sagen,

00:41:25: ihr steht halt erst wieder auf, wenn AGI da ist und verplämpert halt irgendwie nicht

00:41:29: eure Zeit halt irgendwie mit Stimm-Syntetisierung.

00:41:31: Das ist so ein bisschen die Frage, ne?

00:41:33: Genau.

00:41:34: Last but not least, wie gesagt, ich war ja im Urlaub, deswegen habe ich gar nicht so

00:41:40: viele Nachrichten und du hast ja vieles aufbereitet.

00:41:42: Aber ich habe im Urlaub natürlich nicht nur Pool gelegen und die wunderbare Insel die

00:41:50: Matera angeschaut, sondern auch an Netflix geschaut.

00:41:54: Und da ist mir etwas bewusst geworden, dass nämlich AGI tatsächlich immer mehr in der

00:42:00: breite Anwendung findet, auch in Bereichen, wo wir es vielleicht gar nicht vermuten.

00:42:04: Und in dem Zusammenhang kann ich eine Serie empfehlen, auch für dich, weil du bist ja

00:42:10: so ein alter Backstreet Boys-Fan, die Mini-Serie, ein nutziges Pop-Geschäft.

00:42:14: Es geht in der Serie um den Manager, nämlich Lou Pölner.

00:42:19: Und der ein oder andere wird ihn vielleicht noch kennen.

00:42:21: Aber ein krasser Manager, der letztendlich schrecklich viel Geld verbrelt hat in so

00:42:26: eine Art Schneemalsystem.

00:42:27: Und darum geht es auch eigentlich im Fokus.

00:42:31: Und dass man den ganzen Boybands passiert so im Hintergrund ist super unterhaltsam, ist

00:42:34: super gut.

00:42:35: Kann ich nur empfehlen.

00:42:36: Aber was da interessant ist, dass am Anfang der, ich glaube jeder Folge, auf jeden Fall

00:42:40: am Anfang der ersten Folge, wird gesagt, Achtung, hier gibt es ganz viele Interviewauszüge

00:42:47: von besagten Lou Pölner.

00:42:49: Und die sind mit einer AI generiert.

00:42:53: Das heißt, sie hat mal ein Buch geschrieben und aus diesem Buch liest ein digitaler Avatar

00:42:59: vor.

00:43:00: Das haben die super gut gemacht.

00:43:01: Der sitzt aus einem Schreibtisch.

00:43:03: Das ist so ein bisschen im VHS-Style.

00:43:05: Und wer dieser Hinweis nicht gekommen, hätte ich mich maximal gewundert, warum der da so

00:43:09: steif sitzt.

00:43:10: Aber mir wäre das nicht aufgefallen.

00:43:11: Ein schönes Beispiel dafür, dass AI wirklich auch mittlerweile in Bereichen zum Einsatz

00:43:16: kommen, wo man vielleicht gar nicht daran denkt.

00:43:17: Und auch wieder pläto je dafür auch bei uns in der Branche.

00:43:21: Und da passt eine Zahl zu, die ich mitgebracht habe.

00:43:25: Nämlich, dass sich ein Großteil der Finanzinstitute, insbesondere der Banken mit dem Thema AI

00:43:31: noch überhaupt gar nicht beschäftigen.

00:43:33: Das ist zwar eine Anflugstrichenstudie eines AI-Anbieters Snowflake.

00:43:40: Ich kenne die nicht, aber die haben sich damit mal ein bisschen beschäftigt und sind zu

00:43:44: einem Schluss gekommen, dass nur 47 Prozent der Banken, insbesondere in Deutschland überhaupt

00:43:49: mit dem Thema AI beschäftigen, was irgendwie, wie ich finde, wenig ist.

00:43:56: Auch vor dem Hintergrund, dass Beschäftigen ja oft nur ist, wir gucken jetzt mal bei

00:44:02: einem Chatboard, wir gucken jetzt mal, da haben da jetzt mal eine Person auf dem Thema sitzen,

00:44:07: sondern es findet ja noch gar nicht in der Breite oder in der breiten Anwendung statt.

00:44:11: Ein schönes Beispiel, wie gesagt, einmal von Netflix und auf der anderen Seite mal noch

00:44:17: eine Zahl packen wir mal in die Show notes rein und pläto je, dass wir uns in unserer

00:44:21: Branche intensiver damit beschäftigen, so wie wir zwei.

00:44:24: Dann?

00:44:25: Ja, machen wir ja immer.

00:44:28: Und dann habe ich mir noch so zwei, drei Tools tatsächlich angeschaut, also zwei, drei

00:44:33: sind tatsächlich nur zwei.

00:44:35: Einmal ein lustiges AI-Tool namens Let's Recast.

00:44:40: Und das ist wirklich wild.

00:44:42: Let's Recast ist eine Plattform und letztendlich Browser-Erweitung, wo ich unter Chrome jede

00:44:48: mir liebe Webseite, wir kennen das lange Webseite, lange Texte, keine Lust zu lesen, kann ich

00:44:55: mir als Recast erstellen lassen, also wie so eine Art Podcast, das heißt, es wird nicht

00:45:01: einfach nur vorgelesen, sondern es wird mit Zusammenfassung der Webseite gemacht, also

00:45:04: des Articles.

00:45:05: Und das mit einer entsprechenden natürlichen Stimme.

00:45:08: Leider nur in Englisch, man kann solche deutsche Webseiten da reinpacken, das ist gar kein

00:45:12: Thema, bekommt diesen Recast aber aktuell nur in Englischer Sprache.

00:45:17: Nicht so, dass du trotzdem, ich habe es jetzt zwei, drei mal ausprobiert, ich fand es super

00:45:20: cool, vor allen Dingen weil man es nebenher in der U-Bahn hören kann, ohne irgendwie jetzt

00:45:25: was lesen zu müssen oder auch beim Autofahren, das ist eigentlich eine witzige Idee.

00:45:29: Packen wir die Show Notes, kann man aktuell kostenlos testen.

00:45:34: Dann gibt es eine sehr witzige App namens Glif und ich muss ehrlich sein, ich kann das nicht

00:45:43: so 100% beschreiben, was es ist, es ist eine Art AI Baukasten, so was wie dieses, ja, Make.com

00:45:52: oder if, then, na, if this, then that, aber sehr viel einfacher, ich kann also dort mir

00:46:00: ja einzelne AI Apps bauen, es gibt auch vorgefertigte AI Apps und die kann ich dann, wie gesagt,

00:46:06: relativ leicht nutzen, indem ich dann Prompteintrage.

00:46:10: Am besten ist es wirklich sich das anzuschauen, es gibt dann nämlich zum Beispiel eine vorgefertigte

00:46:16: AI App, die es ermöglicht Webseiten zu bauen im Stil der 90er, das ist witzig und dann

00:46:22: kann man das schreiben.

00:46:23: Das ist wie geil.

00:46:24: Sehr witzig.

00:46:25: Oder eine AI App macht Aufkleber, so Sticker, die ich mir auch dann direkt runterlegen kann

00:46:31: und dann bei diversen Stickerdiensten produzieren lassen kann, dann kann man sagen, okay, mach

00:46:35: mir jetzt mal einen Sticker von einer Ameise, die gegen einen Gorilla kämpft und dann machen

00:46:39: die es so ein Comic-Style ist.

00:46:41: Super witzig, ist so ein bisschen rabbit hole, ich hab da gestern, glaube ich, nach halb

00:46:44: drei, vier Stunden mit rumgespielt.

00:46:45: Ich fand es cool, packen wir mit in die Show Notes.

00:46:50: Das war es von meiner Seite, viel mehr Nachrichten und tolle Tools habe ich nicht.

00:46:54: Wie gesagt, Urlaub sei Dank, ich gelove Besserung beim nächsten Mal, dass du weniger News mitbringen

00:47:01: und ich bringe ein paar mehr mit.

00:47:03: Herrlich, last week habe ich mir gerade runtergeladen und ich glaube, ich werde meine Nacht mit

00:47:07: Gliff verbringen.

00:47:08: Also wirklich mega.

00:47:10: Wie bedanken wir uns bei euch, dass ihr zugehört habt.

00:47:13: 19. Folge ist rum.

00:47:14: Nächstes Mal machen wir wieder ein kleine Anniversary mit 20.

00:47:17: Hat Spaß gemacht, vielleicht machen wir es direkt nächste Woche kurz bevor ich wegfahre

00:47:21: oder wenn ich dann unterwegs bin in der italienischen Hitze.

00:47:24: Genau, wenn ihr noch Ideen habt, schreibt uns eine E-Mail an hello@unpluggedpodcast.de.

00:47:29: Ab und zu gibt es ein ganz schönes Feedback von den Usern.

00:47:33: Auch schon mal vielen Dank dafür, dass ihr da direkt in den Dialog mit uns tretet.

00:47:37: Ansonsten sind wir auch über LinkedIn ansprechbar und wir würden sagen, bis bald, macht es

00:47:42: gut.

00:47:43: Bis bald, tschüss.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.