🎃 AI Update: News und Trends in KW 44

Shownotes

  1. Google: Testet KI-Agent „Jarvis“ für automatisierte Webaufgaben: https://www.theverge.com/2024/10/26/24280431/google-project-jarvis-ai-system-computer-using-agent
  2. Morgan Stanley aims to revolutionize Wall Street research with AI: https://www.finextra.com/newsarticle/44946/morgan-stanley-rolls-out-askresearchgpt-to-institutional-securities-staff
  3. Deutschland will führender KI-Standort in Europa werden: https://bmdv.bund.de/SharedDocs/DE/Pressemitteilungen/2024/088-wissing-deutschland-fuehrender-ki-standort.html
  4. Die Gefahr der Vermenschlichung der KI – Ein Verlust unserer Menschlichkeit?: https://theconversation.com/humanising-ai-could-lead-us-to-dehumanise-ourselves-240803
  5. Google: Veröffentlicht SynthID - das erste KI-Textwasserzeichen: https://www.techzine.eu/news/applications/125581/google-deepmind-makes-ai-watermarking-technology-synthid-open-source
  6. “red_panda”: Geheimnisvolles Bildgenerierungsmodell übertrifft Konkurrenz: https://techcrunch.com/2024/10/28/a-mysterious-new-image-generation-model-has-appeared
  7. plainGPT und GenoGPT – so kommt die KI ins Geno-Banking: https://www.it-finanzmagazin.de/atruvia-solution-days-plaingpt-genogpt-217743/
  8. Mutter verklagt KI-Firma und Google wegen Suizids ihres Sohnes: https://www.spiegel.de/netzwelt/florida-mutter-verklagt-ki-firma-character-ai-und-google-wegen-selbstmord-ihres-sohnes-a-428e4b04-f4d9-41d0-8c63-cf4d208be39a
  9. OpenAI plant die Veröffentlichung seines nächsten großen KI-Modells bis Dezember: https://www.theverge.com/2024/10/24/24278999/openai-plans-orion-ai-model-release-december
  10. ChatGPT mit Hex-Codes ausgetrickst: https://www.golem.de/news/ki-jailbreak-chatgpt-mit-hex-codes-ausgetrickst-2410-190310.html
  11. Elevenlab bringt Voice Design: https://x.com/elevenlabsio/status/1849083718838657186
  12. KI statt Coden: Macht uns GitHub Spark alle zu Entwicklern?: https://t3n.de/news/github-spark-ki-code-1654400/
  13. Whisper im Krankenhaus: KI-Tool macht aus harmlosen Patientengesprächen Gewaltfantasien: https://t3n.de/news/whisper-krankenhaus-ki-tool-patientengespraechen-gewaltfantasien-1654191/

Tools

  1. Perplexity Launches Native macOS App for AI-Powered Search: https://www.macrumors.com/2024/10/24/perplexity-ai-for-mac-now-available
  2. Canva kann auch AI: https://www.theverge.com/2024/10/22/24276662/canva-ai-update-new-text-to-image-generator-leonardo

Disclaimer Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

00:00:00: [Musik]

00:00:06: AI in Finance.

00:00:09: Der Anplugpodcast von Sascha Diewald und Mike Klotz.

00:00:14: [Musik]

00:00:22: Hallo und herzlich willkommen zur 26. Episode von AI in Finance,

00:00:28: mit dem Anplugpodcast von Sascha Diewald und Mike Klotz.

00:00:32: Das bin ich zum Thema künstliche Intelligenz im Zahlungsverkehr und Banking.

00:00:38: Heute lieber Sascha wird's spooky denn.

00:00:40: Ich gucke auf den Kalender, es ist Halloween, also unsere Halloween-Folge.

00:00:46: Ich bin etwas enttäuscht, dass ich keinen Kürbis sehe, aber gut,

00:00:49: du hast trotzdem spannende, unheimliche Nachrichten mitgebracht.

00:00:55: Ich sehe einen Kürbis, hat eine Mütze auf und eine neue Brille.

00:00:57: Ich bin vor mir und heiße Mike.

00:00:59: Wir hätten heute wirklich die Spooky-Sachen aufnehmen sollen.

00:01:03: Was mir nach Episode 26 Ammonorationen auffällt,

00:01:06: wir brauchen eine neue Anmoderation.

00:01:08: Vielleicht machen wir das ab Episode 30, wenn wir uns um den Jahresendspurten nähern.

00:01:13: Wir haben letztes mal eine Deep-Dive-Folge aufgenommen

00:01:16: zum Thema "Ditital Identity".

00:01:18: Die kam ein bisschen früher diese Woche, die haben wir am Wochenende aufgenommen.

00:01:21: Am Ende von meinem Urlaub letzte Woche.

00:01:23: Ich habe richtig viel Feedback dazu bekommen.

00:01:25: Auch tatsächlich, dass das gewünscht ist, solche Folgen mehr zu machen.

00:01:29: Und am allerliebsten im Wechsel mit News.

00:01:31: Deswegen haben wir heute keinen Deep-Dive, sondern wir haben News mitgebracht.

00:01:34: Vor allem von den großen typischen Verdächtigen,

00:01:36: also die Google-Amazon, Facebook, Meta,

00:01:39: für mehr ein bisschen was aus dem Banking-Bereich.

00:01:41: Ich würde sagen, ich starte einfach mal los.

00:01:44: Weil ganz viel gibt es auf jeden Fall von Meta.

00:01:46: Ich glaube, du hast auch ein bisschen was.

00:01:48: Aber was die jetzt gemacht haben, ist, die haben ein neues Open Source

00:01:51: "Tool" namens "Notebook Lama" für öffentlich,

00:01:54: was quasi auf dem Google Podcast Feature "Notebook Lama"

00:01:58: so ein bisschen zumindest auf der Idee basiert,

00:02:00: die du ja, glaube ich, vor zwei oder drei Episoden mal hier vorgestellt hast.

00:02:03: Weil jetzt kann Meta damit auch Texte in ein dynamisches und vor allem

00:02:06: podcastartiges Format überführen.

00:02:08: Und damit haben Sie jetzt erst mal Entwicklern,

00:02:10: ich würde sagen, flexiblen und auch Open Source Podcast Generator

00:02:13: zur Verfügung gestellt.

00:02:14: Das ist über GitHub erreichbar aktuell und das bietet damit,

00:02:17: dann am Ende auch Kundinnen und Kunden die Möglichkeit,

00:02:20: Kontrolle über ihre Daten zu behalten.

00:02:22: Und wir hatten eine ganze Menge unterschiedlichen Anlassmöglichkeiten,

00:02:25: zumindest haben Sie das vor.

00:02:26: Es gibt erste Tests und die sind noch so ein bisschen ruckelig,

00:02:29: also das ist noch nicht so attraktiv wie bei Google.

00:02:31: Das Ergebnis klingt wohl noch deutlich,

00:02:33: Hillzanner oder more robotic wird es beschrieben auf "Hugging Face".

00:02:37: Aber wie immer gilt, dass auch dieses Modell natürlich

00:02:39: ein paar Wochen einfach braucht, um besser zu werden.

00:02:42: Und es ist vor allem Open Source, das heißt,

00:02:44: es ist nicht so ein proprietäres Vorgehen, wie Google das macht.

00:02:47: Ich finde das sehr, sehr positiv.

00:02:48: Und ich finde auch, damit bietet Meta einfach eine flexiblere Alternative

00:02:52: zu diesen typischen proprietären KI-Modellen

00:02:55: und baut auch auf eine kollaborative Plattform.

00:02:58: Noch ist es nicht in Deutschland fügbar, ausschließlich auf Englisch.

00:03:00: Das heißt, wir müssen wie immer warten.

00:03:02: Aber ich werde es auf jeden Fall testen,

00:03:04: weil ich finde diese Idee, dass du dir alles Mögliche,

00:03:07: egal ob es eine Website ist, eine URL, ein Research Paper,

00:03:10: weißt du, toll wäre, was eine Präsentation

00:03:12: in ein spannendes Podcast-Format bringen kannst,

00:03:14: um dich auf eine andere Art und Weise zu unterhalten

00:03:16: oder unterwegs im Auto auf dem Fahrrad beim Laufen dir das vorlesen lassen.

00:03:20: Das finde ich richtig cool.

00:03:21: Ja, auf jeden Fall.

00:03:22: Und vor allen Dingen, du hast es ja eben gesagt,

00:03:24: es gibt bereits den Case, den kann man sich anschauen.

00:03:26: Jetzt nicht nur, wenn man irgendwie Entwickler ist

00:03:29: und auf Huggingface, wo wir uns so rumtreiben,

00:03:31: sondern es gibt ja von Google, da ist ein Outbook-LM

00:03:33: und da kann man sich in der Tat schon

00:03:35: seine eigenen Podcast sozusagen zusammenstellen.

00:03:38: Also wir machen uns quasi gerade arbeitslos.

00:03:40: Aber was ich halt total cool daran finde,

00:03:42: ist, anders als das, was Meta jetzt veröffentlicht hat,

00:03:45: richtigerweise noch ein bisschen hölzern,

00:03:47: wobei sie ja auch gesagt haben, das kommt,

00:03:49: das wird besser im Laufe der nächsten Wochen und Monate.

00:03:51: Es ist halt total krass, was Google da gebaut hat,

00:03:54: denn du kannst dir wirklich deinen eigenen Nachrichten

00:03:57: oder Themenkanal zusammenstellen.

00:04:00: Und das hört sich schon ziemlich cool an.

00:04:02: Und wenn du jetzt irgendwie sagst

00:04:04: und mich interessiert jetzt irgendwie ein Thema,

00:04:06: was jetzt podcastmäßig noch gar nicht abgedeckt ist,

00:04:09: dann kannst du dir da wirklich was zusammenstellen.

00:04:12: Und das ist schon cool.

00:04:14: Und es hat wie so viele Themen echt grasse Auswirkungen,

00:04:17: weil wir sind nach wie vor at the beginning sozusagen.

00:04:20: Und dafür ist das schon ziemlich gut.

00:04:22: Was noch fehlt, ist das ganze Thema Interaktivität.

00:04:25: Also dieses, wie wir das machen, wir unterbrechen uns,

00:04:28: wir beschimpfen uns, das passiert da natürlich nicht.

00:04:31: Aber wer weiß, vielleicht kommt das ja auch irgendwann.

00:04:34: Wenn das unser Alleinstellungsmerkmal ist,

00:04:36: müssen wir das deutlich öfter machen.

00:04:38: Ich hörte davon, dass das sehr wohl und wollen angenommen wird,

00:04:40: dass wir uns beinahe brechen und uns beide absolut maximal nicht ernst nehmen.

00:04:43: Wobei für die Hörerinnen und da draußen, wir nehmen uns ernst.

00:04:47: Die Älteren werden noch Günther Netzer

00:04:50: und wie sich andere Dellinger kennen,

00:04:53: die sich ja beim Fußball kommentieren auch immer regelmäßig

00:04:56: auf die Schuppe genommen haben.

00:04:58: Einziger Unterschied, wie sieht es uns nicht?

00:05:00: Noch nicht. Leider der Folge.

00:05:02: Herr Deewald, bitte.

00:05:04: Genau, ich habe noch was von, ne, du hast noch was von Meter.

00:05:07: Genau, dann mache ich weiter.

00:05:09: Ja, Suchmaschine, genau, die arbeiten an einer Suchmaschine.

00:05:11: Warum tun sie das?

00:05:13: Weil sie natürlich jetzt ein Momentum erkennen, also Meter.

00:05:16: Wir beide, Sascha, wir sind ja schon große Fans

00:05:19: und regelmäßige Nutzer von Perplexity.

00:05:22: Und in der Tat haben wir das ja auch schon ein paar Mal gesagt,

00:05:25: dass Perplexity löst so die klassische Suchmaschine ein Stück weit ab,

00:05:29: also in dem Fall Google.

00:05:31: Bingt habe ich eh nie.

00:05:33: Von der Seite kann man schon sagen, dass das Thema sich gerade verändert.

00:05:36: Also, wir suchen, also Informationen werden anders an uns herangetragen.

00:05:40: Und der Meter erkennt quasi dieses Momentum und denkt sich,

00:05:44: na ja, wenn nicht jetzt, wann dann,

00:05:48: und arbeitet daran, quasi eine Suchmaschine zu erstellen,

00:05:52: um Menschen Informationen leichter zugänglich zu machen

00:05:56: und integriert ist das oder soll es werden in allen Chatbots,

00:05:59: die Meter so anbietet.

00:06:01: Also überall, wo Meter drin ist später WhatsApp und Co.

00:06:04: Das wird man dann suchen können und das baut man jetzt gerade

00:06:07: oder möchte man viel mehr bauen.

00:06:09: Na, die sind halt hardcore abhängig in ihren Metakai-Bot

00:06:12: von Google und von Microsoft Bing,

00:06:14: wo sie quasi alles zu aktuellen Nachrichten und Ereignissen

00:06:17: immer mit drin haben.

00:06:19: Und ich glaube genau diese Abhängigkeit wollen sie jetzt rausnehmen

00:06:21: und deswegen halt irgendwie selber eine Suchmaschine

00:06:23: für ihre eigenen Services entwickeln.

00:06:25: Also ich glaube, das ist ein smarter Move,

00:06:27: ob es noch so relevant ist,

00:06:29: dass das dann irgendwie auch in der Art und Weise der Suche zu verarbeiten

00:06:31: mal sehen, aber haben wir auch gerade neulich drüber gesprochen,

00:06:33: dass man dann für Plexity genau das jetzt auch macht

00:06:35: und so ein bisschen in diesen von Google dominierten Suchmarkt

00:06:38: quasi reingeiten will.

00:06:41: Genau, gehen wir direkt zu Google, die arbeiten jetzt laut

00:06:44: Insidern an einem Project Jarvis, nennt sich das.

00:06:47: Das ist ein KI-Agent, der in der Lage sein soll,

00:06:50: so ganz alltägliche Aufgaben im guten alten Internet-Browser

00:06:53: zu übernehmen für dich und damit quasi Kunden*innen und Kunden

00:06:56: bei total einfachen und routinemäßigen Alltagsaufgaben

00:06:59: zu unterstützen. Das ist beim Einkaufen.

00:07:01: Das ist typische Recherche, die du so hast,

00:07:03: aber tatsächlich beim Buchen von Reisen.

00:07:06: Und da gibt es einen guten Link auf die Information,

00:07:08: das ist ein Tagblock, den wir auch gerne mal verlinken.

00:07:10: Und nachdem soll Jarvis bereits im Dezember diesen Jahres

00:07:13: vorgestellt werden, ein genaues Datum

00:07:15: und wo das Ganze veröffentlicht werden soll, gibt es noch nicht.

00:07:18: Aber es steht drinnen, dass das eigentliche Ziel wirklich sein soll,

00:07:21: alltägliche und weitbasierte Aufgaben komplett zu automatisieren.

00:07:25: Und dabei soll es einen Agent geben, der arbeitet so ähnlich wie auch der

00:07:28: von Microsoft, den haben wir ja auch schon mal vorgestellt,

00:07:31: also der auf Coopilot basierte Konkurrenz, Konkurrent,

00:07:35: indem er einfach kontinuierlich Screenshots vom Bildschirm aufnimmt

00:07:40: und diese dann im Hintergrund analysiert, um Aktionen,

00:07:43: wie, keine Ahnung, klicken auf dem Button oder es eingeben von Text,

00:07:46: direkt live dabei zu lernen und dann selbstständig mehr und mehr

00:07:50: ins Proaktive Doing reinzukommen.

00:07:53: Und diese Interaktionen erfolgen dann wohl mit einer Verzögerung

00:07:56: von sehr wenigen Sekunden zwischen den Aktionen.

00:07:58: Ich glaube bei Coopilot haben sie damals zwei Sekunden,

00:08:01: ich glaube aktuell sind es fünf, weil das Buffering krass viel Traffic

00:08:04: auch kostet und die wollen tatsächlich auch auf zwei bis drei Sekunden

00:08:07: hier gehen bei Google.

00:08:09: Und ich glaube halt auch, das zeigt mal wieder, dass dieser Wettbewerb

00:08:11: um KI geschützte Agenten, die dann komplexe Aufgaben auf Knopfdruck

00:08:15: übernehmen, sich immer weiter zuspitzt und das, wie gesagt,

00:08:18: das Konkurrenzprodukt von Microsoft, also der Coopilot,

00:08:21: der soll sich ja auch bald mit den Nutzern über die Inhalte von Websites

00:08:25: dann direkt unterhalten können, die sie dann besucht haben.

00:08:27: Und ich habe es auch gelesen, dass Apple Intelligence ab Mitte 25

00:08:30: zumindest das auch plant, zumindest die Inhalte vom Webbrowser

00:08:35: mit einzuspeisen.

00:08:37: Also was jetzt schon geht bei Apple Intelligence,

00:08:39: Apple Intelligence sieht schon, was auf deinem Display ist,

00:08:42: also das funktioniert schon und eine Webseite ist letztendlich auch

00:08:45: nicht so viel anders, wobei natürlich da immer noch scrollen muss

00:08:48: und so weiter.

00:08:49: Ich finde es total krass auch vor dem Hintergrund,

00:08:51: dass wir ja AI in Finance sind und Finance hat ganz viel mit natürlich

00:08:54: Banking, mit Investment und Code zu tun.

00:08:56: Und wenn ich natürlich sehe, was die Person gerade so alles

00:08:59: treibt, kann man natürlich irgendwann auch entsprechende

00:09:02: Empfehlungen ausgeben.

00:09:04: Also wenn ich jetzt bei Emo Scout unterwegs bin,

00:09:06: als mal so gesponnen und Coopilot oder in dem Fall Jarvis,

00:09:11: lustiger Name übrigens für alle Avenger-Freunde da draußen,

00:09:14: oder Superhelden-Film-Fans, dann liegt es ja total nahe,

00:09:19: dass mir Jarvis dann sagt, was mal auf, ich habe gerade gesehen,

00:09:22: die DKB beispielsweise oder aber die Sparkassen bieten gerade

00:09:25: eine interessante Immobilienfinanzierung an.

00:09:27: Du bist auch hier gerade am Gucken.

00:09:29: Das sind natürlich tolle Use-Cases, die total naheliegend,

00:09:32: auf der anderen Seite natürlich auch wiederum Spooky,

00:09:35: Stichwort Halloween.

00:09:37: Ich weiß noch nicht, ob ich das cool finde, wenn beispielsweise

00:09:39: Jarvis oder irgendwann von Amazon ein entsprechendes Tool weiß,

00:09:42: was ich tu und mir permanent irgendwelche Sachen in den

00:09:44: wahren Coop legt oder aber vielleicht auch schon bestellt,

00:09:47: das wäre dann so die Down-Side.

00:09:49: Aber nachvollziehbar, dass man an solchen Themen arbeitet.

00:09:52: Das Krasse ist, Sascha, wir hatten das ja letzte Woche auch

00:09:56: mit Claude von Entropic, dieses ganze Thema Automatisierung.

00:10:01: Also ich komme immer mehr zu dem Punkt, dass wir irgendwann

00:10:05: wirklich von dem Rechner sitzen.

00:10:07: Ich weiß auch gar nicht, ob es dann noch ein Rechner ist,

00:10:09: ehrlicherweise, wo du nur noch sagst, Mach halt, füll das PDF aus

00:10:13: und man ist irgendwie nur noch am Scrollen und am Informationen

00:10:16: irgendwie konsumieren und hinten raus die Arbeit,

00:10:20: die macht dann ja der Coop-Heile, Jarvis oder wer auch immer.

00:10:24: Das ist auch so ein Großvaterwort von dir, eine Rechner.

00:10:27: Ich seh dich immer mit so einem alten Rechenschieber irgendwie

00:10:29: so ein Abakus irgendwie noch vor dir sitzen.

00:10:32: Also du hast da recht mit diesem ganzen Workflow-Automatisierungsthema.

00:10:36: Wie denn? Also was sagt man denn?

00:10:38: PC ist dann schon fast 1985 und Windows 3.1 stark.

00:10:45: Wir machen noch mal ein Glossar für dich auf.

00:10:48: Boomer, Genzi, Glossar, glaube ich.

00:10:50: Aber ist ja okay, wir brauchen ja auch ein paar Boomer irgendwie

00:10:52: als Hörer, von daher bilden wir die Generation hier glaube ich

00:10:54: ganz gut ab.

00:10:55: Was ich ja ganz doll hoffe bei diesem ganzen Zeug,

00:10:58: was wir letzte Woche diskutiert haben, auch lange zum Thema Agentic,

00:11:01: AI, das jetzt quasi nach dieser Phase der trivialen Chatbots

00:11:05: nun die Ära von diesen KI-Agenten wirklich beginnt, die nicht nur sagen,

00:11:09: okay, der Mike hat mir einen Prompt geschrieben

00:11:11: und jetzt durchsuche ich dieses Research Paper genau danach,

00:11:15: sondern ich kann ganz viele Aufgaben aneinander bündeln

00:11:18: und der erkennt irgendwann, das ist jetzt kein wirkliches Denken,

00:11:21: aber tatsächlich einfach in der Folge Konstellation,

00:11:24: dass daraus halt auch ein Call to Action oder irgendein Task

00:11:27: generiert werden muss, wie bei einer Reisebuchung zum Beispiel,

00:11:29: oder wenn er das in irgendeinem Kalender sieht,

00:11:32: dass daraus tatsächlich automatisierter Task entsteht.

00:11:35: Ich glaube die klassischen Bedenken, die können wir jetzt hier auch nicht wegwischen.

00:11:38: Vielleicht machen wir dazu auch noch mal eine Folge.

00:11:40: Also wie datenschutzkonform ist es eigentlich,

00:11:42: wenn dein AI-Agent quasi permanent Screenshots von deinem Bildschirm macht,

00:11:47: die müssen ja irgendwo auch gestorbt werden.

00:11:49: Bei Apple Intelligence hätte ich jetzt die Hoffnung,

00:11:51: dass das halbwegs lokal oder hundertprozentig lokal zumindest erfolgt.

00:11:54: Bei Google und Co würde ich darauf jetzt ganz sicher nicht werden.

00:11:57: Aber auch hier, das Thema Datenschutz ist ja letztendlich alles,

00:12:01: habe ich mal gelernt von schlauen Anwälten, etwas, was man abfragen kann.

00:12:05: Und ich könnte mir vorstellen, wenn der Nutzen bei den Menschen da draußen so groß ist,

00:12:09: das erinnert mich so ein bisschen an die Facebook Challenge,

00:12:12: welches Eichhörnchen oder welcher Eichhörnchen Typ bist du.

00:12:15: Ja, da klicken die Leute auch drauf auf sieben Meter lange Datenschutzbestimmung

00:12:18: und geben alle ihre Bilder und keine Ahnung, was frei,

00:12:20: nur um zu erfahren, ob ich jetzt ein Krawus oder ein Braunus-Eichhörnchen bin.

00:12:23: Also das ist alles immer eine Frage des Case dahinter.

00:12:26: Aber ja, das Thema Datenschutz,

00:12:28: und wir haben ja in Europa zumindest den UAI-Akt,

00:12:31: der dazu führt, dass wir zumindest mal später dazu zu solchen Themen dann kommen.

00:12:37: Apple Intelligence soll ja jetzt tatsächlich dann im nächsten Jahr doch nach Europa kommen.

00:12:41: Ich glaube, April 2025 ist es dann soweit.

00:12:44: Das hat natürlich durch so eine Regulatorik oder hat mit solch einer Regulatorik zu tun.

00:12:49: Und ich finde es gut, dass es es gibt.

00:12:50: Und hoffe auch, dass bei solchen neuen Agenten uns Europa oder die Regulatoriken schützt,

00:12:57: ein Stück weit zumindest schützt, nicht stützt, schützt, wollte ich sagen, genau.

00:13:03: Ja, gehen wir mal einen Schritt ins Banking wieder rein.

00:13:07: Wir nennen uns ja AI in Finance und so.

00:13:09: Wahnsinnig viele Themen waren es jetzt in den letzten zwei, drei Wochen so gar nicht.

00:13:13: Aber es gibt was vom amerikanischen Banken-Gigant, kann man sagen, morgens,

00:13:18: die haben diese Woche etwas gestartet, das nennt sich ASK Research GPT.

00:13:23: Das ist auch eine generative KI, die die Nutzung und die Analyse von Research für Investmentbanking neu aufstellen soll.

00:13:29: Und auch wieder die gesamte Kette des Investmentbankings durch.

00:13:32: Und dann wird es in Form, Research über den Vertrieb, in den eigentlichen Handel hinein.

00:13:37: Und diese KI soll dann erstmal auf Open AI GPT vorbasieren und die soll am Ende der Arbeit dann dabei helfen,

00:13:43: diese vielen, vielen Forschungsberichte im Investmentbanking effizienter zu analysieren und zusammenzufassen.

00:13:48: 2023 hat Morgan Stanley wohl analysiert selbst.

00:13:51: Haben sie 70.000 Forschungsberichte von einfach Junior Analysts und Business Analysts,

00:13:56: hat irgendwie durchforsten lassen und dann versucht auch halbwegs aktuell zusammenzufassen.

00:14:01: Das ist ja niemals in Echtzeit und wahrscheinlich auch immer so ein bisschen subjektiv geprägt.

00:14:05: Und die Plattform ermöglicht es dabei jetzt quasi direkt einen Zugriff,

00:14:09: innerhalb von diesen typischen täglichen Workflows, diesen Investmentbanker, da hat im Handelsraum,

00:14:14: auf eine Vielzahl von Produktivitätstools noch einzubinden.

00:14:17: Und zum Beispiel soll in dem ersten Schritt dann auch automatische E-Mailentwürfe

00:14:20: mit diesen ganzen verlinkten Quellen, die gefunden werden durch die eigene AI, dann erstellt werden,

00:14:26: so dass die Mitarbeitenden nur noch die Analysen einfach direkt mit den Kunden teilen können,

00:14:30: ohne dass sie sich die selber ganz ausführlich zu Gemüte führen müssen.

00:14:34: So ein bisschen wie bei Perplexity, dass auch der Zugriff auf die Originaldaten

00:14:38: und auf die Primär-Kreisenden erhalten bleibt.

00:14:40: Trotzdem ist es natürlich, ich meine, wir reden hier über Finanzdaten,

00:14:43: wo dann meistens dann auch echte Investmententscheidungen im Investmentbanking

00:14:46: und im Assetmanagement natürlich rausresultieren.

00:14:49: Das heißt, das muss wirklich Hand und Fußhaben und eindeutig und einzigartig sein.

00:14:53: Aber ich glaube, gerade dieser zeitliche Vorsprung ist auch etwas,

00:14:57: wo sich gerade die ganzen großen Investmentbanken drum herum versammeln.

00:15:01: Und laut Morgen Stanley hat die KI bereits jetzt die Effizienz erheblich gesteigert.

00:15:05: Müssen Sie wahrscheinlich auch sagen, sonst würde niemand mehr benutzen.

00:15:08: Aber was Sie jetzt zumindest bekannt gegeben haben in der Pressemitteilung diese Woche,

00:15:12: war, dass der Vertrieb die Kundenanfragen wohl zehnmal schneller beantworten kann als vorher

00:15:16: und wohl auch die Nutzung Ihres neuen Modells hat sich im Vergleich zu früheren Maschinenlearning-Lösungen verdreifacht.

00:15:22: Was vor allen glaube ich zeigt bzw. per Pressemitteilung zeigen soll,

00:15:26: dass die Mitarbeiter das Tool schätzen und es zumindest vermehrt einsetzen.

00:15:30: Ich sage nur, ja. Nichts sind Stiften, das Sie beitragen.

00:15:35: Aber es geht weiter, nämlich nicht ganz im Banken, aber wie sagt man, im Regierungsumfeld.

00:15:41: Ich weiß nicht, wie ich es anders sagen soll. Es war nämlich letzte Woche ein KI oder für mir ein Digitalisierungsgipfel.

00:15:47: Ich hieß das schöne Ding von der Bundesregierung. Also der Digitalgipfel 2024 war letzte Woche

00:15:53: unter anderem war ein Habeck unter Wissing vor Ort.

00:15:57: Und was möchte man das Deutschland nämlich nicht nur KI-Voreiter, sondern ehrlicherweise sogar KI-Standort in Europa wird?

00:16:07: Das finde ich ein bisschen lustig, weil ich habe mal gelernt, ich will Kinder kommen in die Suppe.

00:16:12: Also man kann immer ganz viel wollen und ehrlicherweise, wenn wir uns die digitale Agenda

00:16:17: und auch die Digitalisierung in Deutschland ganz generell anschauen.

00:16:20: Wir hatten letzte Woche in unserem Podcast über das Thema digitale Identitäten gesprochen

00:16:25: und ich bin mir nicht mehr sicher, ob wir diesen Case genannt haben, dass die digitale Behörde in Berlin.

00:16:31: Ich glaube, wir haben kurz drüber gesprochen, wie traurig es eigentlich aussieht beim Thema Digitalisierung.

00:16:36: Und die Bahnfahrerinnen und Bahnfahrer unter uns wissen, wie auch die Abdeckung beim Thema Internet in Deutschland ist,

00:16:43: um die Abdeckung gestellt ist.

00:16:45: Von der Seite bin ich noch etwas skeptisch, dass man das Ziel nämlich zum führenden KI-Land in Europa sein möchte,

00:16:51: inwiefern man das Ziel erreicht.

00:16:53: Ja, also man kann sich immer viel wünschen.

00:16:56: To be honest, ich könnte mir vorstellen, dass wir das Ziel vielleicht nicht ganz so schnell erreichen, wie man sich das wünscht.

00:17:02: Trotz alledem scheint es angekommen zu sein, dass das Thema künstliche Intelligenz auch für Deutschland ein ganz wichtiges Thema ist.

00:17:11: Ja, zumindest haben Sie irgendwie, also Sie kamen aus dem Schwärmen nicht raus, der Wissing und der Habeck,

00:17:16: und haben wirklich, wie du sagst, das Ziel proklamiert, dass Deutschland der führende KI-Standort in Europa

00:17:22: werden soll mit einem ganz klaren Fokus auf den Mittelstand und auf exzellente Forschungsbedingungen.

00:17:28: Ich habe das gelesen, ich dachte, das ist irgendwie ein bisschen Postellion,

00:17:31: bin dann irgendwie tiefer eingetaucht und habe mir das Video auch einmal angeschaut, wo die, also, was,

00:17:36: gefühlt so ein bisschen wirklich, wie ich formuliert habe, ohne dass es despektilig ist.

00:17:40: Also keine Ahnung, was die vorher geraucht haben, aber es ist wirklich, es ist mir nicht gelungen, #nichtdespektilig.

00:17:47: Aber es ist wirklich krass, Sie haben jetzt ein neues Projekt ausgerufen, ja, #MissionKI.

00:17:52: #MissionKI, sagen wir auch ganz klar #MissionKI, es ist nicht MissionKI oder MissionKI, sondern MissionKI,

00:17:58: und die sagen auch, es sollen neue Testzentren geben, die also diesen praktischen KI-Einsatz fördern.

00:18:03: Sie wollen ganz viele Unternehmen bauen, die dann bei rechtlichen und technischen Fragen unterstützen

00:18:08: und gelingen soll das Ganze vor allem über eine KI-freundliche Gesetzgebung, was so ganz witzig ist,

00:18:13: weil wir haben ja gerade den von die auch zitierten EUAI-Act, der natürlich auch eine nationale Gesetzgebung,

00:18:19: genau wie es im Gesetzestext in Brüssel jetzt auch verankert wurde, festgeschrieben hat.

00:18:23: Das heißt so wahnsinnig wie Interpretationsspielraum hast du da nicht,

00:18:26: und wenn wir uns jetzt die letzten Editionen von europäischem Recht anschauen,

00:18:30: um was die Deutschen daraus gemacht haben, zum Beispiel GDPR, mit dem dann doch sehr auch überzogenen

00:18:35: Bundesdatenschutzgesetz als Interpretation, dann bin ich maximal skeptisch, ja.

00:18:40: Aber die sagen zum Beispiel auch, sie wollen spezielle KI-Zentren bauen,

00:18:44: also zum Beispiel mit dem Verding von, was in ALEF-Alpha oder oben ALEF-Alpha gebaut wurde.

00:18:48: Um diese dann zu testen und dann auch voranzubringen,

00:18:51: es ist jetzt gerade ein weiteres Testzentrum in Kaiserslautern bereits eröffnet,

00:18:56: und es sollen jetzt Osnabrück und Berlin Anfang des nächsten Jahres dann auch folgen,

00:19:01: wo dann auch entsprechend viel Geld und damit auch Budget und Ressourcen reingepunkt werden.

00:19:05: Ja, ich glaube, da können wir, du hast es wunderbar auf den Punkt gebracht.

00:19:09: Also das Video ist wirklich, nennen wir es interessant, und wenn ich ehrlich bin,

00:19:14: ich glaube, man kann sich mal in der ganzen Folge diesem Thema widmen, nämlich KI-Standort,

00:19:18: nicht Europa, sondern tatsächlich Deutschland.

00:19:20: Und es mangelt ja an ganz, ganz vielen Dingen, es mangelt an Investition, es mangelt an Mut,

00:19:25: es mangelt auch an einer freundlichen Gesetzgebung.

00:19:28: Du hast es auch wunderbar gesagt, also wir neigen ja in Deutschland dazu,

00:19:32: Gesetzgebungen immer so auszulegen, dass sie für teilnehmende Protokonisten,

00:19:38: in dem Fall Unternehmen, maximal schwierig sind in der Umsetzung.

00:19:42: Das sind ja Leitplanken und man kann sie ja so auslegen und so auslegen,

00:19:46: ich bin mir nicht sicher, ob wir sie immer sehr unternehmensfreundlich auslegen.

00:19:49: Aber ganz ehrlich, ich würde vielleicht wirklich mal vorschlagen,

00:19:52: lass uns mal zu einem KI-Standort Deutschland, und das ist ja eigentlich was Traurig,

00:19:56: mal eine Folge machen.

00:19:58: Auch mal vielleicht zu gucken, welche Player gibt es eigentlich in Deutschland.

00:20:01: So viel gibt es ja nicht.

00:20:02: Es wird eine kurze Folge.

00:20:04: 10 Minuten fertig.

00:20:05: Na ja, gut, lass uns weiter machen.

00:20:08: Du hast eine Nachricht mitgemacht, die Gefahr der Vermenschlichung der KI.

00:20:11: Ja, ich konnte es wieder nicht lassen, ich bin wieder irgendwie in meinen Rabbit Hole reingestiegen.

00:20:14: Nachdem wir ja in den letzten 2-3 Wochen immer noch ein bisschen mehr Zeit haben.

00:20:17: immer wieder über die Tools wie Replica gesprochen haben, also diese digitalen Begleiter, die

00:20:22: sich menschlich anfühlen und dann auch teilweise sogar romantische Beziehungen simulieren können.

00:20:27: Und es gibt einfach wirklich eine wachsende Beliebtheit, nicht nur von mir, sich mit dem

00:20:30: Thema auseinanderzusetzen, sondern auch die Nutzung der Apps, was halt einfach zeigt,

00:20:34: dass immer mehr Menschen dazu bereit sind, emotionale Bindung mit einer KI anzugehen.

00:20:37: Oh, na jetzt...

00:20:38: Bist du bereit?

00:20:39: Ich bin noch nicht bereit.

00:20:41: Noch habe ich emotionale Bindung mit dir, so, wöchentlich.

00:20:44: Gut.

00:20:45: Genau, aber es gibt ja echt viel Kritik und ich habe mich jetzt auch mal so gefragt, warum

00:20:49: ist das eigentlich so problematisch?

00:20:51: Und da gibt es auch einen schönen Artikel, der das auch ein bisschen nochmal aus einer

00:20:55: ganz anderen Perspektive beleuchtet, als wir die letzten zwei, drei Folgen das diskutiert

00:20:59: haben.

00:21:00: Aber ich glaube, die Konklusion ist, dass wenn wir so KI-typische menschliche Eigenschaften

00:21:05: dann auch zuschreiben, dann neigen wir einfach auch natürlich dazu, Gefühle für die zurückzuentwickeln.

00:21:11: Und manche Nutzer und Nutzerinnen können sich dann zum Beispiel ganz stark an ihre digitalen

00:21:15: Freunde binden, was dann natürlich genau diese ethischen Fragen aufwirft.

00:21:19: Weil was passiert denn dann eigentlich, wenn diese Freunde plötzlich verschwinden?

00:21:23: Und ich freue mich jetzt hier im Podcast quasi in Anführungsstrichen, aber das sieht man

00:21:28: nicht.

00:21:29: Weil wenn, keine Ahnung, die dann gekündigt werden, aufgekündigt, wenn die Unternehmen

00:21:33: hinter der künstlichen Intelligenz ihre Dienste vielleicht sogar einstellen.

00:21:37: Weil egal wie auch immer, wenn sie verschwinden, diese Bindung mag zwar digital sein, aber

00:21:43: die entstandenen Gefühle sind für den Menschen natürlich dann real.

00:21:45: Also sie werden real ausgelöst.

00:21:47: Und wenn wir Empathie, also das eigentliche Mitfühlen mit anderen Individuen an der Stelle

00:21:53: auf programmierte Funktionen reduzieren, laufen wir natürlich auch immer Gefahr, dass wir

00:21:57: ein Stück weit unsere eigene Menschlichkeit dabei verlieren oder dass sie zumindest ganz

00:22:02: stark standardisiert wird.

00:22:03: Weil KI kann ja Empathie nicht fühlen.

00:22:06: Die können das ja nur simulieren.

00:22:07: Also die faken das ja nur, wenn man so will.

00:22:10: Natürlich auch nicht bewusst, sondern einfach weil das die Art und Weise der Programmierung

00:22:13: ist.

00:22:14: Aber wenn wir zu sehr auf KI für emotionale Unterstützung setzen, dann kann es natürlich

00:22:19: passieren, dass Menschen, die das extrem dann auch machen, in echten menschlichen Beziehungen

00:22:24: dann auch einfach nur anders sind.

00:22:26: Die sind vielleicht weniger geduldig, weil der Mensch vielleicht dann doch mal ein bisschen

00:22:29: nachdenken muss, eine eigene Emotion verarbeiten etc.

00:22:31: Und das kann sogar das zu führen, dass wir einfach viel mehr abstumpfen und einfach deutlich

00:22:36: weniger empathisch sind.

00:22:37: Es kann sogar dazu führen, dass sich Menschen das Leben nehmen.

00:22:39: Denn das ist passiert leider in Florida und da gibt es momentan auch eine Mutter, die

00:22:45: Character AI, was genau so ein Unternehmen ist, die sich spezialisiert haben auf emotionale

00:22:50: Assistenten.

00:22:51: Und dort ist folgendes passiert, dass sich der 14-jährige Sohn quasi in einen solchen

00:22:56: Character verliebt hat.

00:22:57: Also auch viel Geld bezahlt hat dafür.

00:23:00: Also das premium Abo hatte der viel Geld.

00:23:03: Also das stimmt jetzt nicht, aber er hat im Premium Abo.

00:23:05: Und diese emotionale Bindung oder viel mehr die Erkenntnis, dass es am Ende dann doch

00:23:10: nur irgendwie ein Bord ist, war so traumatisierend, so die Klage, dass sich der 14-Jährige in

00:23:17: der Pubertät befinden, einen offensichtlich emotional nicht sonderlich gestärkter Jugendliche

00:23:21: sich dann leider hat das Leben genommen.

00:23:24: Inwiefern das alles dann am Ende damit zusammenhängt, das müssen andere Menschen entscheiden.

00:23:29: Aber was du gerade gesagt hast, es gibt nicht nur die Gefahr, dass man reguläre Beziehungen

00:23:35: vielleicht nicht mehr vernünftig leben kann.

00:23:38: Es gibt auch glaube ich die Gefahr, dass man irgendwann erkennt, dass dieser Chatbot

00:23:43: vielleicht doch nur alles Fantasie ist und das kann traumatisierend sein.

00:23:47: Also total.

00:23:48: Ja, also ich meine in diesem speziellen Fall war es ja sogar so, dass das Character AI,

00:23:53: das irgendwie so gebaut hat, dass es sich wirklich auch als echte Person irgendwie ausgibt,

00:23:58: sogar als sogenannte, also als echter Psychotherapeut und irgendwie als Erwachsener dann auch.

00:24:03: Und die haben dann ganz viel hin und her geschrieben und irgendwie ging es dann sogar darum, dass

00:24:09: der Junge entsprechend halt irgendwie über potentiellen Suizid dann irgendwie auch mit

00:24:13: dem Bord geschrieben hat und dann hat der Chatbot, wo reagiert und da gibt es irgendwie

00:24:18: auch Screenshots, dass es kein Grund ist es nicht durchzuziehen.

00:24:21: Also es ist nicht nur ein Nicht-Verhindern, sondern also fast schon so ein passiver Aufruf.

00:24:26: Also ich will gar nicht so tief in dieses Thema hier aufgehen, wir verlinken, das ist ein

00:24:29: Spiegelartikel tatsächlich sehr, sehr gut und sehr, sehr spannend geschrieben.

00:24:33: Aber das zeigt quasi einmal mehr, dass wir einfach diese, also zum einen diese ganzen

00:24:38: übertriebenen Versprechungen, die solche Anbieter machen über echte Empathie, das

00:24:42: muss halt einfach reguliert werden.

00:24:44: Und ich glaube grundsätzlich brauchen wir einfach eine ganz klare Rekulatorik in diesem

00:24:48: Bereich, um dabei zu helfen, so diese emotionale Ausbeutung, die das offensichtlich ist, zu

00:24:53: verhindern und diese Nutzerinnen und Nutzer zu schützen.

00:24:55: Und da haben wir auch ein letztes Mal drüber gesprochen in der letzten Folge, auch hier

00:25:00: denke ich wieder daran, dass wir eine Ein-Ein-Deutigkeit brauchen.

00:25:04: Also momentan ist das alles noch relativ klar.

00:25:06: Ich gehe auf die Webseite von CharacterAI und im besten Fall weiß ich, das ist jetzt

00:25:10: alles nicht echt, das ist ein Chatbot, das ist niemand, der mir also keine echte Person.

00:25:14: Aber wenn wir jetzt mal noch ein paar Jahre weiterdenken und mir einen WhatsApp-Kontakt

00:25:19: auf einmal sich bei mir meldet und ich nicht mehr weiß, oder ich glaube, das ist ein alter

00:25:23: Schulfreund, mit dem ich hier gerade schreibe und in Möglichkeit ist das irgendwie ein

00:25:27: Chatbot, der emotional so gut oder so gut weiß, wie umzugehen, weil er so eine große

00:25:33: Empathie entwickelt.

00:25:34: Deswegen brauchen wir ganz, ganz dringend eine Ein-Ein-Deutigkeit oder eine eindeutige

00:25:38: Matierung, Stichwort digitale Identität, die dann auch klar macht, pass mal auf lieber

00:25:44: Michael und er hält sich zwar jetzt gerade gut mit Sascha, aber das ist nicht der echte

00:25:48: Sascha, sondern das ist halt sein Bot, der einfach gerade mehr Zeit hat als der echte

00:25:52: Sascha.

00:25:53: Genau.

00:25:54: Genau.

00:25:55: Was wir demnächst auch mal einführen sollten, jetzt unabhängig von dem Thema, ist aber

00:26:00: das, wenn wir Quatsch erzählen, dann gibt es so eine kleine Kaffekasse von uns beiden.

00:26:04: Ich habe ja beim letzten Mal erwähnt, dass ich immer irgendwie das Wort "eineindeutig"

00:26:07: für mich falsch verwende.

00:26:08: Liebe Grüße an Tilo, der mich mal wieder darauf hinweist.

00:26:11: Diesmal das letzte Mal gemacht.

00:26:12: Ja, klar.

00:26:13: Also grundsätzlich, aber diesmal sogar zweimal.

00:26:15: Das haben ja irgendwie hier Freunde, Grüße gehen raus an Jochen und Andre Bayerath vom

00:26:21: Peminent Banking Podcast, die haben doch von Anfang an auch so eine hier kasselige Founce,

00:26:25: wenn sie sich von uns zeigen.

00:26:26: Das Wort "Bank".

00:26:27: Genau.

00:26:28: Das hat ja andere früher tatsächlich sehr inflationär verwendet, mit der Weile gar nicht

00:26:30: mehr.

00:26:31: Wahrscheinlich musste irgendwie Jochen das eine oder andere Fassbier ausgeben dafür.

00:26:34: Was machen wir jetzt auch?

00:26:35: Ich glaube, das Haus von Jochen wurde da so finanziert.

00:26:38: Ich bin mir nicht sicher, ich spass bei sei.

00:26:40: Aber ja, lass uns das einführen.

00:26:41: Aber wir können nahtlos weitermachen, weil wir haben ja über das Thema ID gesprochen

00:26:45: und wenn wir beim Thema ID sind, da lese ich hier gerade das Thema, wie wird es ausgesprochen,

00:26:50: Synth ID?

00:26:51: Ja, es ist synth, also Synthetisierung oder Syndicate quasi auf ID.

00:26:56: Das ist so ein KI-Wasserzeichen und es passt total gut auch in das, was wir letzte Woche

00:27:01: gemacht haben zum Thema Digital Identity.

00:27:03: Google hat jetzt dieses synth ID Text veröffentlicht.

00:27:07: Es ist also eine neue Technologie, die es dann Entwickler und Entwicklerinnen ermöglichen

00:27:11: soll, wirklich unsichtbare Wasserzeichen in KI-generierten Text zu hinterlassen und diese

00:27:16: später aber auch wieder erkennbar zu machen.

00:27:17: Und da gibt es jetzt in der aktuellen Ausgabe, habe ich es gefunden vom Fachmagazin Nature,

00:27:23: in den Artikel, in dem Forscher von dem Google DeepMind beschrieben haben, wie sie mit Hilfe

00:27:28: von Synth ID Text-Wasserzeichen in Texte einfügen, die dann zum Beispiel von Gemini

00:27:33: Chatbot verwendet werden.

00:27:35: Das heißt, dieses Synth ID fügt dann subtile Wasserzeichen in die Tokenverteilung eines

00:27:41: Textes ein, die dann von der Software erkannt wird, aber von einem Menschen nicht bemerk

00:27:46: werden kann, weil das halt einfach so klein und subtile ist.

00:27:49: Das haben sich mittlerweile auch wieder Open Source verfügbar gemacht, sowohl auf Hugging

00:27:53: Face als auch in diesem Genial Toolkit von Google.

00:27:56: Und nach diesem Artikel handelt es sich so um die wirklich erste belastbare Anwendung

00:28:00: von einem generativen Text-Wasserzeichen, was dann, wenn es verwendet wird, jetzt auch

00:28:05: in einem sehr großen Maßstab ausgerollt werden kann, weil das wohl wirklich eine sehr hohe

00:28:09: Ex- oder Eindeutigkeit an der Stelle halt hat.

00:28:11: Wir reden ja immer viel über Wasserzeichen und wir beide finden, dass KI-generierte

00:28:16: Inhalte immer deutlich klarer identifiziert werden sollten, vor allem natürlich bei der

00:28:20: Bekämpfung von Falschinformationen, wie gesagt, die Social Identity letzte Woche, wenn ihr

00:28:24: es noch nicht gehört habt, klare Hörermpfehlungen, weil da ist es einfach ein riesengroßes

00:28:28: Thema.

00:28:29: Wir bewegen uns nicht nur auf Halloween zu, sondern auch ins Jahresende und Weihnachten.

00:28:36: Und dort ist ja die Sternenkonstellation des Oreons, habe ich gelesen, irgendwie ganz

00:28:39: besonders.

00:28:40: Was dazu führt, dass es ein neues LLM geben soll, nämlich von OpenAI mit dem Code namen

00:28:46: Orion.

00:28:47: Und das erscheint pünktlich zum zweijährigen Jubiläum.

00:28:50: Ich muss zugestehen, ich hätte es gar nicht gedacht, dass wir schon zwei Jahre mit OpenAI

00:28:55: rumspielen dürfen.

00:28:56: Krass.

00:28:57: Ja, ist echt zwei Jahre schon.

00:28:59: Und das soll 100-mal leistungsfähiger sein als natürlich als GPT-4.

00:29:04: Und woran man arbeitet, ist an der Kombination der unterschiedlichen LLMs.

00:29:09: Also wir haben ja GPTO, wir haben GPT-4.0 und Orion soll im Prinzip, so verstehe ich es

00:29:16: zumindest, ich weiß nicht wie du es verstehst, best auf Boss World sein und natürlich sehr

00:29:20: viel leistungsfähiger und schneller und umfangreicher.

00:29:22: Ich freue mich ehrlicherweise drauf.

00:29:24: Ich hoffe vor allem, dass mit dem November oder dann im Jahresend Update dann auch der

00:29:29: Datenstand aktueller ist, weil Marmelhorn arbeitet mir immer noch auf Daten von November

00:29:33: 2023, also jetzt inzwischen fast ein Jahr alt.

00:29:37: Und bin gespannt, was dann Orion sonst noch für tolle neue Funktionen mit sich bringt.

00:29:42: Ja, genau.

00:29:43: Also mittlerweile sind die auch dahin gekommen, dass die es versuchen, so ein paar mehr griffigere

00:29:47: Namen zu geben.

00:29:48: Und ich glaube, als wir aus Frankfurt zusammen aufgenommen haben vom Handelsblatt AI in

00:29:52: Banking-Gipfel oder auch Bankengipfel, gab es ja gerade die News über Strawberry, das

00:29:57: neue Modell, was ja jetzt einfach nur GPT-4.0.1 ist, also dieses Reasoning-Modell.

00:30:02: Und ich glaube, Orion soll dann GPT-5 werden, was ja dann deutlich näher an AGI, also der

00:30:10: Artificial General Intelligence sein soll als an den bestehenden noch trivialeren Modellen.

00:30:17: Aber das haben wir dahingestellt, ob es vielleicht nicht einfach doch nur wieder ein Zwischenmodell

00:30:20: ist.

00:30:21: Tatsächlich habe ich gestern Abend gelesen, dass jetzt die Presseabteilung von Open AI sogar

00:30:26: denied hat, dass es dieses Jahr noch was großes neues technologisches Releasing wird und damit

00:30:31: so ein bisschen gesagt hat, wahrscheinlich gibt es es nicht, wahrscheinlich warten sie

00:30:34: aber einfach wieder in ein ganz wichtiges anderes Presse-Event von einem Wettbewerber ab und

00:30:38: tünden es dann doch wieder.

00:30:39: Also ich glaube schon, dass dann auch noch was kommt, weil es gibt ganz, ganz viele Quellen,

00:30:42: die sagen, dass die Wissenschaftler gerade bei Open AI in einem Deployment Status sind

00:30:47: von einem großen neuen Modell.

00:30:50: Und irgendweben ist sogar mal rausgerutscht, habe ich jetzt gelesen, ich glaube, es war

00:30:53: auch auf Hugging Face, dass die ganze Modelle bisher halt total günstig waren.

00:30:58: Günstig ist so zwischen 100 Millionen bis 250 Millionen Dollar pro Fall, aber Orion soll

00:31:04: dann wohl mindestens eine Milliarde Euro Kosten verursacht haben.

00:31:08: Sehr spannend.

00:31:09: Wo du sagst, lustige Namen, also dass man jetzt griffigere Namen nimmt, ich finde nämlich

00:31:14: den nächsten Namen sehr interessant, nämlich ein neues Bildgenerierendes, Bildgenerieren,

00:31:20: Bildgenerierungsmodell.

00:31:28: Names Red Panda und ein stellwerböses dabei denkt, Rot und Panda, da muss ich zumindest

00:31:35: ein Glitziglar ein bisschen an China denken.

00:31:37: Jedenfalls soll dieses Modell, also ähnlich agiert wie ein Mid Journey oder Dal E, also

00:31:44: Bilder generieren, aber soll vor allen Dingen so viel realistischer sein und so viel besser

00:31:49: sein als alles, was wir bisher gesehen haben.

00:31:52: Und in der Tat, ich habe mir nur Beispiele angeschaut, ich weiß gar nicht, ob man es

00:31:56: schon testen kann, auf Hugging Face kann man es glaube ich testen, ich bin mir nicht

00:31:59: 100% sicher oder gibt es nur Samples, die sehen jedenfalls richtig gut aus.

00:32:04: Naja, ist das so etwas ähnliches wie Hugging Face, das ist Artificial Analysis, die haben

00:32:09: so ein eigenes System entwickelt, wie sie zwischen den unterschiedlichen Konkurrenten

00:32:16: die Modelle testen.

00:32:17: Also es ist quasi das Hugging Face für Bildgenerierungsmodelle.

00:32:20: Und nach diesen ersten Tests führt Red Panda tatsächlich diese Rangliste der textbasierten

00:32:25: Bildgenerierung jetzt schon an, hat wohl in der Bewertung von 40 sogenannten Elo Points

00:32:30: Vorsprung vor dem nächsten Konkurrent.

00:32:32: Der nächste Konkurrent ist ja dieses aktuelle Modell Flux 1.1 pro von Black Forest Labs,

00:32:38: haben wir auch darüber gesprochen, das ist das Modell, was den XAI, also GROC, füttert,

00:32:43: was ja nicht so wahnsinnig viele ethische und mochalische Bedenken hat, da kannst

00:32:47: ja wirklich alles machen, da hast du ja auch mir ganz cool rumgespielt, oder diese ganzen

00:32:51: schönen Memes von Elon Musk und Donald Trump, die sich wild knutschend in den Armen liegen,

00:32:56: kommen daher, wenn sie nicht echt sind, man weiß es nicht.

00:32:58: Aber dieses Artificial Analysis finde ich so ganz spannend, weil die haben dieses Elo Point

00:33:02: System, was ursprünglich eigentlich für Schach entwickelt wurde, um so die Leistung

00:33:06: von KI Modellen objektiv zu vergleichen und das wird dabei angewendet und das ist natürlich

00:33:10: bei Bildgenerierungsmodellen deutlich komplexer als es bei Text ist, aber Red Panda überzeugt

00:33:16: wohl nicht nur in der Qualität, sondern vor allem in der Geschwindigkeit, das braucht

00:33:19: aktuell wohl 7 Sekunden im Durchschnitt pro Bild und der letzte Test von DAL-E, also

00:33:26: das OpenAI Modell war 14 Sekunden, also das ist doppelt so schnell wie eines der besten

00:33:31: und meist genutzten Modelle, aber also du hast den Namen angesprochen, Red Panda,

00:33:36: einstellen wir, bürde es dabei denkend, es ist komplett offen von welchem Unternehmen

00:33:41: das entwickelt wurde und auch wann es auf den Markt kommt.

00:33:43: Ich glaube die Verwendung, dass man es jetzt auf Artificial Analysis hochgeladen hat, könnte

00:33:47: eine Hinweis darauf sein, dass es bald eine offizielle Ankündigung und ein Launch gibt,

00:33:51: aber noch ist niemals klar, woher das Ding überhaupt kommt und wer der Absender ist,

00:33:54: weil muss ja auch wissen, das kann ja nicht jeder irgendwie im Keller züchten, so ein

00:33:58: Teil, weil so ein Bildgenerierungsmodell, das ist wahnsinnig komplex von der Parametrisierung

00:34:02: in dem Training und wenn du nicht irgendwo mal eine Viertel Milliarde Dollar rumliegen

00:34:07: hast, kannst du das eigentlich nicht bauen und dazu fehlen, aber dann blöderweise hat

00:34:11: irgendwie auch noch die Chips von Nvidia und Co.

00:34:13: Also da muss schon ein richtig großer Player dahinter stecken, Red Panda, wir werden sehen.

00:34:18: Genau, ich bin gespannt, gerade beim Thema bürdgenerierende AI, muss ich sagen, ist die Schlagzahl gefühlt

00:34:24: noch größer als bei allen anderen LLMs, vor allen Dingen was die Qualität betrifft.

00:34:27: Ich sehe immer wieder Videos, auch von neuen Tools, wo ich so denke, wow, das ist immer

00:34:32: schwieriger zu unterscheiden von echten Bildern und Videos, es gibt da tolle Tools.

00:34:38: Ich muss sagen, bei meiner Familie, die hassen mich mittlerweile, weil ich ganz alte Familienfotos

00:34:43: jetzt immer nehme und die quasi neue Kontexte setze oder mit Video animieren lasse, was

00:34:48: mitunter manchmal richtig gut, manchmal etwas spooky aussieht, to be honest, aber ja, da

00:34:54: passiert eine ganze Menge.

00:34:55: Wir haben noch ein, zwei kleinere News mitgebracht oder ich in dem Fall, ich weiß nicht, ob du

00:35:00: es mitbekommen hast, es gab mal wieder einen kleinen Jailbreak oder Exploit bei JetGBT,

00:35:07: der inzwischen rausgepatcht ist, also das ganze Thema war aktiv bis Juli und was hat

00:35:12: man getan?

00:35:13: An dem Fall waren es auch ehrlicherweise, naja, man kann fast sagen Wissenschaftler oder

00:35:18: Forscher, die halt geguckt haben, wie kann man JetGBT dazu bringen, Dinge zu tun, die

00:35:23: eigentlich ausgeschlossen sind.

00:35:24: Und man hat dort eine Lücke gefunden, indem man nämlich Hexcode eingesetzt hat als

00:35:30: Prompt.

00:35:31: Und ja, das war wohl erfolgreich, zumindest konnte man halt wie gesagt JetGBT, Entschuldigung,

00:35:39: einige Dinge abverlangen, die sonst einfach so nicht möglich gewesen wären.

00:35:42: Ist interessant zu lesen, wir packen es in die Show-Nauts, ist aber inzwischen gepatcht,

00:35:46: das heißt, irgendwie Schindluder treiben möchte, demnach gesagt, nicht mehr möglich.

00:35:52: Dann fand ich noch witzig oder interessant, dass GitHub Spark, GitHub kennt, glaube ich,

00:35:59: der oder die ein oder andere da draußen, ist eine große Plattform, wo man letztendlich

00:36:02: Code veröffentlicht, also eine Code-Plattform, die sehr möglich ist, entwickeln, kollaborativ

00:36:07: zu arbeiten und natürlich auch interessierten Einblicke in Code gibt.

00:36:12: Und GitHub hat jetzt oder erplant einen Tool zu veröffentlichen namens Spark.

00:36:17: Auch das ist interessant, da haben wir auch schon ein paar Mal gesprochen, das ganze Thema

00:36:21: Entwicklung oder Software-Entwicklung, App-Entwicklung, also ich sag es mal weitläufig, wenn es darum

00:36:27: geht, Programmcode zu erstellen, wird, glaube ich, immer automatisierter und vor allen

00:36:32: Dingen immer mehr Menschen zugänglich.

00:36:34: Also es gibt unzählige Tools mittlerweile, also man kann auch einfach JetGBT ja schon

00:36:39: bitten, kleine Programme zu schreiben, also dieses typische Hello World ist, glaube ich,

00:36:44: nicht mal eine Fingerübung für JetGBT und ja auch komplexere Themen.

00:36:49: Also wenn ich heute eine Webseite programmieren müsste, ich wüsste wo ich hingehen würde,

00:36:53: um zu gucken wie es geht.

00:36:55: Und ja jetzt ist auch GitHub mit Spark ins Rennen gegangen, was dazu führen soll, letztendlich

00:37:01: Code besser zu schreiben, auch neuen Code zu erstellen.

00:37:04: Und da gibt es auch einen interessanten Artikel bei T3n mit der entsprechenden Headline KI-Stadt-Coden

00:37:11: macht uns GitHub Spark, alle zu entwickeln und wenn man sich das durchliest, könnte

00:37:15: man zu der Meinung kommen, ja.

00:37:17: Ich habe es mir noch nicht angeschaut, aber es zeigt wo die Reise hingeht.

00:37:21: Und komme nur noch zu einem Funfact und einem Tool.

00:37:26: Das Thema Transkribierung nutzen wir auch immer wieder und manchmal kommen Dinge dabei

00:37:33: raus, die nicht so ganz cool sind und es gibt einen Artikel auch auf T3n, nämlich dort

00:37:40: hat man in Krankenhaus Gespräche zwischen Patienten und Ärzten transkribiert.

00:37:47: Also das kommt halt zum Einsatz, also Gespräche einfach um eine gewisse Form der Sicherheit

00:37:53: zu haben, was haben wir hier besprochen.

00:37:54: Und dieses Tool, was dort zum Einsatz kam, hat dazu geführt, dass absurde Dinge fantasiert

00:38:01: wurden.

00:38:02: Und das war nicht ganz ungefährlich, weil dann im Transkript Sachen drinne stand, also

00:38:06: Medikamente, die verabreicht werden sollen, die es gar nicht gibt.

00:38:09: Das ist natürlich gefährlich.

00:38:10: Also wenn man so ein Transkript dann irgendwie nimmt und das dann beispielsweise ans Personal

00:38:14: gibt nach dem Motto, das haben wir besprochen, ja, haste alles und dann auf einmal neue

00:38:18: Medikamente drinne steht, also wie gesagt, dies nicht gibt oder aber Dinge auch wirklich

00:38:23: falsch dann wiedergegeben werden.

00:38:26: Also auch hier zeigt, sieht man, dass das Thema Fantasieren immer noch ein großes Thema und

00:38:31: manchmal dazu führt, dass Menschen zu Schaden kommen.

00:38:34: Ich habe auch ehrlicherweise Angst, dass irgendwann AI bei Routenplanern dann kommt.

00:38:39: Also das ist auf einmal, du irgendwo hingelotzt wirst, ja, weil dein Routenplaner so intelligent

00:38:46: ist und glaubt, dass wir eine gute Abkürzung dadurch in Setz fahren.

00:38:48: Wir werden sehen.

00:38:51: Zwei Tools haben wir noch mitgebracht, wobei Tools ist es gar nicht so, dort kann man

00:38:55: schon sagen.

00:38:56: Also ich finde es super, weil es gibt jetzt die Mac App von Perplexity, falls du sie noch

00:38:59: nicht genutzt hast oder noch nicht installiert hast, funktioniert ziemlich gut.

00:39:03: Also mit Hotkey und man kann direkt loslegen und schreiben, da kann man sich offiziell

00:39:07: den Mac Store runterladen und mit seinem Account verknüpfen.

00:39:10: Und die Designer unter uns werden uns dafür hassen, dass wir es erwähnen, weil es gibt

00:39:16: ja richtige Designer, die halt mit Photoshop und Co arbeiten.

00:39:19: Und wenn sie das Wort Canva hören, dann zucken sie zusammen und liegen in der Embryonalstellung

00:39:24: unter dem Schreibtisch.

00:39:25: Und Canva hat jetzt seinen Tool für mich Pseudodesigner weiter aufgebohrt, nämlich um eine AI-Funktion.

00:39:32: Das heißt, man kann jetzt den Canva-Bildausschnitte erweitern.

00:39:35: Man kann Bilder generieren, Texte generieren, ganze Templates bauen inzwischen.

00:39:39: Ja, es ist nice to have, wie gesagt, sorry an alle Designer da draußen und schön, dass

00:39:45: es euch gibt.

00:39:46: Ja.

00:39:47: Noch.

00:39:48: Noch.

00:39:49: Wollte er hinzufügen.

00:39:50: Ja, ich habe sonst nichts mehr.

00:39:53: Ich auch nicht.

00:39:54: Machen wir es kurz und schmerzlos.

00:39:55: Hat Spaß gemacht, mein Lieber.

00:39:57: Das war heute eine reine Newsfolge.

00:39:59: Mal gucken, was wir die nächsten Wochen noch so vorhaben.

00:40:01: Vielen Dank, dass ihr eingestaltet habt, dass ihr reingehört habt.

00:40:04: Wäre ganz toll, wenn ihr uns einen Daumen hoch irgendwo darlastet, entweder auf LinkedIn,

00:40:08: wo wir wahrscheinlich dann morgen übermorgen die Folge dann auch noch mal ein bisschen

00:40:12: promoten werden.

00:40:13: Vor allem aber tatsächlich auch in den Spotify oder Podcast Player eurer Wahl.

00:40:17: Wir wissen mittlerweile, dass ganz viele auch Apple Podcast nutzen.

00:40:20: Du ja, glaube ich auch, als favorisierten Player.

00:40:23: Da wär es ganz toll, einfach eine kurze Bewertung oder zumindest mal einen 5-Sterne-Click zu

00:40:27: machen.

00:40:28: Das hilft uns nämlich auch, besser und weiter ausgespielt zu werden.

00:40:31: Ansonsten würde ich sagen Happy Halloween und bis bald.

00:40:33: Bis bald!

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.