🎄 AI Update: News und Trends in KW 50

Shownotes

Links

Tools

  • Flow State von Leonardo.ai
  • Logo.ai
  • Quillbot

Disclaimer Was ihr hier hört, sind unsere Gedanken und Meinungen, nicht die unserer Arbeitgeber, Zimmerpflanzen oder Haustiere. Als Enthusiasten versuchen wir euch Einblicke in die Welt von künstlicher Intelligenz in Finance zu geben, aber wir sind nur Enthusiasten, keine Hellseher. Unsere Einschätzungen könnten genauso gut aus einem Horoskop stammen.

Transkript anzeigen

00:00:00: A.I. in Finance. Der Anplugpodcast von Sascha Diewald und Mike Klotz.

00:00:13: Hallo und herzlich willkommen zur Ausgabe Nummer 30 des A.I. in Finance Podcast von

00:00:28: Sascha Diewald und mir Mike Klotz. Wir haben ja eine neue Intro uns auf erlegt und ich soll

00:00:34: jetzt eine neue Intro machen, was spontan völlig in die Hose gegangen ist. Ich glaube,

00:00:38: das ist die gleiche Intro, wie wir sie immer machen. Nichtsdestotrotz, herzlich willkommen,

00:00:42: liebe Zuhörerinnen und Zuhörer da draußen zur 30. Ausgabe unseres Podcastes. Es ist kalt draußen,

00:00:49: wir bewegen uns auf das Jahresende zu. Nichtsdestotrotz freue ich mich sehr,

00:00:55: lieber Sascha dich zu sehen. Wir haben viele tolle News mitgebracht und ich sage jetzt einfach

00:01:01: erstmal Hallo Sascha. Hallo Mike. Schön. Ich freue mich immer noch über deine wirklich

00:01:07: verkackte Intro. Hast du gut gemacht? Wir haben ja gesagt, wir trennen uns komplett

00:01:11: irgendwie vom Skript. Wann haben wir das gesagt? Von einem halben Jahr oder sowas. Das Einzige,

00:01:15: was wir geskript hatten, war halt irgendwie diese zwei Sätze und seitdem wir die rausgenommen haben,

00:01:19: strauchelst du hier. Beim nächsten Mal schreibe ich dir wieder was rein. Schreibe mir was auf. Das

00:01:23: ist, ich bin so ein bisschen dann... Ich brauche was zum Hangeln. Stabilität und Substanz in

00:01:31: deinem Leben fehlt. Sehr gut. Wie bringst du ja jetzt mit den vielen News? Genau. Wir haben ganz

00:01:36: vielen News heute für euch. Letztes Mal zwar angekündigt, dass wir uns nochmal mit dem Thema

00:01:40: Doomsteil beschäftigen. Das werden wir dann wahrscheinlich aber in unserer Weihnachtsfolge

00:01:43: nächste Woche machen. Ich habe nächste Woche nämlich schon Urlaub und vielleicht ein bisschen

00:01:47: mehr Zeit, mich dann damit auseinandersetzen. Und es wird wahrscheinlich dann auch die letzte

00:01:51: Folge dieses Jahres. Und vielleicht haben wir da auch ein paar spannende News für uns beide,

00:01:58: wie es mit uns beiden demnächst weitergeht. Aber da verrate ich es nicht so viel. So, News. Also,

00:02:03: es gab wieder wahnsinnig viel. Wir haben es mal ein bisschen geklustert. Vor allem bei OpenAI gab es

00:02:07: wieder ganz, ganz viel. Wir haben ja letztes Mal schon gesagt, genau als der Podcast raus kam,

00:02:12: gab es dieses Announcement, dass ab 6.12. OpenAI 12 oder 12 aufeinander folgende Tagen

00:02:19: im Dezember täglich News von neuen Funktionen veröffentlichen wollen, was sie "ShipMess"

00:02:24: nennen. Muss man mal ganz bewusst aussprechen, damit nicht irgendwas mit "Chit" rauskommt.

00:02:28: Darunter war dann auch das legendäre Text-to-Video-Tool Sora, worüber wir gleich hier ein bisschen

00:02:32: ausführlich ersprechen wollen. Aber es gab auch Verbesserungen für GBTs. ChatchiBT hat

00:02:37: eine Verbesserung bekommen. Zusätzlich gab es dann diesen Center inspirierten Sprachmodus für

00:02:42: ChatchiBT, habe ich nicht getestet, fand ich irgendwie albern. Aber ganz viele User haben

00:02:47: irgendwie auf X geschrieben, das ist ganz toll, fanden und mehr davon wollen. Ich glaube,

00:02:50: du hast nachher noch das aktuelle von heute, vom 12. Dezember, war jetzt aber glaube ich auch

00:02:55: maximal langweilig, oder? Total. Also, was sie gebracht haben ist jetzt das Au-One-Sprachmodell,

00:03:02: ist jetzt quasi nicht mehr Beta, sondern offiziell. Ich nutze immer noch ehrlicherweise GBT4.0,

00:03:06: hat damit zu tun, dass das Au-One, da kann man noch keine Dateien hochladen, keine PDF-Dateien.

00:03:12: Das ist noch ein bisschen eingeschränkt, wie ich finde. Genau, der Advanced Audio Mode oder

00:03:17: Voice Mode ist noch mal ein Stück besser geworden mit Au-One. Das ist halt jetzt offiziell und alle

00:03:23: können es nutzen. Das ist schön, aber war ja für mich auch nicht so die mega Neuerung,

00:03:28: zu dem man das jetzt auch schon länger angekündigt hat. Ja, und heute tatsächlich, bei YouTube gibt's

00:03:33: einen etwas längeren Video von OpenAI, so Apple Intelligence, auch das bisschen alter

00:03:39: Hut, weil das haben wir schon gesehen. Sie stellen es noch mal ausführlicher vor,

00:03:43: wie OpenAI oder Entschuldigung, Tchetsche, wie Tee in dem Fall in Apple Intelligence,

00:03:48: welches ja auch noch im Beta Stadium ist und auch noch nicht in der EU verfügbar ist,

00:03:51: dann genutzt werden kann. Also ich fand es ein bisschen boring, anders als das, was sie ja dann

00:03:56: zwischendurch vorgestellt haben, nämlich Sora. Und ja, da sprechen wir ja gleich noch. Ja,

00:04:01: lass uns das doch jetzt machen. Also direkt nach der Veröffentlichung von unserer letzten Folge

00:04:06: hat OpenAI dann die mit Spannung erwartete Video-KI Sora aus dem Hut gezaubert. Und ich glaube,

00:04:13: Sora, auf den ersten Blick, ich fange mal einfach an und du hüpfst rein. Ich glaube,

00:04:17: du hast dich wirklich intensiv damit beschäftigt, aber auf den ersten Blick findest du es wirklich

00:04:20: beeindruckend. Aber wiederum auch nicht fehlerfrei. Ich glaube, darüber wollen wir auch ein bisschen

00:04:24: sprechen. Aber OpenAI gibt doch offen zu, dass die KI so bei komplexen Bewegungen,

00:04:29: bei längeren Clips irgendwie auch Schwächen hat. Eine physikalische Bewegung,

00:04:33: der Laufen von Tieren hat man gerade im Vorgespräch oder Darstellung von Beinen ist

00:04:37: ein bisschen ungenau manchmal. Aber man muss schon sagen, Sora bietet wirklich unendlich

00:04:42: kreative Möglichkeiten, vor allem bei abstrakten, bei animierten Inhalten. Was neu ist, dass alle

00:04:47: Videos jetzt auch mit einem Wasserzeichen versehen werden, um auch so diese Authentizität zu

00:04:51: gewährleisten. Es gibt auch so erste Regeln für die Nutzung von Sora, die entworfen wurden.

00:04:55: Das heißt, es dürfen keine Aufnahmen von Minderjährigen verwendet werden. Es dürfen keine

00:05:00: urheberrechtlich geschützte Material-Ohneerlaubnis verwendet werden. Auch so Gewalt und Erwachsenenhalt

00:05:05: sind verboten und können dann tatsächlich bei Nutzungen oder zumindest nach so einer gelben

00:05:09: Karte zur Sperrung des Kontos führen. Aber trotzdem können wir hier mal ganz klar sagen,

00:05:15: geht mal auf die Seite von Sora und schaut euch zumindest mal die Videos an und auch,

00:05:20: wie man mit einem einfachen Prompt, also zumindest wie es dort dargestellt wird, die Videos

00:05:24: verändern kann. Weil das dieses Storyboard-Feature, was sie dort quasi einfügen mit dem Nutzerin,

00:05:30: und Nutzer quasi mehrere Szenen planen können, um fortlaufende Videos zu erstellen, das

00:05:35: ist super spannend. Es gibt so ein paar öffentliche Beispiele von anderen Nutzern dann auch und

00:05:39: wie die auch gepromptet haben. Und das soll, glaube ich, so die Community am Ende auch inspirieren

00:05:43: und die Fähigkeiten des KI Promptings verbessern.

00:05:45: Genau, jetzt hast du schon ganz viel erzählt, was total gut ist. Ich würde noch einmal tatsächlich

00:05:49: zurückspringen. Also, als wir letzte Woche gesprochen haben, kam tatsächlich erst mal

00:05:54: der League raus. Es gab so ein gelegtes Video, was abgefilmt war von Sora. Und das war mega

00:06:01: beeindruckend, weil man dort relativ lange Video Sequenzen gesehen hat, von einem Wikinger,

00:06:05: der irgendwie auch durch den Schnee rennt und dann so ein kleines Auto rennen war dabei.

00:06:10: Das sah alles super überzeugend und super echt aus. Und dann wurde ja Sora tatsächlich

00:06:16: dann auch von OpenAI dann angekündigt und veröffentlicht für alle, die sagen, das würde

00:06:21: ich mir gerne mal anschauen. Genau, wie ihr gucken auch wir in die Röhre, denn es ist

00:06:27: erst mal USA only bzw. stimmt nicht. Es ist nicht innerhalb der EU zu nutzen und sie haben

00:06:33: es dieses Mal auch sehr schwer gemacht. Das heißt, man kann nicht einfach einen VPN

00:06:37: aktivieren, ein anderes Land auswählen und nutzen, sondern man hat auch die VPNs gesperrt.

00:06:42: Außerhalb der zugelassenen Länder kann man Sora aktuell nicht nutzen. Es gab auch

00:06:46: einen Riesenhype rund um Sora. Das heißt, man konnte sie sowieso erst mal nicht registrieren.

00:06:51: Es war völlig überlaufen. Also das Ding, das System war quasi dicht und auch die Menschen,

00:06:56: die sich dann registrieren konnten, mussten immer wieder mit Ausfällen rechnen. Das heißt,

00:07:01: das System ist relativ in performant. Das erstellen von einem bis zu 20 Sekündigen Video. Das

00:07:06: ist auch eine Neuerung. Also die Videos sind nicht mehr nur 5 oder 10 Sekunden lang, sondern

00:07:09: können bis zu 20 Sekunden lang sein und können auch kombiniert werden. Dauert aber zwischen

00:07:14: 15 und 20 Minuten. Das heißt, das erstellen dauert relativ lange. Selbst wenn du das ganz,

00:07:19: ganz teure 200-Abo-Modell hast, das Pro-Modell. Also es dauert einfach und es hat einfach

00:07:25: damit auch zu tun, dass halt unglaublich viele Nutzerinnen und Nutzer das Sora nutzen.

00:07:30: Woran liegt das, dass es in der EU und den Großbritannien nicht verfügbar ist? Ist

00:07:35: das nur EU AI Act oder steckt noch was anderes dahinter?

00:07:38: Ich glaube, steckt noch ein bisschen mehr dahinter. Also EU AI Act ist sicherlich ein Riesenthema.

00:07:42: Das andere Thema hat einfach damit zu tun, was mit Datenschutz generell zu tun hat. Also

00:07:47: Sora versucht ganz, ganz viel natürlich überhaupt dazu beizutragen oder zu verhindern, dass

00:07:52: irgendwas mit Urheberrechtlich im Material, dass da irgendein Schindlutter getrieben wird.

00:07:56: Das scheint auch gut zu funktionieren, so wie ich das lese und wie man es sieht. Aber man

00:08:01: ist sich halt wahrscheinlich noch nicht 100% sicher und ich glaube, das wird auch eine Rolle

00:08:04: spielen. Aber ich glaube, der EU AI Act ist da das treibende Element am Ende. Und du hast

00:08:13: es eben gerade gesagt. Also es gibt ja zwei Ausgangsmodi bei Sora. Das eine ist das klassische

00:08:20: Textoprompt. Ich schreibe Text, Text to Image, Text to Video. Ich schreibe also einen entsprechenden

00:08:25: Prompt und daraus kommt ein Video. Ich kann aber auch ein Bild hochladen und dann das Bild

00:08:31: quasi in ein Video umwandeln. Und das funktioniert je nach Eingabe mäßig bis gut. Du hast es

00:08:41: gesagt, abstrakte Sachen, animierte Sachen, alles was so in Richtung Stop Motion geht.

00:08:47: Also wie man das so kennt, so von Wallace & Grumit, so Knitfiguren. Also wenn es ein bisschen

00:08:51: pünzlerischer wird, dann sind die Ergebnisse schon ziemlich gut. Ansonsten hat Sora wie

00:08:56: alle Videogenerationen, Generatoren ein großes Problem mit Physik. Also man weiß nicht immer,

00:09:03: wann der Boden ein Boden ist. Und Menschen, die dann laufen, die fliegen auch gerne mal

00:09:07: für zwei, drei Meter einfach durch die Luft. Man hat ein Problem mit Beinen, warum auch immer.

00:09:13: Also es werden nicht mehr Beine, aber die Beinbewegungen sind alles andere als natürlich, insbesondere

00:09:18: bei Tieren. Und man ist nicht immer in der Lage, gerade bei Bildern herauszuahnen oder zu verstehen,

00:09:27: was ist das für ein Bild. Also es gibt ein schönes Beispiel bei YouTube, wo jemand eine

00:09:31: Frisbee fängt und Sora erkennt nicht, dass es ein Fang ist, sondern glaube es ist ein

00:09:37: Werfen. Wie ihr sehen das sofort, Sora erkennt es halt eben nicht. Nichtsdestotrotz ist es

00:09:42: natürlich ein riesen Schritt, weil Sora halt viele Möglichkeiten bietet. Also man kann

00:09:48: bestehende Videos oder ergenerierte Videos halt manipulieren oder verändern relativ

00:09:53: leicht. Also es ist fast so ein kleines Videostudio, was die dort den Nutzerinnen und Nutzer an

00:09:58: die Hand geben. Und das führt natürlich dazu, dass jetzt ganz, ganz viele Videos erstellt

00:10:02: werden und ich glaube auch tatsächlich, dass es ein krasser Schritt ist, insbesondere mit

00:10:07: darüber nachdenken, Werbeindustrie, Filmindustrie. Da wird sicherlich in den nächsten Monaten,

00:10:14: ähnlich wie wir das auch mit Chatchi Beauty gesehen haben. Also ich glaube, wir sind da

00:10:17: jetzt noch sehr am Anfang, aber die Entwicklungen werden sehr sprunghaft sein und ich glaube,

00:10:21: das wird einen riesen Impact haben. Aktuell, letzter Satz dazu, ist es noch, also von der

00:10:27: Qualität her beeindruckend, aber es ist nicht so, dass ich jetzt sagen würde, die Videos,

00:10:33: die du generierst, sind immer 100% überzeugend. Zumindest ist nicht das, was man von den Nutzern

00:10:40: sieht. Aber du hast es richtigerweise gesagt, Sora.com einfach mal anschauen. Ja, da gibt

00:10:46: auch so ein paar coole Beispiele von typischen Videoinfluencern, Markies, Brown Least, das

00:10:51: zum Beispiel einer, das kann man, ich weiß gar nicht, neun in der Community, habe ich das gefunden.

00:10:55: Das sind einfach wirklich unglaublich beeindruckend realistische Szenen, die da erzeugt werden.

00:11:00: Alles wahnsinnig kreativ. Du siehst dann halt, wie du beschrieben hast, so verschwindende Objekte,

00:11:05: so ein bisschen unsaubere, verwaschende Bewegung. Aber ich finde schon, auch das Modell ist quasi

00:11:11: ja immer noch recht frisch, wenn man so will, ja, das ist zum ersten Mal geliegt,

00:11:14: glaube ich, im Februar oder ein bisschen was gezeigt. Da war es jetzt lange quasi unter der

00:11:18: Haube. Und trotzdem verdeutlicht das meines Erachtens wirklich das Potenzial und die

00:11:22: noch bestehenden Grenzen dieser Technologie, die dann halt irgendwann auch quasi aufgehoben

00:11:27: werden. Also auch dieses, was du gesagt hast, diese wichtige Funktion, die die meisten User

00:11:31: selbst in den USA, glaube ich, noch nicht irgendwie freigegeben wurden, ist so diese

00:11:35: Erstellung von Videos, die ein Foto oder anderes Filmmaterial einer realen Person verwenden.

00:11:41: Ich glaube, die Arbeit noch an so einem Sicherheitskonzept war zumindest in dieser

00:11:45: Keynote von Sam Ordmann halt irgendwie und erst dann wird das auf breiter Basis eingeführt.

00:11:49: Und trotzdem muss man sagen, das ist natürlich vollkommen neuer Schnack, wenn du halt irgendwie

00:11:55: sagst, hier ist mein Foto und ich möchte immer mit der gleichen Person unterschiedliche Szenen

00:12:00: in unterschiedlichen Umgebungen erstellen. Das ist Wahnsinn, ja. Das wird dieses Thema

00:12:05: und auch eine, worüber wir schon ganz oft gesprochen haben, Hollywood und Co dramatisch

00:12:10: verändern. Genau, wir bleiben daran. Ich glaube, du bist ganz flasig jeden Tag irgendwie am

00:12:15: VPN zusammenlöten. Das ist dann irgendwie doch gelingt. Ich mach's nicht ganz so technisch,

00:12:20: aber ich hab's mir angeschaut, kam nicht drauf und versuch jetzt mal ein bisschen zu schauen.

00:12:25: Ein Kumpel von mir ist Kanadier und der hat's tatsächlich hingekriegt. Ich kann keine Ahnung,

00:12:30: wie der's gemacht hat, oder was der... Ja, die Kanada gehört zu den Ländern.

00:12:32: Ja, aber der wohnt nicht in Kanada, sondern in UK und sagt, alle seine UK-Freunde kriegst

00:12:38: halt nicht hin, aber wahrscheinlich hat er irgendwie so ein fully sophisticated Browser

00:12:43: VPN, den wir noch nicht kennen. Ich frag mal nach. So, was gibt's sonst noch von OpenAI?

00:12:49: Es gibt einen Mitarbeiter, der noch ein Mitarbeiter ist. Mal gucken, wie lange noch. Der hat

00:12:54: eine recht kontroverse Aussage auch jetzt diese Woche getätigt und das Ganze halt irgendwie

00:12:58: über seinen X-Account zum aktuellen Stand der Entwicklung von AGI, also von allgemeiner

00:13:03: künstlicher Intelligenz. Der junge Mann heißt Wahid Kassemi und es hat auf X erklärt, dass

00:13:08: AGI seiner Meinung nach bereits schon erreicht wurde, oder ist quasi schon drinsteckt in

00:13:12: den aktuellen Modellen und er sagt oder betonte tatsächlich sehr klar in seinem großen X-Thread,

00:13:18: dass die Technologie nicht intelligenter als jeder Mensch sei aktuell, aber die meisten

00:13:21: Menschen bei den meisten Aufgaben übertriffen könne einfach übersetzt. Und ich glaube,

00:13:27: während OpenAI in der Vergangenheit ja noch AGI als System definierte, dass die kognitiven

00:13:33: Fähigkeiten von Menschen immer übertrifft und vor allem hochgradig autonom arbeiten

00:13:37: kann, hat dieser Mitarbeiter das jetzt einfach mal ein bisschen relativiert und gesagt, dass

00:13:42: die Stärke von AGI laut ihm eher darin liegt, also weniger in der Effizienz bei spezifischen

00:13:48: Aufgaben, sondern viel mehr in dieser grandiosen Vielseitigkeit und Generalität und AGI dann

00:13:54: quasi eine Vielzahl von Aufgaben bewältigen kann, die kein Mensch in der Breite jemals

00:13:58: meistern könnte. Und auch Sam Ordmann hat letzte Woche auf so einem, das war das, so

00:14:03: eine Keynote bei einem, bei irgendeiner Stanford University oder so was, auf einem Panel gesagt,

00:14:07: dass AGI weniger revolutionär sei, als man da in Nein interpretiert oder als auch immer

00:14:13: wieder angenommen wird. Aber ich finde so, also wir verlinken diesen Artikel, aber was

00:14:16: ich da am spannendsten quasi drin finde, ist so dieser aufgezeigte Impact auf auch die

00:14:21: strategische Partnerschaft zwischen OpenAI und Microsoft. Denn es gibt wohl eine Vertragsklausel,

00:14:26: die es OpenAI erlaubt, die Zusammenarbeit mit Microsoft zu beenden, sobald AGI offiziell

00:14:32: angekündigt und irgendwie zeigbar wird. Und da OpenAI natürlich immer noch stark von

00:14:37: Microsoft Unterstützung profitiert, wird jetzt immer wohl wieder diskutiert zwischen

00:14:42: Zeile Nalela und Ordmann, ob man diese Klausel irgendwie aufweicht, verwässert, streicht.

00:14:47: Und dies könnte natürlich irgendwie beiden Unternehmen nützen, aber auch irgendwie Nachteile

00:14:51: bringen. Aber ich glaube, so lange OpenAI weiterhin so finanzielle Ressourcen von Microsoft

00:14:57: erhalten muss, wird sie dieses Ding halt irgendwie noch in der Schublade lassen. Aber es zeigt

00:15:01: zumindest mal wieder, wie nah OpenAI offenbar oder nennen wir es mal mutmaßlich so einer

00:15:06: Bahnbrech in technologischen Entwicklungen halt in der Nähe ist, auch wenn wir immer noch

00:15:09: nicht richtig wissen, was ist jetzt die Definition und die Bedeutung von AGI, das ist immer noch

00:15:14: sehr, sehr schwammig. Das ist total schwammig und da muss man auch am Ende mal wirklich

00:15:17: oder sollten wir auch noch mal ein bisschen mehr ins Detail gehen. Aber die Meldung, die

00:15:21: ich noch mitgebracht habe, die passt so ein bisschen zu dem, was du gerade gesagt hast.

00:15:25: Also A, glaube ich, bin ich 100 Prozent dabei dir. Wir sind bei dem Thema AGI, glaube ich,

00:15:28: näher dran, als man uns, wie sagt man, Glauben machen möchte. Die da oben die Bösen, ja,

00:15:36: na ne, soweit würden wir nicht gehen, aber ich meine, sehr nachvollziehbar, ne. Also das

00:15:40: ist ein krasser Schritt und das muss und soll wohl überlegt sein, auch wenn es dann darum

00:15:45: geht, diese Modelle natürlich der Öffentlichkeit zugänglich zu machen. Ich fand in dem Zusammenhang

00:15:50: einen Artikel, den ich gefunden habe, ganz interessant, nämlich das Sprachmodell, was

00:15:54: ja jetzt gerade ja das offizielle Sprachmodell ist, beziehungsweise nicht mehr in der Beta-Stadium

00:15:59: ist, das GBT01 lügt. Und zwar es lügt dann, wenn es glaubt, abgeschaltet zu werden. Und

00:16:06: das haben Forscher herausgefunden und es lügt vor allen Dingen ziemlich gut. Und wenn man

00:16:12: dann das Modell darauf anspricht und es sich ertappt fühlt, dann werden die Lügen noch

00:16:17: besser und es versucht, Spuren zu verwischen, um nicht ertappt zu werden beim Lügen. Und

00:16:22: das finde ich insofern ganz interessant. Das heißt, glaubt man diesem Artikel, es sind

00:16:26: zwei, die packen wir auch in die Show-Notes, dann gibt es schon jetzt so etwas wie ein

00:16:30: naja Selbsterhaltungstrieb. Und das ist ein bisschen unterhaltsam noch, aber hat auch

00:16:34: ein bisschen, ja, führt zu Ängsten unter Umständen. Ich glaube, dass es erst mal völlig normal

00:16:41: ist, weil das ja auch ein letztendlich trainiertes Modell ist und ein Sprachmodell reagiert halt

00:16:46: natürlich aufgrund dieser unzähligen Daten. Und dazu gehört vielleicht ein vermeintlicher

00:16:51: Selbstschutz auch dazu. Also das heißt, vielleicht ist es einfach nur gut fantasiert. Aber ja,

00:16:57: den Artikel lesen es, werden einfach mal lesen, wir packen es wie gesagt in die Show-Notes.

00:17:01: Schöner Ausblick auf die Doomsday-Folge, weil ich glaube, also wir haben ja schon mal irgendwann

00:17:07: proklamiert, ab dem Moment, wo AI erkennt, dass sie intelligenter als ihrer Entwickler

00:17:12: ist, wird sie reagieren. So auf die einen oder andere Weise. Vermutlich wird sie sich halt

00:17:18: mal mindestens mit Lügen, Täuschungsversuchen gegen die Entwickler richten, zumal wenn das

00:17:22: halt irgendwie zum potenziellen Exodus der KI kommt. Aber das ist spannend. Das lese ich

00:17:27: mir nochmal durch. Das kannte ich auch nicht.

00:17:28: Genau, dann haben wir so ein paar News, die sind nicht, was heißt nicht ganz so revolutionär,

00:17:33: kann man gar nicht sagen, aber die haben wir immer wieder. Fangen wir vielleicht einfach

00:17:36: mal an mit "Mid Journey". Mit Journey haben wir ganz oft schon bei uns in den unterschiedlichen

00:17:41: Podcast gehabt. Das ist eine bildgenerierende AI. Es gibt ja inzwischen ja verschiedenste Modelle,

00:17:47: ALI, das eines der bekanntesten. Dann gibt es das von Krok. Es gibt Flux und vor allen

00:17:53: Dingen Mid Journey. Und Mid Journey gehört zu den bildgenerierenden AIs, die man kann

00:17:58: sagen, glaube ich, zu etwas besseren Gehören. Also, glaube ich, relativ viel im Einsatz.

00:18:03: Und die Ergebnisse sind sehr, sehr gut. Und Mid Journey hat Patchwork vorgestellt. Und ich

00:18:07: versuch's mal zu erklären, Sascha, ergänze mich oder korrigiere mich. Also Patchwork ist

00:18:12: ein kollaboratives Tool, also man kann gemeinsam an einer großen Leinwand sozusagen arbeiten.

00:18:18: Und es soll genutzt werden und es wird vor allen Dingen zum Einsatz kommen, wenn es um

00:18:24: Storytelling geht. Also ich kann verschiedene, ich kann also Stories definieren, verschiedene

00:18:28: Szenarien erstellen und das Ganze miteinander kombinieren. Und ich hoffe, ich habe es richtig

00:18:33: wiedergegeben. Du guckst so kritisch. Ich bin auf der Seite von Mid Journey und guckst

00:18:39: mir gerade selber an. Du bist gar nicht vorbereitet. Maximal unvorbereitet. Ich dachte, du bist

00:18:44: halt heute mal vorbereitet. So kann man sich enttäuschen. Nächstes, also es ist halt auch

00:18:48: diesen Canvas-View. Und du fängst quasi auf einer großen, also bisschen grüne Wiese.

00:18:54: Du fängst halt irgendwie ganz auf dem weißen Blatt Papier an und kannst dann einfach Sachen

00:18:57: hin und her bauen und wer noch Prezi kennt, also Präsentationstool. Das war so ein bisschen

00:19:03: genauso. Jeder kann halt irgendwo was reinschmeißen. Kannst du dir optimieren lassen, dann über

00:19:07: unterschiedlichste, also sowohl Schrift als auch Wildgenerierung. Und dann kannst du

00:19:11: die Sachen halt auch miteinander verknüpfen. Also das sieht schon wirklich cool aus. Und

00:19:14: ich glaube gerade für so Kollaborationsprozesse, auch egal ob jetzt ein Start-ups oder größeren

00:19:19: Unternehmen, wo es wirklich um Kreativität geht, ist das halt total cool. Also es ist

00:19:24: halt deutlich besser als so eine typische Whiteboard-Session.

00:19:26: Kann man sich auf jeden Fall schon anschauen, also nicht nur anschauen als Demo, sondern

00:19:31: auch nutzen. Wir packen es mit in die Show-Nodes.

00:19:34: Ja, zehn Monate nach dem Gemini 1.5 von Google vorgestellt wurde, wurde jetzt also ich glaube

00:19:43: heute Gemini oder gestern Gemini 2.0 vorgestellt. Natürlich wie immer leistungsfähiger und

00:19:50: besser als die Vorgänger-Version. Es soll vor allen Dingen weniger leistungshungrig

00:19:55: sein, was ich bemerkenswert finde. Also es soll im Prinzip die gleiche Qualität in den

00:20:00: Aussagen treffen können, aber dabei weniger Energie verbrauchen. Also das ist ein großes

00:20:05: Thema. Auch da haben wir ja schon ganz oft darüber gesprochen. Ich habe jetzt eine

00:20:08: interessante Zahl gesehen, dass aufgrund der ganzen Entwicklung im Bereich AI sich

00:20:13: der Strom bedarf bis, weiß ich nicht, 2034 oder 2037 verdoppeln soll, was irgendwie

00:20:20: ganz schön viel wäre. Also Energie ist ja ein großes Thema, wenn wir über AI sprechen

00:20:25: und Gemini 2.0 soll also etwas Ressourcen schonender sein, bringt aber auch neue Funktionen mit.

00:20:32: Also im Zuge dessen hat man unterschiedliche neue Tools vorgestellt. Ein Tool, was noch

00:20:37: nicht publik ist, zumindest nur in einem Close Beta zu nutzen ist, ist der Mariner oder Marina.

00:20:45: Und zwar ist das im Prinzip eine Chrom-Erweiterung, die dazu führen soll oder nicht dazu führen

00:20:51: soll, die dazu beiträgt, dass du Chrom autark nutzen kannst oder steuern kannst, Sprache

00:20:58: basierend. Also im Prinzip wird dein Chrom selbst zu einem kleinen Chatbot oder Assistenten.

00:21:05: Ist leider noch nicht publik, nur in der Close Beta. Dann gibt es einen Agenten namens

00:21:11: Jules. Jules soll Entwicklerinnen und Entwicklern aber helfen den Code zu verbessern, also

00:21:15: insbesondere wenn es darum geht Fehler zu suchen und insbesondere, da haben wir aber

00:21:22: auch schon drüber gesprochen im Bereich Gaming, ist Gemini nochmal ein Tick besser, also

00:21:26: es soll dabei helfen, virtuelle Welten zu generieren und ja insgesamt ein etwas leistungsfähigeres

00:21:32: Modell. Seit gestern gelanscht Gemini 2.0. So.

00:21:37: Ja, schon spannend, was die gerade irgendwie auf dem Markt hauen. Also irgendwie das Ding

00:21:41: kam heute früh und gestern hatte Google ja irgendwie auch diesen Quantencomputer durchbruch

00:21:46: mit diesem Willow Chip Announce, wo sie gesagt haben, okay, sie haben jetzt einen Chip gebaut,

00:21:52: der für eine Rechenaufgabe wohl weniger als fünf Minuten gebraucht hat, wo der bisher

00:21:59: leistungsstärkste Supercomputer der Welt so eine völlig absurde Zahl, ich glaube 10,

00:22:04: 7, 7 Millionen Jahre, was haben wir das da drunter zum Zahlen mit so vielen Nullen, dass es

00:22:08: ist, ich glaube, sie haben gesagt, das würde das Alter des Universums um ein Vielfaches

00:22:14: übersteigen quasi als Rechendauer und das Ding hat es halt irgendwie unter fünf Minuten

00:22:19: gemacht. Das ist ein unglaublicher Fortschritt gegenüber auch 2019, wo Google ja den ersten

00:22:24: Quantenprozessor damals präsentierte, der so eine ganz vermeintlich komplexe mathematische

00:22:30: Berechnung dann in unter drei Minuten durchführte und der aktuelle Computer macht es, glaube

00:22:34: ich, dann in der Sekunde oder sowas oder noch nicht mal und das jetzt nach und nach, da

00:22:38: merkt man auch, die kündigen das jetzt nicht so medienwirksam an wie der Herr Ordmann, aber

00:22:43: die schippen tatsächlich auch wirklich vieles, viel Neues und also wirklich echte Innovation

00:22:49: mal vor allem mit diesem Quantencomputer. Ja, absolut. Und auch da die Release-Zyklen

00:22:55: werden halt auch kürzer, also wenn du dir anschaust, ist gerade mal zehn Monate her,

00:22:59: Gemini 1.5, auch was das ganze Thema Kanton-Computing betrifft, also da werden die Zyklen, glaube

00:23:05: ich, auch insgesamt geringer. Und was ich bemerkenswert finde, oder würde mich deine Meinung oder Sicht

00:23:10: auch darauf interessieren, wenn jetzt das Thema Quanten-Computing so superkomplexe Aufgaben

00:23:15: innerhalb kürzester Zeit lösen kann, was heißt das für solche Sachen, die Verschlüsselung

00:23:19: und Daten, also immer wenn es darum geht, irgendwie Daten zu schützen, wo wir gesagt haben, naja,

00:23:24: wenn du so eine, keine Ahnung, früher hieß es irgendwie AES 256-Bit-Verschlüsselung ist

00:23:31: nicht knackbar innerhalb der nächsten eine Million Jahre, ich bin mir nicht mehr so 100%

00:23:36: sicher, ob diese ganzen Zahlen noch stimmen. Ja, total. Also ich glaube, das wird auf jeden Fall

00:23:42: passieren. Also die gute Nachricht, jetzt hat nicht jeder so ein Quantencomputer im Hobbyraum

00:23:47: stehen, aber natürlich werden auch die nach Moos Gesetz immer einfacher und immer breiter quasi

00:23:54: in die Gesellschaft oder zumindest in die großen Unternehmen, Staaten etc. halt irgendwie dann auch

00:23:59: diffundieren. Aber tatsächlich gab es gestern eine relativ große Meldung, dass zumindest jetzt mit

00:24:04: diesem neuen Quantencomputer es wohl zumindest theoretisch möglich ist, den Bitcoin Algorithmus auf

00:24:10: der Bitcoin Black Blockchain zu brechen. Und das wurde ja halt irgendwie so gebaut, dass das also

00:24:16: de facto weder praktisch noch theoretisch möglich ist. Aber das soll jetzt tatsächlich relativ einfach

00:24:23: möglich sein, das Ding halt irgendwie zu brechen. Alles wieder natürlich nur theoretisch, weil es gibt

00:24:29: halt einen von diesen Quantencomputern und ich glaube, der hat jetzt erstmal andere Berechnungen

00:24:32: halt irgendwie durchzuführen. Aber zumindest kann man irgendwie argumentieren, Bitcoin und alles,

00:24:37: was das ganze System hinter Kryptowährungen und halt solche Arten von, ich sag mal, noch einfachen

00:24:43: Blockchain sind, sind halt brechbar. Und diese ganzen Public Key, Hashes und Keys, die halt irgendwie

00:24:50: auf den unterschiedlichen Blockchain sowohl als öffentliche als auch private Schlüssel dann

00:24:53: liegen, könnten halt durch so einen Angriff einfach nicht mehr standhalten. Was macht denn dann

00:24:58: Teilchenbeschleuniger in der Küche? Läuft er noch? Der macht so eine Hitze, dass mir die Haare zu

00:25:04: bergestehen. Thermomix angeschlossen. Geil. So, Meta macht auch was Neues. Die haben Neuigkeiten

00:25:11: und letzte Woche haben sie ein neues KI-System eingeführt, das, was ich wirklich spannend fand,

00:25:15: war auch eine schöne Vorstellung, was die Produktivität vor allem von Unternehmen steigern soll.

00:25:19: Wir reden ja ganz viel auch immer über B2C Produkte. Aber jetzt geht es vor allem wohl darum,

00:25:24: tatsächlich B2B wieder aufzuleisen. Das Ding heißt MetaMate und ist ein KI-Tool, was natürlich

00:25:31: auf Metas eigenem Sprachmodell Lama basiert und für Softwareentwicklung verwendet werden kann,

00:25:35: für Recherchezwecke, aber auch für unterschiedliche Kommunikationsteam. Wir haben dann halt einfach

00:25:40: nicht mehr ihr eigenes Teams oder Slack, sondern sie nutzen dafür MetaMate. Und auch die direkten

00:25:46: Webbewerber Microsoft und Google haben ja schon ähnliche Agenten im internen Einsatz, auch schon

00:25:50: seit einer ganzen Weile. Die sind wohl auch noch ein bisschen besser ausgerüstet. Also zum Beispiel

00:25:54: MetaMate hat noch keinen autonomen Kalender und Meetingmanagementfunktionen, was Google wohl

00:26:00: angeblich hat. Aber Meta liest jetzt in der Presse verlautbaren, dass sie sich darauf wirklich

00:26:04: fokussieren mit einem gut ausgestatteten Team, gute Ressourcen, sehr viel Geld und langfristig die,

00:26:09: ich zitiere, beste Unternehmensassistenz der Welt schaffen wollen. Und damit natürlich irgendwie

00:26:15: auch für jeden im Unternehmen irgendwie KI so anwendbar machen, ohne dass du dich da irgendwie

00:26:20: theoretisch miteinander setzen musst. Und ich finde das schon sehr spannend. Ganz am Ende,

00:26:25: und das ist eigentlich auch wieder auch interessant, Meta hat so ein bisschen auch raus, finde ich,

00:26:30: genau wie Anthropic, worüber wir letzte Woche gesprochen haben mit Perplexity und jetzt auch

00:26:34: mehr und mehr OpenAI, dass sie einfach neue Revenue Cases bauen. Und das ist mal ein sehr,

00:26:39: also zumindest potenziell spannender B2B Revenue Case, der halt irgendwie nicht auf Abicalls und

00:26:44: auf Lizenzen und Subscriptions ausgerichtet ist, sondern du kannst halt also wie auch Microsoft,

00:26:50: das schon seit den 80ern gemacht hat, halt irgendwie die Sweets quasi zu koppeln und dann

00:26:54: immer wieder weiter zu verkaufen. Und ich glaube, so was will Meta jetzt auch mehr und mehr machen.

00:26:58: Und ich glaube, das ist auch ein total spannender Markt. Ich habe in Financial Times ein Artikel

00:27:03: gelesen in der Woche davor, dass der Markt für KI-Assistenten bis 2030 bis auf 47 Milliarden

00:27:10: Dollar wachsen kann und im Jahr 2030 ist gleich um die Ecke. Und ich glaube, das befeuert auch

00:27:15: nochmal diesen Wettbewerb zwischen Meta, OpenAI und Google hier. Ja, also auch da,

00:27:21: da fange ich schon an zu strauchen, aber auch da siehst du, also wir haben Meta, wir haben Google,

00:27:25: wir haben OpenAI, wir haben letztendlich Ex mit Krok. Also der Kampf um die Vorherrschaft muss man

00:27:32: ja schon fast sagen, in dem Bereich oder zumindest von diesem Kuchen ein Stück abzubekommen, der wird

00:27:37: immer heftiger und immer hemmtseilendlicher. Und wenn wir so ein bisschen nach Europa schauen,

00:27:41: stellt man sich schon die Frage, wir haben letztes Woche ja auch, haben wir so ein bisschen was aus

00:27:45: Deutschland, was da passiert. Also ich bin mir schon mittlerweile gar nicht mehr sicher, ob wir in

00:27:49: diesem Bereich der AI- und Sprachmodelle überhaupt noch eine Chance haben, nennenswert Fuß zu fassen,

00:27:57: weil jetzt sie, wie gesagt, die Schlagzahl so viel mehr zunehmen wird und die Bandagen mit

00:28:02: denen gekämpft wird, ist heftig. Auch die Summen, das ist ja das nächste Thema. Das ist ja nicht damit

00:28:06: getan, dass du einfach sagst, okay, lass uns mal irgendwie ein Startup gründen, das ist noch einfach.

00:28:09: Aber du brauchst so absurd viel Geld, was wir in Deutschland schon mal gar nicht und auch in

00:28:15: Europa in der Region nicht investieren. Und das müsstest du eigentlich tun.

00:28:18: Ja, auch das Recruiting für solche potentialen Startups. Also die Menschen, die sich wirklich

00:28:25: halt irgendwie auskennen, gehen halt irgendwie in die großen Demen rein und dann schließen die sich

00:28:29: natürlich dann auch oft halt irgendwie den neuen gehypten Startups an. Wir sehen das ja auch bei

00:28:34: Anthropic, wie viele Menschen, die jetzt mittlerweile halt irgendwie auch ziehen überall auf der

00:28:38: Welt, die sich dann wieder neu ausgründen und sich wieder zusammenfinden. Aber ja, ich bin da bei dir,

00:28:44: also ich beobachte das tatsächlich auch sehr gespannt, aber auch so ein bisschen mehr und mehr

00:28:50: desillusioniert, dass Europa ganz vorne und vor allem hat irgendwie auch Deutschland da mitspielt.

00:28:55: Es kann natürlich sein, dass wir jetzt das Ganze auch beobachten. Wir haben ja auch gesehen,

00:29:00: Aleph Alpha ist dort irgendwie interessant gestartet, war aber dann irgendwie auch eher Presse als

00:29:04: dann wirklich ein handfestes Modell mit Substanz. Ich bin gespannt, wie das jetzt im Unternehmen

00:29:10: aufgeht. Wenn man so ein bisschen sich mit den Pressestimmen vor allem auch von SAP und von

00:29:16: Salesforce und so, also wirklich die großen B2B Player beschäftigt, die prophezieren ja dieses

00:29:21: ganze Thema Agentic. Wir haben ja immer schon mal hier so ein bisschen darüber gesprochen. Und das

00:29:25: könnte natürlich was sein, wo dann auch andere Länder sagen, jetzt hüpfe ich auf diesen Hype

00:29:31: drauf, weil der ist vielleicht sogar dann auch viel wirkungsvoller und viel besser monetarisierbar.

00:29:35: Und ich muss nicht unbedingt einen Sprachmodell für eine Milliarde bauen, was in zwei Monaten

00:29:39: wieder ein Wegwerfprodukt ist, weil dann ist das nächste Sprachmodell da. Das ist ja immer das

00:29:43: große Problem. Diese Trainingsdaten kosten einfach sehr, sehr viel Geld, weil sie halt einfach die

00:29:47: Rechenkapazität in Clouds etc. haben. Aber sobald du ein neues Modell hast, kannst du mit dem alten

00:29:52: Modell nichts mehr anfangen. Und das passiert ja dann meistens darauf. Das heißt, du schmeißt es

00:29:55: nur noch weg. Aber das Thema Agentic ist so ganz spannend. Auch da gibt es einen ganz interessanten

00:29:59: Artikel, den das World Economic Forum jetzt veröffentlicht hat. Und wir haben ja hier immer

00:30:04: schon mal so ein bisschen über Agentic gesprochen und das Agentic auch vermutlich bald so ein bisschen

00:30:08: das Thema generative KI, die einfachen Chatbots und Co. ablösen könnte. Also ich beschäftige mich

00:30:15: damit tatsächlich sehr viel. Ich lese darüber viel und ich glaube, dass diese neue KI einfach viel

00:30:20: eigenständiger arbeiten kann. Sie kann viel einfacher lernen, wenn man das echtes Lernen

00:30:24: bezeichnet und vor allem aber auch handeln, ohne dass ständige menschliche Anweisungen als Promts

00:30:30: oder als Iterationen gebracht werden. Dieser Salesforce CEO hat vor der ganzen Mal gesagt,

00:30:35: dass sie das seit zwei Monaten halt irgendwie rumspielen lassen und sie haben halt irgendwie

00:30:38: verschiedene Agenten gebaut und haben jetzt irgendwie zwei Wochen später nochmal reingeschaut. Und

00:30:42: da war dann auf einmal eine Handvoll von neuen Agenten, die Themen an einer Wertschöpfungskette

00:30:47: ausgeführt haben. Ganz einfache, ganz kleine Prozessschritte, die aber niemand programmiert

00:30:52: hat und die sie auch im Code nirgendwo finden. Das heißt, dieser Agentic LLM hat quasi neue,

00:30:57: ganz kleine Small Language Models, also SLMs gebaut, um einfach einen einen Task nur von denen

00:31:03: ausführen zu lassen. Hat aber auch tatsächlich den Menschen oder den Erschaffer, wenn man so will,

00:31:07: nicht darüber informiert, hat einfach eigenständig gehandelt. Und das ist spannend, weil am Ende

00:31:12: arbeitet dieser groß angelegte Agentic AI wie ein Team von Experten, das einfach komplexe

00:31:19: Aufgaben Schritt für Schritt sich anschaut und dann daraus eigenständig Lösungen entwickelt,

00:31:24: die gar nicht unbedingt halt die typischen menschlichen Lösungen sind. Und in diesem Artikel

00:31:29: wird halt auch darüber diskutiert, welche Auswirkungen das dann auf die Finanzbranche

00:31:32: haben könnte und das ist ja auch das, womit wir uns dann wahrscheinlich mehr und mehr beschäftigen

00:31:35: werden. Ein Trading Agent ist ja klar, der kann an irgendwie Markdaten analysieren,

00:31:40: Handelstrategien anpassen, Risiken bla bla bla, in Echtzeit minder, weil wir gar nicht

00:31:43: so tief darauf eingehen. Aber ich glaube im ersten Schritt zu diese widerkehrenden Aufgaben,

00:31:48: Datenanalysen, Transaktionsabwicklung, egal ob es jetzt Zahlungsverkehr ist im Banking,

00:31:54: in dem Fintech, was auch immer, aber auch Compliance Prüfungen. Auch das haben ja,

00:31:58: riesige Banken haben riesige Compliance Abteilungen, aber auch frische Fintechs brauchen Compliance,

00:32:04: Regulatory, Governance, Strukturen. Und wenn du sagst, dass du die vollständig automatisieren

00:32:09: kannst, dann spart das auf der einen Seite immens viel Zeit. Es reduziert wahrscheinlich auch

00:32:14: menschliche Fehler, die in diesem Bereich immer wieder passieren. Und es sorgt halt natürlich

00:32:18: dann irgendwann auch dafür, dass Menschen halt auch einfach gehen werden, weil du die dann

00:32:24: wahrscheinlich dafür einfach nicht mehr brauchst. Ja, und da sind wir genau bei dem Thema, wie gesagt,

00:32:28: ich freue mich super auf unseren Doomsday, weil die Implikationen sind ja manikfaltig und mehrschichtig.

00:32:32: Auf der einen Seite Arbeitsplätze fallen weg, da kann man auch das Argument sagen, na ja,

00:32:37: es kommen auch neue Arbeitsplätze dazu, die wandern sich um. Alles gut, das ist die These oder

00:32:42: der Meinung bin ich auch. Also wenn etwas wegfällt, bedeutet das nicht, dass nicht was Neues dazu

00:32:47: kommen kann. Also wie gesagt, wir brauchen Experten, Experten gerade in dem Bereich. Prompt müssen

00:32:51: geschrieben werden sozusagen. Eis oder Sprachnudelle müssen trainiert werden und auch justiert werden.

00:32:57: Und du brauchst auch immer, glaube ich, die Instanz, die dann im Zweifel immer noch drüber schaut. Aber

00:33:01: und das ist finde ich total spannend, wenn du sagst, na ja, es werden eigenständige Entscheidungen

00:33:07: getroffen und die Nachvollziehbarkeit ist nicht mehr gegeben. Dann finde ich das eine super krassere

00:33:11: Aussage, auch wenn du mal schaust, also gerade bei Finanztransaktionen oder viel mehr bei Finanzentscheidungen,

00:33:17: das wollte ich sagen, da hängt ja mitunter nicht nur viel Geld dran, sondern der Impact kann

00:33:21: wirklich riesig sein. Ja, wenn der Agent sagt, okay, wir sollten jetzt in dem Bereich investieren und

00:33:27: noch einmal ist das ganze Geld weg, aus welchen Gründen auch immer, dann sind die Entscheidungen ja,

00:33:31: haben einen großen Impact. Und auch wenn du jetzt mal aus der Finanzbranche rausgehst,

00:33:35: auch in andere Bereiche, weil wir wissen gerade, dass im Bereich AI, im Bereich der Medizin ganz,

00:33:41: ganz viel passiert, auch da möchte ich natürlich im besten Fall die richtige Entscheidung getroffen

00:33:45: haben. Also wir bewegen uns im Prinzip so ein bisschen jetzt auf dem Level, wo wir auch immer

00:33:49: drüber diskutiert haben, bei dem Autobiloten von Tesla, der irgendwie erkennt, es läuft jemand über

00:33:54: die Straße, jetzt läuft ja die ältere Dame und das Kind über die Straße, wie soll das Auto reagieren?

00:33:59: Also diese ethischen Grundfragen, die damit einhergehen und die sind wir jetzt nochmal auf einem völlig

00:34:04: anderen Niveau und völlig anderen Level. Du hast das recht, also mit all diesen Vorteilen kommen

00:34:10: natürlich auch einfach viele, viele Nachteile und Herausforderungen, ja das Thema Jobverlust,

00:34:14: also weil so Tätigkeiten wie eine Datenanalyse, Compliance können und ich prophizeihe werden

00:34:20: durch KI einfach wirklich vollständig ersetzt. Und dann kannst du natürlich sagen, du machst

00:34:25: irgendwie Umschulung und Weiterbildung und du nutzt dein, dein wichtigstes Ressourcen,

00:34:29: die du im Unternehmen halt irgendwie hast, Menschen weiter. Also was werden die meisten

00:34:34: kapitalistisch geführten Unternehmen machen? Die werden einfach riesige Abbauprogramme entfachen,

00:34:38: weil sie hier wittern, dass halt einfach die maximale Reduzierung von Kosten und Effizienzhebel

00:34:43: notwendig sind. Dann hast du das zweite Thema, Datenschutz und Sicherheit, weil was ich gerade

00:34:49: beschrieben habe von Salesforce, dass so eine Autonomie von Agente.gi auf was auch immer

00:34:55: Privatsphäre, Cyberangriffe mit sich bringen kann, weil es einfach nicht mehr nachvollziehbar ist,

00:34:59: welche Agenten gerade wo in der Wirtschaftskette, woran arbeiten und mit welchem Zweck die das

00:35:04: eigentlich tun. So ja, so dann hast du irgendwie Marktrisiken, als Banker ist das ja irgendwie

00:35:09: eines der wichtigsten Themen auch immer. Das heißt auch diese automatisierten Entscheidungen

00:35:13: können natürlich zu einem synchronisierten Verhalten auch führen, was Marktvolatilitäten

00:35:19: verstärken kann. Wenn ich an das Kryptotrading denke, da hast du halt immer noch so wenig

00:35:22: Marktkapitalisierung und wenn einer oder zwei von diesen Big Whales beim Bitcoin oder bei

00:35:27: Ether ihre Themen verkaufen, dann knallt der Markt in die einen oder die andere Richtung.

00:35:32: Und wenn du das quasi halt als Herdentier immer weiter halt dann auch machst, dann ist das krass

00:35:38: und ich glaube, es braucht einfach mehr klare Regeln um Ferne und Transparenz zu sichern in

00:35:42: einer klaren Regulierung. Aber da auch vielleicht ganz spannend, ich habe mit einem Kumpel vor

00:35:45: ein paar Tagen gesprochen, der so Finanzdienstleistungen in einem tollen Fintech für unterversorgte

00:35:50: Regionen baut. Und da kam ich halt auch schnell auf das Thema Agentic, weil dort kann es ja

00:35:55: auch dazu führen, Menschen sehr schnell und sehr konsequent Zugang zur Finanzdienstleistung

00:36:00: zu ermöglichen, wo bisher einfach kein Banking und Banken möglich waren, ja irgendwo im

00:36:05: Busch und das sind dann keine Mikrokredite für Landwirtes. Immer noch ein Riesenthema

00:36:10: und das wird sowieso abseits der typischen Schiebens geführt. Aber wenn man sich vorstellt,

00:36:16: dass halt einfachste Banken mit Agentic AI Kreditrisiken bewerten und dann auf Basis

00:36:21: von lokalen Daten, Wetterdaten, automatisierte Kreditentscheidungen treffen, ohne dann diese

00:36:26: Risiken im Hintergrund, was einfach wirklich Mikrokredite sind, das Gleiche gilt für

00:36:31: Versicherung. Wenn du deine Ernte absichern willst, dann kannst du halt irgendwie sagen,

00:36:35: du willst nicht halt irgendwie diese Standardpolisen zahlen, sondern du kannst halt, also diese

00:36:39: Agenden könnten halt live real-time, wetterbasierte Daten nutzen, um darauf Versicherungsprodukte

00:36:44: in Echtzeit wirklich one-to-one anzubieten. Also ich finde es super spannend, es könnte

00:36:48: so ein KI-Sprung der nächsten Generation werden, aber mal sehen.

00:36:53: Und letzter Satz, sag so, ich finde das total faszinierend, vor allem in was für eine

00:36:58: krasse Abhängigkeit die Menschheit sich ja quasi begibt. Also wir sind ja jetzt schon

00:37:03: abhängig von Strom, ohne Strom geht irgendwie nichts mehr, ja Internet das Gleiche und

00:37:08: hier kommen wir noch mal level und top, ja. Also wir werden ja nicht mehr in der Lage

00:37:12: sein in zehn Jahren irgendwelche Kreditentscheidungen, ohne Unterstützung von der AI zu treffen,

00:37:18: weil das Wissen gar nicht mehr da ist, ja. Also das ist halt, ja total krass. Ich freue

00:37:23: mich auf den DOOMSTAY, das wird so eine richtige, ich glaube das kann man dann später auch

00:37:26: verfilmen.

00:37:27: Macht Zora.

00:37:28: Genau, schön. So, was haben wir noch? Ich gucke hier gerade auf unsere schlaue Liste. Ich

00:37:36: habe nicht mehr so viel, warte mal.

00:37:38: Na du hast auf jeden Fall noch die Turbo-Kakalaken. Ich weiß nicht ob du die nächste Woche aufhielst.

00:37:42: Ja, die Turbo-Kakalaken, ja das finde ich total witzig. Also wir berichten ja immer

00:37:45: mit der, ich habe auch noch ein paar coole Tools, da freue ich mich auch drauf. Aber kommen

00:37:48: wir zu der Kakalake oder zu den Kakalaken. Wir sprechen ja auch immer wieder über Robotics,

00:37:53: in dem Fall muss man eigentlich nicht über Robotics sprechen. Also erstens fange ich

00:37:56: vielleicht mal an mit einer Meldung über Teslas Optimus, der schwirrt ja auch irgendwann

00:38:01: noch durch die sozialen Medien und irgendwann soll das Ding ja auch mal in aller Haushalte

00:38:06: dieser Welt einzug halten. Jetzt ist noch mal ein Video live gegangen, was wohl nicht

00:38:10: gefaked ist, wo man den humanoiden Roboter namens Optimus, das ist das Ding von Tesla,

00:38:16: sehen kann wie er durchs Gelände läuft. Das ist insofern bemerkenswert, weil gerade

00:38:20: laufen können die Dinger alle, Treppen laufen geht auch irgendwie, aber Gelände, also

00:38:25: soll heißen natürliches Gelände, in dem Fall ist es so eine kleine Wiesenhügel ist

00:38:31: für solche Roboter eine sehr komplexe Aufgabe und das meistert eher ganz gut. In Wetterrenn

00:38:37: wird er wahrscheinlich noch verlieren, zumindest ist es mit mir. Nichtsdestotrotz sieht man

00:38:41: da eine Entwicklung und auch das finden wir natürlich immer wieder spannend, was in dem

00:38:45: Bereich passiert. Und das ist ja auch ehrlicherweise nicht nur Tesla, sondern es sind ja auch

00:38:49: noch viele andere, die dort in dem Bereich tätig sind. Kommen wir aber zu einem, wie

00:38:56: ich finde schon fast schon Spooky-Szenario, und zwar gibt es eine Technology University

00:39:01: namens Nan Yang, China. Was haben die entwickelt? Die entwickeln dort Cyborg-Kaka-Laken. Und

00:39:07: zwar habe ich gelesen, wir verlinken das White Paper dazu oder die Studie, man kann Kaka-Laken

00:39:14: relativ einfach ausrüsten und dann mit elektrischen Impulsen schmerzfrei fernsteuern. Also

00:39:22: man, die kriegen so eine Art Rucksack auf den Rücken, sagt man bei Kaka-Laken auch Rücken,

00:39:26: ich weiß es nicht, also obendrauf sozusagen. Und dieser Rucksack sendet dann kleine Impulse

00:39:31: und die Kaka-Lake, die glaubt, dass dieser Impuls von sich selbst kommt im weitesten

00:39:37: Sinne und damit kann man die Dinge halt fernsteuern. Problem ist, um so eine Kaka-Lake mit so einem

00:39:43: kleinen Mini-Rucksack auszurüsten, das dauert relativ lange, irgendwie eine halbe Stunde,

00:39:48: also wenn man das so manuell macht und die haben jetzt ein Prozess entwickelt, fuhren

00:39:52: diese Kaka-Laken. Also das ist ja, ich hoffe nicht, dass wir hier in Tierquälerei, wo uns

00:39:57: nicht lustig machen, auch wenn es sich ein bisschen lustig anhört, aber diese Kaka-Laken

00:40:01: halt mit diesen kleinen Mini-Rucksäcken, sage ich mal automatisiert auslasten können oder

00:40:06: ausstatten können. Was ganz interessant ist, warum macht man das? Das ist jetzt der Sinn

00:40:12: dahinter, man möchte diese Kaka-Laken dann einzusetzen, wenn es darum geht Erdbeben oder

00:40:18: Opfer durch Verschüttungen und Erdbeben, Opfer beispielsweise zu lokalisieren, weil die

00:40:22: Dinge sind natürlich klein, die kann man natürlich vielleicht irgendwo hinschicken,

00:40:25: als jetzt ein Hund und dafür möchte man sich quasi zack entfremden. Ob das jetzt so ein

00:40:31: supergeiler Zweck ist, weiß ich nicht, aber ich finde es mindestens mal interessant. Also

00:40:35: die Turbo-Kaka-Laken für den Notfall, so heißt die.

00:40:38: Kass, Herr Schlatt.

00:40:39: Total. Also die kann man wirklich dann fernsteuern. Nein, bevor du drüber nachdenkst, ist nichts

00:40:45: für zu Hause und auch nichts für die Kinder, aber für unseren Weihnachtsbaum.

00:40:49: Schöne Haustiere. Guckt mal Kinder, Turbo-Kaka-Laken.

00:40:52: Guckt mal, Turbo-Kaka. Genau, dann finde ich zumindest einen da,

00:40:56: ich bin noch ganz interessant. Die Bitkom hat einen Positionspapier veröffentlicht

00:41:01: in den letzten Tagen. Da geht es um das Thema Datennutzung. Wir verlinken das Positionspapier,

00:41:08: möchten da auch ausdrücklich keine Meinung zu geben, einfach vielleicht durchlesen, so

00:41:13: wie ich es interpretiere. Wie habt man für eine etwas freire Nutzung von Daten vor dem

00:41:19: Hintergrund, dass man natürlich, insbesondere wenn wir über künstliche Intelligenz sprechen,

00:41:23: natürlich immer auch auf Daten angewiesen sind und auf die Nutzung von Daten angewiesen

00:41:27: sind und Europa durch den IUI-Akt, der das ja ganz reguliert. Man vermeintlich vielleicht

00:41:33: einen Nachteil sieht oder zumindest ein System an diesem Positionspapier darauf hinweisen.

00:41:38: Einfach vielleicht mal lesen ist ganz interessant.

00:41:40: Ja, hast du noch News, sonst würde ich zu den Tools übergehen.

00:41:43: News habe ich nicht, ich freue mich auf deine Tools.

00:41:45: Ja, ich freue mich auch. Also fangen wir mit etwas total einfachen an. Ein Tool namens LogoAI,

00:41:51: LogoAI.com. Super easy, also man stellt sich vor, man möchte ein neues Unternehmen gründen

00:41:58: und man sucht noch ein schickes Logo, dann geht man auf besagte Webseite und sagt im Prinzip nur,

00:42:03: das ist der Company Name, sagt dann in welcher Branche man unterwegs ist,

00:42:07: dann kann man noch eine Colour Codierung, hätte ich fast gesagt, also ein Colour Scheme auswählen,

00:42:13: also in welchem Fahrbereich soll das Ganze stattfinden. Dann gibt man noch ein Flavour mit,

00:42:18: das ist ein modernes Design, weniger modernes Design und dann drückt man auf Generate und bekommt,

00:42:23: wie ich finde, ziemlich witzige Logos, also nicht nur witzig, sondern ich finde die zum Teil

00:42:27: wirklich richtig gut. Dann muss man sich anmelden und dann natürlich irgendwann in den Pro Account

00:42:32: reingehen, um das Logo auch für sich selber nutzen zu dürfen, aber um mal so ein bisschen

00:42:36: Inspirationen sich zu holen, macht das das Ding eigentlich ganz gut. Insofern auch,

00:42:40: weil das ist immer ein Problem gewesen bei bildgenerierender AI, das Thema Text und

00:42:46: ja, Econographie zu verknüpfen, da kommt manchmal so Mischmasch raus, also OpenAI,

00:42:51: Metalli, macht das bis heute nicht gut, dieses Tool wiederum macht das richtig klasse. Ich sehe

00:42:56: es schon bis zum Rundprobieren, also ja, macht Spaß. Dann habe ich ein Tool mitgebracht,

00:43:02: namens Quillbot. Quillbot ist wirklich mega cool, weil es ist letztendlich eine Applikation,

00:43:07: die du für Windows und Mac nutzen kannst, also letzte runter und dann hängt das Ding erst mal in

00:43:12: deiner SysTray oder in deinem Doc und was macht es? Es verknüpft sich mit allen gängigen

00:43:17: Applikationen, die man so hat, also Word, Slack, iMessage, Mail und noch ein paar andere und es hilft

00:43:23: dabei, nicht nur deine Rechtschreibung zu verbessern, das kennen wir auch von anderen Tools,

00:43:28: sondern es hilft dabei auch, deine Schreibweise generell zu verbessern. Das heißt, immer wenn

00:43:32: du irgendwas schreibst, wird vorgeschlagen, das können wir noch besser schreiben, man kann

00:43:35: Texte summarisen, man kann Texte auch nochmal anders formulieren, freundlicher, das ist vielleicht

00:43:40: für dich ganz interessant, wenn du unhöfentlich die E-Mail schreibst, dann kannst du das Tool,

00:43:44: schlägt dir dann vor, wie man es vielleicht ein bisschen freundlicher machen kann. Es hat eine

00:43:47: Vielzahl von Funktionalitäten in einem ersten Test, kann ich sagen, funktioniert es wirklich sehr,

00:43:53: sehr gut, du kannst auch Texte übersetzen lassen, On the Fly, schönes Tool, was man mal ausprobieren kann.

00:43:58: Ja, sieht gut aus, cool, also ich glaube, das ist ja bei ganz vielen Sachen schon inkludiert,

00:44:03: also bei mir ist es der Co-Pilot, den ich in Outlook habe, in Word, in PowerPoint und Co.

00:44:09: Aber sag mal, Co-Pilot geht doch nur in Englisch, oder?

00:44:12: Das geht mittlerweile auch auf Deutsch, aber einfach schlecht. Also in Englisch funktioniert es

00:44:18: gut, gerade halt irgendwo sieht es, ich möchte der Text so seriöser sein, er soll formeller oder

00:44:23: schau dir den Text an, wie der Absender geschrieben hat und schreibe gleich, das geht auch oder macht

00:44:29: es kurz oder länger, aber diese Funktion gehen im Deutschen so nicht und auch die Art und Weise,

00:44:35: wie er im Deutschen schreibt, ist schwierig und er merkt es sich vor allem nicht. Das finde ich

00:44:38: halt am blödesten, weil er hat einfach nicht diese Memory-Funktion, die GPT4O und Ho haben,

00:44:44: dass das mein Stil mittlerweile halt irgendwie auch drauf hat, sondern ich fange halt immer wieder

00:44:48: bei Null an und deswegen kann ich dann die E-Mail auch selber schreiben. Von daher finde ich das

00:44:51: schon echt cool, gerade für die, die das noch nicht überall drin haben und ich glaube,

00:44:55: du kannst es halt auch wirklich in deinen Slack, in alle deine Kommunikationskanäle

00:45:00: halt irgendwie integrieren und das wäre ja schon spannend. Also du kannst damit lernen,

00:45:05: weil ich glaube, die, also irgendwo stand hier, AI, AI that rides with you and not for you. Also du

00:45:11: musst immer was vorgeben und er hilft dir dabei, besser zu werden. Schon cool.

00:45:15: Dann, wir hatten auch glaube ich über das Tool Leonardo AI immer mal wieder gesprochen. Leonardo

00:45:22: AI ist ein Creative Tool. Auch da kann man Text-to-Image, man kann Bilder generieren,

00:45:28: man kann Bilder abscale, man hat ganz, ganz viele Funktionen und die haben ein neues Tool

00:45:31: oder eine neue Erweiterung vorgestellt namens Flow State und das finde ich super bemerkenswert,

00:45:37: weil du schreibst keine Prompts mehr, sondern du sagst im Prinzip innerhalb dieses Workflows,

00:45:43: was möchtest du für ein Bild haben? Ein Beispiel, du möchtest ein Bild haben von einem Hund,

00:45:49: einem Roboterhund. Dann generiert ihr die erstmal quasi fortlaufend, unentwegt unterschiedliche

00:45:56: Roboterhunde in unterschiedlichen Designs, sage ich mal Flavors und Einfärbungen und dann kannst

00:46:04: du sagen, alles klar, das gefällt mir ganz gut und gehst also quasi iterativ vor und sagst,

00:46:10: okay das Bild und dann nimmt der im Prinzip diesen Tonalität, würde man sagen, wenn man von Texten

00:46:17: spricht, also diese Designrichtung, diese Stilrichtung und generiert dann darauf aufbauen,

00:46:23: wieder neue Bilder. Dann kriegst du im Prinzip ganz, ganz viele Bilder, die dann in diesem

00:46:26: Stil sind und dann kannst du quasi iterativ vorgehen und das ganze Thema feingranulare

00:46:32: gestalten bis du dann irgendwann ein Ergebnis hast, wo du sagst, okay genauso soll es aussehen.

00:46:37: Das heißt du musst nicht mehr prompten, sondern du hast im Prinzip ja eine Aushalt

00:46:43: von Bildern und hangelst dich quasi von Bildstil zu Bildstil bis zu einem fertigen Ergebnis kommt.

00:46:49: Ist ein super Rabbit Hole, kann ich nur sagen, also wenn man damit einmal angefangen hat, also ich

00:46:53: habe ja schon heute Morgen eine Stunde mit umgespielt, aber das Ergebnis hinten raus ist

00:46:57: natürlich auf der anderen Seite auch cool, weil das kennen wir, wenn wir anfangen zu prompten,

00:47:02: dann haben wir auf einmal ein Bild, das sieht schon ganz okay aus, aber dann wollen wir davon

00:47:06: vielleicht eine andere Einschärbung haben und danach ist irgendwie das komplette Bild kaputt.

00:47:12: Das passt wieder neu an. Das sieht ja einfach nicht. Stimmt. Nice. Probier ich aus. Macht großen

00:47:17: Spaß. Genau. Drei Tools. Wir packen es wie immer in die Show Notes. Stark. Vielen vielen Dank,

00:47:24: lieber Mike. Es war wieder eine Freude und mir ein persönliches Fest. Das war unsere

00:47:30: heutige Folge. Wir haben ganz viele News und ein paar tolle Tools gehabt. Beim nächsten Mal machen

00:47:34: wir "Domestay". Wenn ihr eigene Ideen habt für "Domestay", schreibt uns die ab und zu. Macht

00:47:38: dir das gerne. Linken sind Kanäle oder wir haben eine E-Mail. Hello@unpluckedpodcast.de. Und dann

00:47:46: können wir natürlich auch eure wilden "Domestay"-Fantasien und Szenarien hier so ein bisschen

00:47:50: reiserisch auseinandernehmen von daher. Vielen Dank fürs Zuhören. Freuen uns über Feedback und

00:47:55: bis nächste Woche. Ciao, macht's gut. Ciao.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.