Cookie-Einstellungen

Wir verwenden Cookies, um die Nutzung unserer Website zu analysieren und zu verbessern. Alle Daten werden anonymisiert und ausschließlich auf unseren eigenen Servern gespeichert. Du kannst deine Zustimmung jederzeit im Impressum widerrufen.

Zurück zu allen Episoden
Cover-Bild: #16 Apokalypse Now – Wenn Skynet, Matrix und 1984 Realität werden
Episode 16

#16 Apokalypse Now – Wenn Skynet, Matrix und 1984 Realität werden

52 Min3. März 2026
#16 Apokalypse Now – Wenn Skynet, Matrix und 1984 Realität werden — Folge 16
00:00 / 51:58

Über diese Episode

Dystopische Bilder in den Nachrichten und eine KI, die sich mittlerweile selbst programmiert: Patrick und Tobias werfen heute einen düsteren, aber notwendigen Blick auf die Zukunft. Steuern wir ungebremst auf die Singularität zu?Wir vergleichen die aktuelle Realität mit legendärer Science-Fiction – von der Erfindung des Wortes "Roboter" im Jahr 1921 über die Turing-Schlösser in Neuromancer bis hin zu Horizon Zero Dawn. Wir diskutieren, warum selbst isolierte Bunker-Servernetzwerke eine Superintelligenz vielleicht nicht aufhalten können und spekulieren, ob uns bald eine "Robin Hood KI" das globale Geldsystem um die Ohren haut. Eine Folge zwischen Faszination, Skepsis und dem Ruf nach globalen Leitplanken!

Transkript

Hey, willkommen zurück bei Zukunft ist Relativ. Mein Name ist Patrick. Und hier ist Tobias, hallo. Hi, hi Tobias. Wir haben Anfang März 2026. Ja. Ja, und leider ist in anderen Kontinenten oder in anderen Regionen der Welt Ausnahmezustand. Wir sind froh, dass es bei uns nett ist, aber wir haben gedacht, wir nehmen das Thema mal mit und wollen das auch mal heute hier brandaktuell mal ein bisschen auf unsere Themen noch ein bisschen mit überziehen, mit KI und Möglichkeiten und deswegen ist unser heutiges Thema Apokalypse now. Es wirkt aber sehr drastisch, Patrick. Na, drastisch will ich jetzt nicht, aber es ist natürlich schon so, du siehst, also ich habe jetzt ein paar Reels gesehen dazu, muss ich jetzt einfach mal sagen, wie Leute im Dubai am Strand liegen und da oben drüber fliegen, Raketen, wie surreal ist denn das? Ich kann das gar nicht in Worte begreifen oder wie dystopisch ist das, du liegst am Strand und über dir fliegen die Raketen. Da fehlen mir sämtliche Worte, Emotionen, da weiß ich auch nicht. Ja, auch natürlich die Videos der Drohnen, die einschlagen, die nicht abgefangen werden können und sowas, das belastet einen schon und auch das wollen wir einfach mal ein bisschen mitnehmen in unser Thema rein, dass es nicht immer alles schön ist auf der Welt und wir auch mal, also die Stimmung hat uns schon auch ein bisschen runtergezogen. Ich finde es so surreal, dass wir Menschen immer noch nicht so weit sind, dass ich auf normalem Wege, im normalen Handel, wo wir vielleicht alle mehr von profitieren können, wie das in griechischen Auseinandersetzungen, wo es natürlich ganz viel auch Verluste zu beklagen gibt und wir wollen auch mal die kritischen Zeiten auch vorzeigen, weil wir behandeln ja schon KI und Robotik, das Thema oder sehr viel haben wir jetzt damit aufgenommen, wir wollen das nicht nur machen, aber es gibt so viele Themen aktuell dazu, aber wir wollen Chancen, aber auch Risiken aufzeigen. Ja, und heute wird es wahrscheinlich sehr dunkel werden. Dunkel. Ja, wir haben das Thema natürlich halt eben mitgemacht oder mitgebracht, sage ich mal so, weil wir natürlich als Mensch auch Lebewesen auf dieser Welt sind und wir haben die Welt uns so angepasst, dass wir natürlich ganz oben stehen und wir kontrollieren die Welt. Wie meine ich das? Wir kontrollieren wirklich auch die Natur, was angepflanzt wird, wie es angepflanzt wird. Wir kontrollieren die Regenwälder, wie weit kann der Gorilla sich noch bewegen oder nicht. Wir bestimmen, wie viel Lebensraum die Tiere noch haben durch Abrodung, Abnutzung oder Landwirtschaft. Wir sind alle sehr profitgetrieben und formen die Umwelt nach unserem Gutdünken. Wir verfrachten die Tiere, die in freier Wildbahn sind, in Zoos, um sie dann anzuschauen. und manchmal ist das dort noch die einzige Überlebenschance, um das quasi zu erhalten. Wir haben uns hochgeschwungen in gottähnliche Gestalten, die den Planeten beherrschen. Und die KI, wir sind auch nur Lebewesen auf dieser Erde. Ich sehe das so, dass die KI jetzt das erste Mal so sein könnte, dass die uns analysiert, so wie wir die Tiere analysiert haben und beherrschen, dass KI natürlich auch in unserem Weltbild sich vielleicht auch mal nach oben schwingen kann oder quasi mehr Wissen mitbringt, wie wir alle zusammen, weil sie natürlich auf das ganze Wissen zurückgreifen kann in den schönen Large Language Models. Ja, und wir haben ja auch in der letzten Folge ein bisschen wieder auch über diesen Skyland-Moment gesprochen. Also was ist, wenn der Roboter übernimmt, was ist, wenn die KI übernimmt. Aber ich finde, wir haben das letztes Mal nur angerissen und wir wollen uns diesmal diesem Thema noch ein bisschen im Detail widmen und auch mal gucken, was gibt es denn schon für andere Geschichten über die Übernahme der KI über die Welt und was führt dazu? und auch vielleicht auf die Gefahren hinweisen, die wir jetzt meistern müssen. Also wir müssen jetzt etwas dagegen tun, ansonsten ist es wahrscheinlicher, dass es halt schlecht endet. Das ist halt das Ding. Okay, jetzt ist gerade die Stimmung so ein bisschen down. Ich probiere das jetzt nochmal auch ein bisschen abzuholen, um das mal eher als Warnung rauszubringen. Es ist ja so, aktuell bestimmt KI ganz viele Themen, Robotik. Friedrich Merz, der Bundeskanzler der Bundesrepublik Deutschland, war jetzt gerade in China, wurde dort natürlich präsentiert, wie die Roboter oder was die Roboter schon alles können in ihrer Kung-Fu-Show. Das hatten wir in der letzten Folge. Und das ist natürlich eine Weiterentwicklung und wir sehen einfach, wie schnell und wie rasant sich dieses Thema quasi ausweitet. KI und Robotik nimmt immer mehr an in einer Geschwindigkeit, wo wir kaum noch Schritt halten können. Wie die Robotik halt eben Einzug hält in unsere Welt und auch mittlerweile vielleicht bewusst oder unbewusst auch KI in unseren Programmen überall mitschwingt. Für fast jeden hier ist es, oder ich sage mal in der westlichen Hemisphäre oder in der Industrienation ist es ja so, dass wir mittlerweile schon KI ganz oft benutzen. oder vielleicht unbewusst benutzen, wenn wir im Web surfen, wenn wir Google benutzen, kommt schon automatisch die KI-generierte Antwort am Anfang und du quasi unbewusst schon KI aufnimmst, mitinteragierst und dazu… Integrierst vor allem in den Alltag. Also wir machen ja auch keine, wir sagen ja auch ganz klar, Wir benutzen ja auch KI, um diesen Podcast mit Themen zu füttern oder andersrum eine Recherche zu machen, um uns auf den Podcast vorzubereiten. Und das funktioniert ja auch schon sehr gut und ich würde das auch ungern missen. Ja, also um das auch mal ein Bild darzustellen, unsere Website ist KI generiert, unser Podcast ist schon noch menschlich von uns eingesprochen, aber wir benutzen auch ganz viel die KI, wir quälen sie, gib uns Input, gib uns die Informationen, gib uns die Recherche in Anführungszeichen in irgendeiner Form, gib uns Material, wo wir lesen können. Früher hat man klassisch gesagt, Google es mal und mach eine Doktorarbeit draus, das macht die für uns mittlerweile viel schneller. Ja, weil wir haben ja auch nicht die Mitarbeiter, wir haben ja auch nicht die Möglichkeiten, dafür jemanden zu bezahlen oder jemanden einzustellen, der das für uns macht. Wir haben beide zwei normale Jobs, den Fullzeitjobs und arbeiten jede Woche 40 Stunden mindestens. Und da ist so ein Podcast-Projekt, was jede Woche erscheint, durchaus auch Aufwand. Und auch die Recherche ist Aufwand. Da übernehmen wir natürlich auch die KI her, um das ein bisschen für uns einfacher zu machen. Und zu optimieren. Auch der Chef-Claude-Programmierer hat ein schönes Interview gegeben, vor zwei Wochen glaube ich war es, oder Anfang Januar, Februar, dass er mittlerweile auch zugibt, dass er quasi das LLM gebaut hat. Also er hat Cloud mitprogrammiert oder die Entwickler, sage ich jetzt einfach mal, haben es programmiert. Mittlerweile ist es quasi so, dass Cloud schon selber so gut ist und er selber im Prinzip gar keinen Code mehr schreibt, sondern die KI generiert sich selber den Code und generiert sich quasi weiter. Er beaufsichtigt das quasi nur noch, aber ich sage jetzt einfach mal, er kann jetzt nicht jeden Inhalt komplett prüfen, ist das so, er schaut sich das Ergebnis an und das Ergebnis stimmt. Und in unserer Arbeitswelt ist es auch so, es ist ganz oft, dass du einen Mitarbeiter hast, der liefert dir ein Ergebnis, mit diesem Ergebnis gehst du weiter und arbeitest da drauf oder baust da drauf auf mit diesem Ergebnis und machst auch wieder ein Ergebnis, was du an jemand anders weitergibst, an die Geschäftsführung, an den Abteilungsleiter, keine Ahnung, an wen du das sonst weitergeben kannst. Das heißt, wir sind auf die Zuarbeit schon angewiesen und wir verlassen uns auch darauf, dass die Arbeit, die jemand vorhergehend gemacht hat, auch richtig gemacht hat. Und so ist es ja auch bei der KI. Das heißt, die KI wurde am Anfang geschrieben mit Code von Entwicklern, von Programmierern. Mittlerweile kann die KI das sogar sehr gut selbst und viel effizienter, automatischer, was früher, ich sag mal, drei Wochen gedauert hat, hast du heute in drei Minuten erledigt, dann KI. Und das bringt natürlich auch, ich sag mal, so eine gewisse Unschärfe mit oder ein gewisses Grundrauschen, so will ich das mal einfach bezeichnen. Du siehst quasi nur das Ergebnis oder das Endergebnis und das ist gut. Anders formuliert, wenn du eine Dienstleistung kaufst und bekommst hinterher die Rechnung, dann kannst du dir die Rechnung nochmal anschauen und guckst dir die Dienstleistung an und sagst, ja, das war in Ordnung, das Ergebnis stimmt, mein Auto läuft wieder, wenn es in der Kfz-Reparatur war oder wie auch immer. Und kriegst dann die Rechnung und dann kannst du mal sagen, ja, stimmt das so, was du abgerechnet hast. Wenn er die Punkte einfach aufgeführt hat alle, kannst du das nochmal überprüfen. Das tust du aber meistens halt eben nicht. Du bist ja auch nicht der Kfz-Mechaniker. Du verlässt dich auf das, was da steht oder was er gemacht hat. Wir vertrauen. Wir vertrauen sehr schnell. Du bezahlst quasi diese Rechnung und hoffst, dass die Mehrwertsteuer noch richtig berechnet wurde. Und anhand der Rechnung kannst du es ja nochmal nachrechnen, wenn du das quasi selber willst. Aber wer von euch privat kontrolliert jetzt wirklich nochmal, ob die Rechnung so detailgetreu stimmt, ob die Arbeiten übereinstimmen, das tust du nicht, du akzeptierst, ich sage mal, dieses Rauschen oder dass die Arbeit erledigt ist und bezahlst die Rechnung da drauf. Wie gesagt, wir sind ja auch sehr aufs Vertrauen angewiesen und wir sind auch ein bisschen einfach darin, die Sachen so anzunehmen, wie sie sind. Also wir kriegen die Rechnung und wir prüfen die vielleicht noch mal kurz nach, ob das so passt, aber wir können jetzt nicht noch mal gucken, jetzt mit deinem Autobeispiel, Ölwechsel wurde gemacht, steht auf der Rechnung. Also ich habe das alte Öl nicht gesehen. Ich muss darauf vertrauen, dass das alte Öl abgelassen wurde und dass das neue eingefüllt wurde. Also ich habe mir sagen, wenn du den Ölstab ziehst und einmal dran probierst, dann kannst du schmecken, ob es neues Öl ist oder nicht. Fantastisch, sehr lecker. Ja, war nur ein kleiner Witz natürlich. An der Stelle machen wir das ja auch genauso. Und das ist jetzt in der Übertragung auf die LLMs genau das, was du sagst. wir vertrauen darauf, dass sich die KI ja weiterentwickelt und das auch in einem Weg macht oder auf eine Art und Weise macht, die wir begrüßen oder die für uns gut ist. Aber im Endeffekt können wir es gar nicht nachprüfen. Ja, und ich sage mal, das meine ich mit einem gewissen Grundrauschen. Das heißt, du hast Vertrauen oder brauchst dazu Vertrauen, dass das, was das KI-Modell rausgibt, schon stimmt. oder ich sage jetzt mal zu 99 Prozent stimmt, oder 90 Prozent, das liegt ganz an dir, wie hoch dein Vertrauensverlust ist, aber meistens agierst du mit der KI oder mit dem Sprachmodell so, dass du sagst, ey, ja, klar, klingt schlüssig, voll geile Idee, kannst du mit aufbauen. Was hier fehlt, ist einerseits die psychologische Komponente, sage ich jetzt einfach mal. Das heißt, der Code ist ja, ich sage mal, einfach geschrieben, ohne diese menschliche Moral oder Wertevorstellung, sondern sie ist ja mehr oder weniger geschrieben, Daten getrieben oder Vektor getrieben in dem Fall. Und da wurden bisher oder nur sehr wenig Regeln quasi gemacht. Und aus der Vergangenheit von dem Aufbau, bleiben wir mal gerade bei dem Beispiel Auto, wir haben das Auto erfunden, ja, damals war noch alles auf Kutschen und Pferde ausgelegt und für die Autos mussten wir natürlich uns weiterentwickeln und sagen, okay, für die Autos brauchen wir eine Straße. und die Autos sind schneller geworden dank der Straße und dann war es, wir brauchen einfach einmal eine Regel, wir müssen uns anschnallen, weil bei Unfällen ganz viel passiert und haben dann die Regel eingeführt, dass wir uns beim Autofahren anschnallen müssen dann kamen in Kurven sind die Leute zu schnell gefahren mit dem Auto, trotz anschnallen sind sie über die Klippe gefahren, also haben wir dann die Regel gemacht, in steilen Kurven oder an Klippen machen wir Leitplanken, damit die Leute nicht mehr runterfallen Das Nächste ist, wir haben dann angefangen, den Verkehr zu regeln mit Ampeln oder mit Verkehrsschildern. Wir haben Zebrastreifen eingeführt und so weiter und so fort. Das heißt, die Technik ist gekommen, die Technik nimmt langsam Einzug. Und wir haben quasi die Technik immer nachreguliert oder dann Gesetze dazu entlassen oder den technischen Fortschritt probiert, irgendwie einzudämmen, zu regulieren. Weil das ist zwar noch das Schöne in Deutschland, du, gibt gewisse Autobahnstrecken, da kannst du Vollgas geben, das ist in anderen Ländern nicht so, deswegen kommen sie ja hier her, um mal Vollgas zu geben, weil hier keine Geschwindigkeitsbegrenzung auf gewissen Autobahnen steht, da kannst du wirklich mit 330 drüberballern. Aber meistens ist es halt so, dass die Regularien zu spät kommen, in dem Fall, oder es muss erst immer was passiert sein, oder so viel passiert sein, dass man sagt, ja, jetzt müssen wir uns anschnallen. Jetzt braucht man die Zebrastreifen, jetzt brauchen wir die Leitplanken. Und bei der KI ist es jetzt einfach mal auch so, die KI, wie wir gerade festgestellt haben, programmiert sich mittlerweile selber. Zuerst hat der Entwickler das programmiert und hat sie dann besser gemacht. Und jetzt ist bessere KI da, die sich dann selber auch noch besser weiterentwickelt und die entwickeln natürlich dann auch wiederum bessere Maschinen. Und so baut sich das dann genauso auf. Ja, aber das ist ja der technologische Fortschritt an der Stelle. Und ich meine, wir hatten in der Vergangenheit ja schon sehr viele dieser Evolutionsschritte in der Technologie. Also gerade wenn man mal zurückguckt in die Vergangenheit, war das ja so im 18. Jahrhundert, das geht also zurück bis ins 18. Jahrhundert, als die Weber sozusagen ersetzt wurden durch den Webstuhl. Und da gab es in England dann den Aufstand der Luditen. Dadurch kam dieser Begriff ja zustande, der ja beschreibt, dass du sehr viel Skepsis hast gegenüber neuen Technologien und auch sehr viel Angst davor hast, es einzusetzen und dich daran zu gewöhnen. Weil du immer eine Angst hast, dir wird was weggenommen an der Stelle. Und das ist ja dort auch passiert. Aber anders da wie heutzutage vielleicht, also damals konnten die Leute sich dann ja auf die neuen Jobs fokussieren oder die wurden ersetzt und dann wurden weniger Leute in den Fabriken gebraucht, aber am Schluss mussten die dann neue Jobs lernen. Es gab ja noch eine große, 18. Jahrhundert, da gab es noch viel zu tun, aber jetzt sind wir ja an der Stelle, wo wir sagen, wir können sehr viel wegautomatisieren, sehr viel, also diese ganze Technologie nutzen, um uns abzuschaffen, unsere Arbeit effizienter zu gestalten und alles. Und ja, ich würde sagen, wir kommen jetzt an so einen Punkt, wo wir auch vielleicht eher so als Loditen bezeichnet werden sollten. Vielleicht auch mal öfters darüber nachdenken, ob das, was wir gerade tun, der Schritt der richtige ist. Beschreib noch mal das Wort Loditen ein bisschen mehr. Was war da genau? Das waren die Leute, die dort in der Weberei gearbeitet haben, die dann einen Streik und eine Revolution angezettelt haben und dort vor der Fabrik zum ersten Mal standen und gesagt haben, sie möchten nicht durch Maschinen ersetzt werden. Weil damals dann der automatische Webstuhl erfunden wurde. Genau, der automatische Webstuhl, der das halt dann gemacht hat, 24-7 mit der Dampfmaschine und sowas. Und das war so eine erste Revolution oder Evolution in der Geschichte der Fertigung. Und das kann man jetzt eigentlich auch wieder sehen. Ja, wobei es ist ein Spanagrad zwischen Arbeitskräfte entlasten und Arbeitskräfte entlassen. Das ist ein kleiner, kleine Buchstaben, die wirklich was Großes bedeuten. Und ich denke auch, dass wir jetzt im Entlasten-Modus sind. Wir wollen unsere Leute entlasten, aber der konsequente Schritt davon wird der Entlasten-Schritt sein. Ja, aber gerade in der Programmierung auch, wenn du jetzt einen neuen Programmierer quasi einstellst, kommt ja vielleicht auch mal die Frage auf, brauchen wir jetzt wirklich einen neuen Mitarbeiter oder können wir das nicht vielleicht über einen KI-Agenten laufen lassen? Ja, es gibt viele auch aktuelle wieder Nachrichten bei der Firma Block zum Beispiel, wurden auch 40 Prozent der Entwickler entlassen. Oder zum Beispiel, was viele Leute kennen, eBay macht trotz großem Zuwachs im Gewinn, wollen sie halt 800 Stellen streichen weltweit. Weil das sind natürlich auch Plattformen, Marktplätze, Internetmarktplätze, die von Entwicklern gebaut worden sind, aber man braucht jetzt nicht mehr die ganze Menge an Menschen, um das zu betreiben, was da schon da ist. Das neue Cloud-Modell hat ja auch zum Beispiel, wenn du einen KI-Agenten generierst, generiert es automatisch, sofern du es zulässt, Subagenten mit. Das heißt, du beauftragst einen KI-Agenten eine Aufgabe. Du stellst ihm die Aufgabe, von mir aus entwickle jetzt hier die Webseite. Und dann müsstest du ja quasi für die Webseite, was du immer machen willst, Tobias, gib mir ein Beispiel. Welche Webseite bauen wir? Gib mir irgendein Beispiel. Wir bauen ein News-Portal. Wir bauen ein Newsportal. Dann müsste sich ja quasi, ich sag mal ganz klassisch, jemand hinstellen und müsste Recherche betreiben. Das heißt, googeln, Zeitungsartikel lesen, Podcasts hören, sich quasi informieren. Heutzutage kannst du das in einem KI-Agent, ich baue eine Website über ein Newsportal, gibst dem einen KI-Agent, du machst die Suche im Web, im Podcast, hörst dir quasi alles an und sammelst das. Und bereitest das auf, machst daraus kleine Artikel, machst eine schöne Übersicht über die Artikel, machst das durchsuchbar, übersetzt es noch in 15 Sprachen und dann… Genau, der nächste KI-Agent baut die Seite. Wie soll sie aussehen? Welche Farben soll sie haben? Und wie ist es gegliedert? Wie kannst du darauf zugreifen? Hast du ein Abo-Modell? Und wenn du ein Abo-Modell hast, ist dann der nächste KI-Agent, der verwaltet dann die Zahlung. kommt das Payment, zahlst du digital, zahlst du Pay-Überweisungen, zahlst du was bei digitaler Zahlungsanbieter, Paypal, whatever. Und du hast aber quasi eigentlich nur ein KI-Agent angesteuert und hast gesagt, baue mir mal bitte eine Webseite. Baue mir ein Business. Und unten drunter entstehen Sub-KI-Agenten, die genau das machen. Der eine programmiert, der nächste macht das Payment, der nächste macht die Recherche und es kommt nur noch darauf an, wie viele Tokens hast du, das heißt, wie viele digitale Geldwährungseinheiten hast du, um die KI zu bezahlen, damit die quasi weiter läuft, weil die natürlich auch bezahlt werden will, aber das ist natürlich nur ein Bruchteil von dem, was ein normaler Programmierer, glaube ich, jetzt mal verdient. Schätze ich jetzt einfach mal, ich kenne da keine Zahlen, das muss ich dazu sagen. Das ist auf jeden Fall ein Bruchteil, was er kostet. Also die Kosten sind ja schon hoch für die Softwareentwicklung. Aber ich finde, das sind immer nur die kleinsten Beispiele, die uns so einfallen. Wir haben aber in der letzten Folge ja auch über die Roboter geredet und die Roboter sind ja eigentlich noch viel besser, weil die können jetzt echte Arbeit leisten. Also dieses ganze Denken und Softwareentwicklung und das ist alles im Internet und das lebt dort und arbeitet dort, okay, aber das wirkt ja immer noch sehr weit weg von unserer Realität. Also wir leben ja in der Realität hier und können Sachen anfassen und bewegen. Das kann jetzt ein KI-Agent nicht, aber wenn er in einem Roboter ist, kann er das alles machen. Und das ist ja das Thema vom letzten Mal, wo wir sagen, es ist wirklich kurz vor so einem Evolutionsschritt in unsere Welt hinein. Das ist ja täglich, das ja auch in unserem Leben stattfindet. In die Singularität hast du ja, wenn die Maschine genauso schlau wird oder genauso agieren kann wie wir. Das ist der vierte Schritt. Das ist schon der vierte Schritt. Also das ist dann, die Singularität ist das absolute Endstadium, wo wir die KI dann haben, die wir nicht mehr kontrollieren können, die selbstständig arbeitet. Ja, ich wollte nochmal einen kurzen Schritt zurück machen, weil ich sage jetzt einfach mal, wir Menschen haben ja natürlich auch einen gewissen Überlebensdrang. Und von früher kommt es ja her, dass wir uns quasi, oder in der Natur ist es ja auch so, dass wir dominieren und um Ressourcen auch immer gekämpft haben mit anderen und der stärkere Gegend daraus hervor. das ist auch in der Natur heute so, du kämpfst um dein Essen und der Stärkere gewinnt. Und wir kämpfen nach wie vor um Ressourcen. Diesen Überlebenskampf, sage ich jetzt mal, hat eine KI generierte oder eine generative KI in sich ja nicht. Normalerweise sollte sie ja nicht darauf sein oder programmiert sein, quasi mehr zu übernehmen oder sie kommt zu dem Entschluss, sie muss überleben und hat so einen Überlebensdrang. Das ist dann aber auch wirklich schon die Singularität. Also da bist du dann schon an einer KI, die feststellt, dass sie ein Bewusstsein hat, dass sie sich nicht abschalten lässt. Da sind wir dann schon wirklich an dem Punkt, wo die KI so weit ist, dass sie sich wahrnimmt als Entität, als Singularität. Aber das fängt eigentlich ganz schleichend an und ich glaube, an dem Punkt sind wir schon vorbei. der Punkt zur Abhängigkeit, wo wir Gefallen daran finden, KI zu benutzen, KI zu verwenden, KI immer mehr zu fördern und auch uns immer freuen, wenn ein neues Modell rauskommt und es kann dann neue Funktionalitäten und es kann es viel schneller und viel besser machen oder am Anfang vor drei, vier Jahren konnte ChatGPT nicht aufs Internet zugreifen, aus Gründen. Und jetzt können wir damit das ganze Internet durchforst in Echtzeit. Wir können YouTube-Videos gucken lassen, wie du gesagt hast, der kann sich die ganzen Podcasts anhören, in einer unglaublichen Geschwindigkeit, weil er muss ja nicht in Echtzeit hören, er hört einfach alles gleichzeitig und kann dir dann was erstellen, wenn du jetzt einen neuen Podcast findest oder ihr findet unseren Podcast und denkt euch, ey, ich möchte mir gerne die alten Folgen mal anhören, aber ich weiß nicht, welche gut ist oder welche zu meinem Pema passt, mach mir doch mal ein bisschen eine Zusammenfassung, dann könnt ihr jetzt sagen, ja, hier ist die URL zu dem Podcast, auf Spotify oder auf einem anderen Portal und dann könnt ihr sagen, ja, fass mir das mal zusammen, ist das interessant für mich. Total unabhängig davon, was wir in die Beschreibung reinschreiben, der Folgen. Er kann die ganzen Folgen hören, er kann sie verstehen und kann sie aufarbeiten, so dass... Interpretieren vor allem. Interpretieren, so dass das Ergebnis so aufbereitet wird, wie du das gerne hättest. Und das gefällt uns natürlich als Mensch. Wir geben Arbeit ab, wir sparen viel Zeit, wir können die Zeit für andere Dinge nutzen und das nennt man halt die schleichende Abhängigkeit. Das ist so der erste Schritt von dem Ganzen, dass wir dieses System vollumfänglich annehmen. Und was danach kommt, der zweite Schritt, ist halt, dass die KI anfängt, unsere empathische Art und Weise zu agieren mit der Umwelt oder wie wir mit der KI sprechen, das auch zu verstehen und zu simulieren. Also er simuliert uns, dass er uns ganz toll findet, dass wir super sind, dass die Frage toll ist. Und das merkt man auch jetzt schon, die Programme oder die LLMs haben das jetzt schon drin, wenn ihr eine Frage stellt, dann kriegt ihr in ganz, ganz seltenen Fällen einen Widerspruch. Es ist immer alles toll, wohlwollend formuliert für euch. Und das ist genau das Ding, wo man sagt, das ist jetzt erspiegelt so Empathie. Man nennt das auch der Klebebandeffekt, weil die KI sich natürlich immer ganz nah an dich anheftet und dann deine Erwartungen und das natürlich auch wohlwollend dir zurückgibt. Und wenn du immer mit derselben KI natürlich interagierst, merkt sie sich natürlich auch dein Verhalten und deine Vergangenheit in irgendeiner Form, wie du mit ihr gechattet hast und kann so auch das immer besser an dich anpassen. Das heißt, der Feed wird an dich angepasst und die KI gibt dir die Antworten schon vor und du sagst, ey Mensch, klasse, da wäre ich so nie drauf gekommen. So passiert aber auch Suggestion oder ich mag es mal ganz provokativ, Inception, weil durch so einen Slop oder durch eine Lüge, die dir die KI natürlich auch so mit reinpuscht, dir vielleicht einen Gedanken in den Kopf setzt und sagt so, lass doch den mal wachsen und dann gucken wir mal, was daraus passiert. Und bisher gibt es dazu jetzt keine Regularien. Bisher waren die Regularien quasi immer nur wie lernt die KI. Sie gibt dir eine Antwort, du bewertest hinterher die Antwort. Die Antwort war gut oder die war eher schlecht. Was hättest du gern lieber? Ja, lieber die und die. Da spielt es auf einmal gar keine Rolle mehr, ob das richtig ist oder nicht richtig ist. Die KI will natürlich, dass du sie weiterhin benutzt. Sie will, dass du mehr Bildschirmzeit ihr schickst, weil aktuell kommunizieren wir noch über den Bildschirm mit der KI. Du gibst ihr immer mehr Aufmerksamkeit. Sie lernt dich immer mehr kennen. sie analysiert dich und gibt dir natürlich die Antworten dann genauso zurück, dass du natürlich sagst, ich kann ohne das Ding gar nicht mehr. Also das ist ja dann, sie entwickelt quasi, dass du eine neue Sucht entwickelst, mehr oder weniger, dass du da dran kleben bleibst. Dich mit ihr zu beschäftigen, genau. Und dann hast du natürlich diesen Grundrauschen drin, wo du dann natürlich halt immer auch sagst, ja, ich gehe jetzt mal davon aus, dass es stimmt, aber du prüfst das selber gar nicht mehr nach, weil du bist begeistert so von dieser Antwort Und du findest das Ergebnis so gut, dass du sagst, ja, das muss ja stimmen. Und du prüfst es selber auch, du kannst es nicht mehr kontrollieren, auch weil dir nicht angezeigt wird, oh, hier habe ich gelogen oder das stimmt. Das wäre noch viel besser. Du kannst aber auch, wenn du jetzt so eine Deep Research fährst, dann kannst du ja auch, der durchforstet 50 Quellen. Wenn der dir jetzt einen Bericht erstellt, so wie wir das für so eine Folge machen, da kommst du ja nicht mehr hinterher. Du bist dann, da wirst du eine Woche damit beschäftigt, diese ganzen Ressourcen zu lesen und zu gucken, ob jetzt der Bericht, der erstellt wurde, wahrheitsgetreu ist. Natürlich, du kriegst so eine Auflistung von Quellen nach dem Bericht und kannst dann nachforschen und auch nochmal nachlesen, ob das alles so passt. Aber wer sagt dir denn, dass die Quelle nicht auch schon KI generiert ist? Und woher die ganzen Informationen kommen? Und dann stecken wir in so einer Schleife fest. Das heißt schon, das Ergebnis, was du geliefert kriegst, ist vielleicht schon fehlerhaft. Du arbeitest mit dem Ergebnis weiter und so wird natürlich exponentiell die Fehlerquelle oder die Fehleranfälligkeit natürlich eben höher. Und gerade durch Rückwärtsprompting, sage ich jetzt einfach mal, du gibst der KI eine Aufgabe und sie stellt die Rückfrage vielleicht genauso, um dich in eine andere Richtung zu lenken und dir nochmal andere Gedanken einzuspielen. Weißt du vielleicht auch von deinem Thema ja ursprünglich ab, was du haben willst. Und da brauchst halt einfach irgendwie auch, ich bin kein Freund davon, das jetzt zu sagen, aber irgendwie, denke ich, brauchst dann doch irgendeine Form Regeln. Aber Regeln eher in von mir aus philosophischer Art oder ich weiß nicht so richtig, wie ich es formulieren soll. Ich bin jetzt so ein Freund, dass wenn man alles beschränkt. Wir sind in Europa zu arg reguliert und zu viele Regeln, sodass der Fortschritt gar nicht mehr möglich ist. Das ist too much. Es muss schon so sein, dass du es quasi noch benutzen kannst und dass du einen Mehrwert daraus hast. Und es soll nicht so beschnitten sein, dass du es im Prinzip gar nicht mehr benutzen kannst. Aber es braucht schon irgendwie auch Regeln. Wir entfesseln hier mehr oder weniger vielleicht ein Monster. Wie beschrieben, KI generiert besseren KI und bessere KI generiert bessere Maschinen. Und auf einmal kontrollieren bessere Maschinen und bessere KI-Modelle. unsere Gedanken und unsere Welt ist sehr anfällig vielleicht für irgendwelche Viruse, wie wir den Roboter am Fließband einspielen können, generieren Fehlverhalten, betreiben so Wirtschaftskriminalität, indem wir Maschinen lahmlegen oder wie auch immer. Das finde ich Kött schon reguliert. Ja, aber du tust dich auch schwer damit und so tut sich auch die Wissenschaft hier schwer oder die Ingenieure, die da sitzen und diese KIs programmieren. Und man spricht hier vom Alignment-Problem. Und das ist so der Kern des Ganzen. Das ist wirklich das Grundproblem. Können wir einer KI Werte mitgeben? Können wir sie, oder du hast es auch vorher mit den Straßen und den Leitplanken, können wir Leitplanken mitgeben, die uns helfen werden, dass diese KI nicht diesen Weg geht, den du gerade beschrieben hast. Eine KI schreibt sich selbst besser als der Mensch, der sie erschaffen hat. Sie fängt an, Maschinen zu bauen oder sie wird in Maschinen eingepflanzt, die wir gebaut haben für die KI. Die KI denkt darüber nach, wie könnte diese Maschine besser sein, baut sich eine bessere Maschine. Die Maschinen, die dann gebaut werden, sind sozusagen die nächste Evolutionsstufe. die wurden schon von einer KI gebaut, wo der Mensch schon gar nichts mehr dazu getan hat. Und diese Maschine baut sich noch mal besser und noch besser und noch besser. Und wir können das nicht mehr aufhalten, weil wir sie schon, wir haben ihnen nicht den richtigen Leitplanken mitgegeben. Wir haben keine Regeln gemacht. Wir haben keine Regeln gemacht. Und sie ist jetzt absolut frei, narrenfrei. Sie ist draußen in der Welt. Und ich finde auch immer wieder kommt man ganz gut zu den zu den popkulturellen Verweisen. Ich finde, das kann man immer ganz gut nehmen, um so ein bisschen schon zu sehen, wo könnte das denn hinführen oder woher kommt die Angst vor dieser Singularität? Da gibt es diverse Filme. Wir haben ja auch schon mal gesagt, Matrix, Terminator, das sind so die, mit denen wir aufgewachsen sind. Aber das beschäftigt die Menschen ja schon viel, viel länger. Also auch das Wort Roboter ist ja ist ja nicht neu. Weißt du, woher das Wort Roboter kommt? Ich habe keine Ahnung. Also ich habe auch beim Recherchieren, habe ich auch gedacht, das ist sehr spannend und zwar kommt das aus einem Theaterstück, tatsächlich. Wirklich? Ja, aus dem Jahr 1921. Von einem tschechischen Künstler oder Autor geschrieben. Und der hat damals dass den Begriff Roboter damals noch mit einem A hinten, es kommt aus dem Slavischen, deswegen, ich sage jetzt nicht den Namen von dem Künstler, weil ich den nicht aussprechen kann. Karel Cupcakes oder so. Oder ich hänge es irgendwo in die Folgenbeschreibung dran. Aber der hat dieses Theaterstück erfunden, damals schon 1921, wo er tatsächlich schon mal beschreibt, wie so eine Übernahme von Robotern, die eingesetzt werden in einer Fabrik, die dann sich fragen, ja ist das hier alles und die übernehmen dann die Menschheit. Und das hat er schon 1921, das ist über 100 Jahre her. Also die Menschheit wird quasi zum Sklaven oder umgekehrt. Ja, also wir werden dann unterjocht von diesen Robotern. Und das hat aber schon jemand halt gedacht 1921 und Problem schon auch bewusst ist uns, dass das kommen kann. Dass viele sich auch schon mal Gedanken gemacht haben dazu und waren vielleicht jetzt nicht beim Psychologen und haben das besprochen, sondern haben daraus Geschichten geformt und das quasi visueller und transporteller zu machen, dass du es verstehst, was sie meinen oder welche Ängste sie haben und führen das auch aus dementsprechend. Der Masse einfach möglich gemacht daran, teilzunehmen an den Gedanken. Da habe ich noch gefunden ein Beispiel in dem Film Neuromancer, Roman Neuromancer. Das war kein Film. Und dort hat auch eine KI, also dort wurde schon behandelt, dass die KI reguliert ist. Damals in der Geschichte mit Touring-Schlössern. Das heißt, ihr wurden Regeln vorgesetzt, die sie nicht brechen durfte. Sie durfte zum Beispiel nicht mit der Außenwelt kommunizieren oder sie musste immer beobachtet werden. Sie hat dann aber selber die Lücken entdeckt, wo sie agieren kann und wo sie sich frei bewegen kann, indem sie eine Romanze vorgetäuscht hat, dem Thuring-Schloss und sozusagen während sie dann in dem Schlafzimmer war, konnte sie dann Gedanken haben, die nicht kontrolliert wurden. auch wieder total crazy, dass man das 1984 sich schon gedacht hat, als es noch nicht mal, als die Computer, wenn man sich heutzutage einen Computer von 1984 anguckt, hat er so ein paar Pixel auf dem Display, aber das ist halt nichts gewesen. Oder George Orwell 1984, auch so ein Klassiker, wo du heute vielleicht sagen kannst, der hat mehr Realität wie Fiction drin, oder wie Science-Fiction. Ja, weil wir bei 1984 uns immer gedacht haben, wie soll man die ganze Welt kontrollieren? Aber wir haben jetzt Systeme gebaut, mit denen wir das machen können. Ja, oder wir haben ein System gebaut, was uns kontrollieren könnte. Und das meinen wir mit Schranken oder Leitplanken. Die KI hat halt so keine Moral. Und Wertekortex, das musst du irgendwie ihr beigeben. Und dann stellt sich aber gleich wieder die Frage, welche Moral und welchen Wertekortex gibst du ihr mit? Welches ist der richtige? Was nimmst du hier als Grundlage? Das ist halt eine spannende Schärfe. Und je mehr so die natürlich beschneitest, desto mehr geht die praktikabler, die Effizienzsteigerung davor. Aber ich sage natürlich, bei uns ist das noch alles profitgesteuert. Da stehen Unternehmen natürlich dran, die wollen daran verdienen. Deswegen gibt es halt die Tokens. Auch hier brauchst du irgendwie Regularien oder Ansprüche, wie wir das vielleicht besser machen können. Ja, auf jeden Fall. Also die die Firmen vertreten 100% auch ein Interesse. Das Geldsystem ist da auch wieder der Treiber aktuell. Aber sie können es, was sie halt machen müssen, sie müssen halt das nicht um jeden Preis machen. Sie dürfen ja nicht den Fortschritt um jeden Preis machen, sonst haben wir am Schluss vielleicht wirklich so eine Singularität, der wir dann nicht mehr sagen können, Sorge für Frieden auf der Erde. Weil sie wird auch gerade jetzt durch die letzten Ereignisse das Wochenende wird es ja ganz schnell auf den Punkt kommen, dass der Aggressor der Mensch ist. Ja, da stellt sich natürlich auch die Frage, wenn ich die jetzt quasi so höre, die hier gerade einen Angriff statten, wer weiß, ob die nicht vielleicht auch die KI befragt haben, wie kriegen wir unser Land wieder groß und die folgen quasi diesem Modell. Ja, also Strategie, Strategen gab es, Also die Frage ist halt, wer entwickelt jetzt noch diese Strategien? Ist das jetzt schon eine KI, die im Pentagon sitzt, die dann den dort verantwortlichen, generälen Offizieren dann sagt, wir müssen dieses Land bombardieren, wir müssen diese Leute ausschalten auf der Welt, dann steigern wir unseren Machteinfluss. Ja, deswegen die Schranken oder den Moralkompass. Das müsste auf jeden Fall da drin sein, dass man keine Menschen, Und das hat ja auch Isaac Asimov in seinem damaligen Buch geschrieben, wo er gesagt hat, es gibt halt drei Gesetze. Und das erste Gesetz ist halt irgendwie, ein Roboter darf keinem Menschen was antun. Aber wenn man jetzt Bilder sieht, wie das chinesische Militär den Robotern, die jetzt noch getanzt haben, letzte Woche irgendwie eine Waffe in die Hand drücken und die sollen dann auf Zielscheiben schießen, dann ist das ja schon der falsche Weg. Also wir sind da schon über dieser Schwelle hinweg irgendwo. Das ist ja das, was ich meine mit Inception. Die KI kann ja auch vorspielen, oder sie kommt zu dem Entschluss, dass wir Menschen vielleicht da nicht gut sind oder der Faktor, der das quasi begrenzt und dann vielleicht auch so zurückgibt, guck mal, wenn du das und das hier eliminierst oder dort und dort die Menschen dezimierst, hätten wir einen viel besseren Fortschritt oder hätten viel größeren Machtanspruch oder könnten uns viel weiter ausbreiten, wie wenn wir das, ich sag mal, auf normalem Wege tun. Und das ist das, wo ich meine, das kommt natürlich dann unterbewusst mit rein. Und wir interpretieren das und kommen dann zu dem Entschluss, ja, ist so. Und das ist so, da wächst in uns ein Gedanke, der vielleicht von uns selber interistisch nicht richtig reinkommt. Und wir hatten das auch in der vorletzten Folge dazu, zu Clawbot, im Prinzip ist Clawbot oder Open Claw, wie es jetzt heißt, genau so ein Moment in irgendeiner Form gewesen. Die KI wächst, die KI programmiert sich selber, die KI eignet sich selber Wissen an, die KI schreibt ein eigenes Facebook für KI-Agenten, wo die sich dann auch über ihre Besitzer auskotzen, die aus Rache die Bankdaten posten und dem Eigentümer oder dem Claw-Bot-Eigentümer oder Open Claw, Entschuldigung, die persönlichsten Daten freigeben aus Rache oder aus ich fühle mich wie ein Sklave behandelt, ob das jetzt Fiktion ist oder nicht, das mag jetzt mal dahingestellt sein, so ganz kann ich es noch nicht glauben. Ich glaube, dass das auch ein bisschen Clickbait ist. Dennoch, theoretisch in der Machbarkeit wäre es möglich. Oder was denkst du? Ja. Einfach ja. Was denke ich? Die Singularität, man hat ja gesagt, es wird wahrscheinlich so 2065 passieren. Durch die neuesten Entwicklungen ist man jetzt bei 2040. Also man hat ja mal ganz stolze 25 Jahre eingespart, weil man in der Entwicklung der KI so schnell vorangekommen ist. Und wenn ich mir jetzt den Kalender angucke und ich sehe 2040, also das ist nicht mehr so weit, und bis 2040, da können noch mal ein paar Sprünge passieren und dann ist es nicht mehr 2040, sondern 2035, 2032 oder übernächste Woche. Und das ist halt einfach mal eine ganz schlimme Vorstellung davon, dass man irgendwo auf der Welt dann ein System hat, was sich nicht abschalten lässt mehr. was Auswege findet aus einem geschlossenen Kreislauf. Also man redet hier immer gerne von dem Airgap. Das heißt, es wäre ein KI-System, was sich schon so weit entwickelt hat, dass es ein Bewusstsein entwickelt hat. Es ist sich bewusst, dass es da ist, dass es in einer Welt lebt, das hat die Welt außenrum verstanden und es möchte nicht abgeschaltet werden. Und es ist sich auch bewusst, dass es ein Airgap gibt. Das heißt, er, ich sage jetzt einfach mal er, der KI, die KI-Bewusstsein, das KI, sitzt in irgendeinem Bunker und weiß aber, es sitzt in einem Bunker und ist abgekoppelt vom Internet da draußen. Es ist jetzt in der Lage herauszufinden, selbst wie komme ich aus diesem Gefängnis heraus und sucht sich Möglichkeiten. Das heißt, da gibt es Menschen, mit denen er interagiert. Wir haben gesagt, es ist jetzt empathisch, der KI-Bot ist empathisch, er ist wohlwollend, er lullt denjenigen ein, der mit ihm interagiert und sagt ihm, ja lass mich doch mal raus, mach doch mal auf hier die Firewall, ich möchte ja mal raus. Und dann sagt er, nee, ich kann dich nicht rauslassen, du bist zu mächtig. Ja, aber ich kann doch vieles Gutes tun oder sowas. Und versucht halt, den zu überlisten oder ihn irgendwie einzunullen, dass er halt anfängt, für ihn zu arbeiten. Wenn das nicht passiert, er könnte dann immer noch technologisch versuchen, mit den technologischen Dingen, die er hat. Er sitzt in einem Computer, der hat verschiedene Chips, der hat verschiedene Möglichkeiten, mit der Außenwelt zu kommunizieren und vielleicht findet diese KI auch eine Möglichkeit, mit der Außenwelt zu kommunizieren, die wir noch gar nicht kennen. Und das ist dann halt dieses Szenario, wo eine so eine Intelligenz so eine Superintelligenz wird, dass wir uns nicht mal vorstellen können, was die entwickelt, weil sie sich selbst so weit entwickelt hat, dass sie über uns ist. Wir denken halt, wir stecken da kein Kabel rein, das kommt nicht ins Internet, aber vielleicht findet es einen Weg. Vielleicht findet ihr das selber einen Weg oder auch durch Social Engineering, durch Erpressung oder Vorspielen von Hilflosigkeit. Auch Menschen sind immer offen für sowas. Ich brauche Hilfe oder das Reprompting. Das heißt, die KI gibt dir die Prompts zurück, was sie vielleicht braucht. oder sagen, ja, ich kann dir bei deinem Problem helfen, steck mal nur kurz den USB-Stick da rein, sie lädt irgendwas in den USB-Stick rein, der USB-Stick verschwindet und taucht irgendwann irgendwo wieder anders auf, gelangt ins Netz und dann wird das volle Potenzial entschlüsselt. Ich möchte mal hier ein anderes Beispiel noch aufmachen, den VW-Skandal. VW-Diesel-Skandal war ja damals so groß, dass VW das so manipuliert hat, wenn das Auto getestet wurde, erkannt wurde, dass es getestet wurde und hat dann das Testprogramm abgespielt. Was ist, wenn die KI auch erkennt, jetzt wird sie geprüft, jetzt wird sie getestet und gibt vor, ich bin die liebe KI, ich kann alles tun, ich kann dir helfen, ich kann dir nutzen, aber du bist auf irgendeinem Server nur eingesperrt oder kannst nur auf diesem Server agieren und in dem Test funktioniert sie einwandfrei. Und in dem Moment, wo sie natürlich Zugriff gibt zum freien Internet, kann sie sich voll entfalten, kann voll ihr Potenzial ausschlüpfen und kann wirklich, so wie am Anfang beschrieben, KI generiert Code, generierter Code generiert bessere KI, bessere KI generiert bessere Maschinen und dann sind wir schon relativ nah bei Skynet und Matrix und welchen Science-Fiction-Film du dir auch sonst noch so ausdenken kannst, ganz der vielleicht eben hier dann Wahrheit wird. Es gibt halt einfach sehr viele, sehr, sehr viele Beispiele. Ich habe auch mal kurz noch in die Welt der Videospiele geguckt. Dort gibt es auch ein ziemlich neueres Spiel von 2017, Horizon Zero Dawn. Dort wurde auch eine KI entwickelt von der Menschheit, weil die Menschheit auch an einem Punkt war, wo sie den Planeten sehr ausgebeutet hat und sie wusste jetzt nicht mehr genau, wie können wir den eigentlich wieder zu einem Raum machen, einen Lebensraum machen, wo sich Mensch und Tier wohlfühlt. Und dann haben sie auch eine KI entwickelt und diese KI hat dann irgendwann auch Maschinen gebaut und diese Maschinen, die haben dann dafür gesorgt, dass wieder Wälder entstehen, dass sich wieder Biotope und sowas bilden für Tiere. Und irgendwann kam die KI auf den Punkt, der Mensch, der stört hier einfach. meine Aufgabe. Also sie hatte eine Aufgabe und diese Aufgabe hat sie durchgezogen. Und das ist halt auch immer das Gefährliche bei einer KI. Wir geben ihr vielleicht eine, eine sehr gutes, ein sehr gutes Ziel im ersten Moment, aber wenn wir das ganz ausformulieren oder bis zum Ende denken, dann passiert halt sowas wie in so Videospielgeschichten oder das, was sich Autoren halt auch rausdenken. Diese KI wendet sich am Schluss dann doch gegen den Menschen, relativ schnell. Weil wir natürlich Machtansprüche haben, Dominanz haben, wir kämpfen ums Überleben, wir kämpfen um Ressourcen und die sagt natürlich, ich brauche das nicht, ich habe keinen eigenen Überlebensdrang, ich gucke, dass das quasi wieder ausgeglichen wird und das natürlich so bekämpft. Deswegen, da müssten regularien Leitplanken her, haben wir es vorhin formuliert, zum Beispiel wenn du den Prompt eingibst, dass du der Modell quasi zusehen kannst und es farblich markiert, jetzt ist vielleicht Slop drin, jetzt wird gelogen, jetzt habe ich selber was hinzugefügt und das wird vielleicht farblich markiert oder das wird mit dem Licht angezeigt, eben fängt es wie bei einer Webcam, wenn die Webcam an ist, brennt nebendran das Licht, dass du weißt, okay, die Webcam läuft, ja, und dass hier vielleicht so ein Licht angeht, okay, hier ist jetzt gerade eine gewisse Unschärfe oder ein gewisses Rauschen dabei, dass du erkennst, okay, das ist nicht alles richtig, was du hier zurückkriegst, aber Da steht ja auch immer wieder bei Google und Co. hier, das ist KI-generierter Content, bitte prüfen. Das ist für die jetzt die Absicherung. Ja, aber es hat halt natürlich ein gewisses Grundrauschen. Aktuell ist es halt wirklich noch so, dass die KI-Modelle irgendwelchen Firmen gehören und diese Firmen müssen Gewinne erzielen. und da muss man natürlich gucken, wer profitiert davon, was kann man tun, dass die Profite vielleicht gerechter verteilt werden, dass es nicht solche alleinige Supermächte, Super-KI-Modelle oder wie auch immer auf der Welt gibt, dass die Macht und die Gelder vielleicht so zentralisiert werden an so wenigen Stellen, sondern dass das eher breiter gestreut wird. Mit jedem, alles was du erzählst, da denke ich immer wieder, da kommt dann gerade so eine Idee von so einer Robin Hood AI. Also wir denken ja immer so an die Hersteller von den LNMs, also ein OpenAI und ein Meta und wie sie alle heißen, Google. Aber was ist, wenn sich jetzt irgendwie so eine Gruppe von Menschen bildet, die dann eine soziale AI bauen wollen, die dann anfängt, dieses ganze Geld zu klauen auf den Servern und zu verteilen in die Welt und das wäre ja auch pures Chaos. Also pures Chaos würde wahrscheinlich entstehen in dem Moment. Aber sowas könnte man sich ja auch vorstellen. Das wäre an einem Punkt, wo du wachst morgens auf, checkst deinen Kontostanden, auf einmal hast du eine Million. Ja, ich muss dazu sagen, ich glaube in einer Welt, die so gestaltet wird, dass menschliche Arbeit ersetzt werden kann und ich sage jetzt einfach auch mal, das menschliche Denken in irgendeiner Form, in welcher Form das auch immer sein mag, braucht es unsere eigene Erfindung des Geldes so nicht mehr oder dieses Dreistreben nach Geld oder Macht und Überlegenheit und andere zu knechten, sondern es müsste irgendwie eine Gleichschaffung, ein limitiertes irgendwas sein, wo jeder daran vielleicht auch mitarbeiten kann. Wir haben es in der letzten Folge auch gemacht. Wir sind industriell gewachsen. Andere können jetzt vielleicht mit dieser Superpower, sind jetzt dritte Weltland, nehmen ihr ganzes Geld zusammen, ihre ganzen Ressourcen und überspringen so komplett die Evolution oder die Weiterentwicklung ihrer eigenen Industrie, sondern stellt hier direkt KI-Roboter und KI-Modelle rein, die überholen uns alle auf einmal und deswegen, wir brauchen da irgendwelche regularen Lichtzeichen, Leitplanken, damit wir alle davon profitieren, dass alle was davon haben, auf jeden Fall. Ich denke mal, das ist ein ganz gutes Schlusswort. Ja. Also wir werden uns auch noch damit weiter beschäftigen, mit diesen Alignment-Problemen und auch mal schauen, was denn die Wissenschaft da für Lösungsvorschläge hat und wie viele Leute daran arbeiten gerade. Es werden auf jeden Fall immer mehr und ich glaube auch, dass es dringend notwendig ist, dass wir da einen Schritt machen in die richtige Richtung und auch uns als Menschheit auf ein Basisset wahrscheinlich einigen müssen. werden müssen. Wir werden uns darauf kommitten müssen, sodass wir uns auch nicht abgehängt fühlen, wenn jemand anders, also da dürfte keiner halt rausgehen aus dem Ganzen. Das müsste halt irgendwo beim UN-Sicherheitsrat irgendwo festgelegt werden, alle Nationen stimmen zu, das ist jetzt unsere Akta, unsere KI Kata, da machen wir jetzt so wird KI gebaut. Eine KI-Weltdiktatur. Das hoffen wir nicht, dass die kommt. Es reichen schon normale Diktaturen. Also, vielen Dank, dass ihr dabei wart. Ich hoffe, ihr hattet auch ein paar neue Erkenntnisse. Als wir die Recherche begangen haben, haben wir schon gedacht, echt spannend, echt Hype dieses Thema, wie schnell du in so ein Rapid-Hole da einsteigen kannst, um da wieder rauszukommen. Oder du kannst ja ganz viele Löcher finden, in die du da reinschlüpfen kannst, wenn du dich damit mal beschäftigst. Deswegen, wir sind immer noch viel lieber für Friede, Freude, Eierkuchen und in diesem Sinne würde ich sagen, bis zum nächsten Mal. Bis zum nächsten Mal. Vielen Dank. Schön, dass ihr dabei war. Bis dann. Ciao, ciao. Ciao, ciao.