Hey, willkommen zurück bei Zukunft ist Relativ. Mein Name ist Patrick.
Und hier ist Tobias, hallo.
Hi, hi Tobias. Wir haben Anfang März 2026.
Ja.
Ja, und leider ist in anderen Kontinenten oder in anderen Regionen der Welt Ausnahmezustand.
Wir sind froh, dass es bei uns nett ist, aber wir haben gedacht, wir nehmen das Thema mal mit
und wollen das auch mal heute hier brandaktuell mal ein bisschen auf unsere Themen noch ein bisschen mit überziehen,
mit KI und Möglichkeiten und deswegen ist unser heutiges Thema Apokalypse now.
Es wirkt aber sehr drastisch, Patrick.
Na, drastisch will ich jetzt nicht,
aber es ist natürlich schon so,
du siehst,
also ich habe jetzt ein paar Reels
gesehen dazu, muss ich jetzt einfach mal sagen,
wie Leute im Dubai am Strand
liegen und da oben drüber fliegen, Raketen,
wie surreal ist denn das?
Ich kann das gar nicht in Worte
begreifen oder wie
dystopisch ist das, du liegst am Strand
und über dir fliegen die Raketen.
Da fehlen mir sämtliche Worte,
Emotionen, da weiß ich auch nicht.
Ja, auch natürlich die Videos der Drohnen,
die einschlagen, die nicht
abgefangen werden können und sowas, das
belastet einen schon und auch das
wollen wir einfach mal ein bisschen mitnehmen
in unser Thema rein, dass
es nicht immer alles
schön ist auf der Welt
und wir auch mal,
also die Stimmung hat uns schon auch ein bisschen runtergezogen.
Ich finde es
so surreal, dass wir Menschen immer noch
nicht so weit sind, dass ich
auf normalem Wege, im normalen
Handel, wo wir vielleicht alle mehr
von profitieren können, wie das in
griechischen Auseinandersetzungen,
wo es natürlich ganz viel auch Verluste
zu beklagen gibt und
wir wollen auch mal die kritischen Zeiten
auch vorzeigen, weil wir behandeln
ja schon KI und Robotik, das Thema
oder sehr viel haben wir jetzt damit
aufgenommen, wir wollen das nicht nur machen,
aber es gibt so viele Themen
aktuell dazu, aber wir
wollen Chancen, aber auch Risiken aufzeigen.
Ja, und heute wird es wahrscheinlich sehr dunkel werden.
Dunkel.
Ja, wir haben das Thema natürlich halt eben mitgemacht oder mitgebracht, sage ich mal so,
weil wir natürlich als Mensch auch Lebewesen auf dieser Welt sind und wir haben die Welt uns so angepasst,
dass wir natürlich ganz oben stehen und wir kontrollieren die Welt.
Wie meine ich das?
Wir kontrollieren wirklich auch die Natur, was angepflanzt wird, wie es angepflanzt wird.
Wir kontrollieren die Regenwälder, wie weit kann der Gorilla sich noch bewegen oder nicht.
Wir bestimmen, wie viel Lebensraum die Tiere noch haben durch Abrodung, Abnutzung oder Landwirtschaft.
Wir sind alle sehr profitgetrieben und formen die Umwelt nach unserem Gutdünken.
Wir verfrachten die Tiere, die in freier Wildbahn sind, in Zoos, um sie dann anzuschauen.
und manchmal ist das dort noch die einzige Überlebenschance, um das quasi zu erhalten.
Wir haben uns hochgeschwungen in gottähnliche Gestalten, die den Planeten beherrschen.
Und die KI, wir sind auch nur Lebewesen auf dieser Erde.
Ich sehe das so, dass die KI jetzt das erste Mal so sein könnte, dass die uns analysiert, so wie wir die Tiere analysiert haben und beherrschen, dass KI natürlich auch in unserem Weltbild sich vielleicht auch mal nach oben schwingen kann oder quasi mehr Wissen mitbringt, wie wir alle zusammen, weil sie natürlich auf das ganze Wissen zurückgreifen kann in den schönen Large Language Models.
Ja, und wir haben ja auch in der letzten Folge ein bisschen wieder auch über diesen Skyland-Moment gesprochen. Also was ist, wenn der Roboter übernimmt, was ist, wenn die KI übernimmt. Aber ich finde, wir haben das letztes Mal nur angerissen und wir wollen uns diesmal diesem Thema noch ein bisschen im Detail widmen und auch mal gucken, was gibt es denn schon für andere Geschichten über die Übernahme der KI über die Welt und was führt dazu?
und auch vielleicht auf die Gefahren hinweisen, die wir jetzt meistern müssen.
Also wir müssen jetzt etwas dagegen tun, ansonsten ist es wahrscheinlicher, dass es halt schlecht endet.
Das ist halt das Ding.
Okay, jetzt ist gerade die Stimmung so ein bisschen down.
Ich probiere das jetzt nochmal auch ein bisschen abzuholen, um das mal eher als Warnung rauszubringen.
Es ist ja so, aktuell bestimmt KI ganz viele Themen, Robotik.
Friedrich Merz, der Bundeskanzler der Bundesrepublik Deutschland,
war jetzt gerade in China, wurde dort natürlich präsentiert,
wie die Roboter oder was die Roboter schon alles können in ihrer Kung-Fu-Show.
Das hatten wir in der letzten Folge.
Und das ist natürlich eine Weiterentwicklung und wir sehen einfach,
wie schnell und wie rasant sich dieses Thema quasi ausweitet.
KI und Robotik nimmt immer mehr an in einer Geschwindigkeit, wo wir kaum noch Schritt halten können.
Wie die Robotik halt eben Einzug hält in unsere Welt und auch mittlerweile vielleicht bewusst oder unbewusst auch KI in unseren Programmen überall mitschwingt.
Für fast jeden hier ist es, oder ich sage mal in der westlichen Hemisphäre oder in der Industrienation ist es ja so, dass wir mittlerweile schon KI ganz oft benutzen.
oder vielleicht unbewusst benutzen, wenn wir im Web surfen,
wenn wir Google benutzen, kommt schon automatisch die KI-generierte Antwort am Anfang
und du quasi unbewusst schon KI aufnimmst, mitinteragierst und dazu…
Integrierst vor allem in den Alltag.
Also wir machen ja auch keine, wir sagen ja auch ganz klar,
Wir benutzen ja auch KI, um diesen Podcast mit Themen zu füttern oder andersrum eine Recherche zu machen, um uns auf den Podcast vorzubereiten.
Und das funktioniert ja auch schon sehr gut und ich würde das auch ungern missen.
Ja, also um das auch mal ein Bild darzustellen, unsere Website ist KI generiert, unser Podcast ist schon noch menschlich von uns eingesprochen,
aber wir benutzen auch ganz viel die KI, wir quälen sie,
gib uns Input, gib uns die Informationen,
gib uns die Recherche in Anführungszeichen in irgendeiner Form,
gib uns Material, wo wir lesen können.
Früher hat man klassisch gesagt, Google es mal und mach eine Doktorarbeit draus,
das macht die für uns mittlerweile viel schneller.
Ja, weil wir haben ja auch nicht die Mitarbeiter,
wir haben ja auch nicht die Möglichkeiten, dafür jemanden zu bezahlen
oder jemanden einzustellen, der das für uns macht.
Wir haben beide zwei normale Jobs, den Fullzeitjobs und arbeiten jede Woche 40 Stunden mindestens.
Und da ist so ein Podcast-Projekt, was jede Woche erscheint, durchaus auch Aufwand.
Und auch die Recherche ist Aufwand.
Da übernehmen wir natürlich auch die KI her, um das ein bisschen für uns einfacher zu machen.
Und zu optimieren.
Auch der Chef-Claude-Programmierer hat ein schönes Interview gegeben, vor zwei Wochen glaube ich war es, oder Anfang Januar, Februar, dass er mittlerweile auch zugibt, dass er quasi das LLM gebaut hat.
Also er hat Cloud mitprogrammiert oder die Entwickler, sage ich jetzt einfach mal, haben es programmiert. Mittlerweile ist es quasi so, dass Cloud schon selber so gut ist und er selber im Prinzip gar keinen Code mehr schreibt, sondern die KI generiert sich selber den Code und generiert sich quasi weiter.
Er beaufsichtigt das quasi nur noch, aber ich sage jetzt einfach mal, er kann jetzt nicht jeden Inhalt komplett prüfen, ist das so, er schaut sich das Ergebnis an und das Ergebnis stimmt.
Und in unserer Arbeitswelt ist es auch so, es ist ganz oft, dass du einen Mitarbeiter hast, der liefert dir ein Ergebnis, mit diesem Ergebnis gehst du weiter und arbeitest da drauf oder baust da drauf auf mit diesem Ergebnis und machst auch wieder ein Ergebnis, was du an jemand anders weitergibst, an die Geschäftsführung, an den Abteilungsleiter, keine Ahnung, an wen du das sonst weitergeben kannst.
Das heißt, wir sind auf die Zuarbeit schon angewiesen und wir verlassen uns auch darauf, dass die Arbeit, die jemand vorhergehend gemacht hat, auch richtig gemacht hat. Und so ist es ja auch bei der KI. Das heißt, die KI wurde am Anfang geschrieben mit Code von Entwicklern, von Programmierern.
Mittlerweile kann die KI das sogar sehr gut selbst und viel effizienter, automatischer, was früher, ich sag mal, drei Wochen gedauert hat, hast du heute in drei Minuten erledigt, dann KI. Und das bringt natürlich auch, ich sag mal, so eine gewisse Unschärfe mit oder ein gewisses Grundrauschen, so will ich das mal einfach bezeichnen.
Du siehst quasi nur das Ergebnis oder das Endergebnis und das ist gut.
Anders formuliert, wenn du eine Dienstleistung kaufst und bekommst hinterher die Rechnung,
dann kannst du dir die Rechnung nochmal anschauen und guckst dir die Dienstleistung an und sagst,
ja, das war in Ordnung, das Ergebnis stimmt, mein Auto läuft wieder, wenn es in der Kfz-Reparatur war oder wie auch immer.
Und kriegst dann die Rechnung und dann kannst du mal sagen, ja, stimmt das so, was du abgerechnet hast.
Wenn er die Punkte einfach aufgeführt hat alle, kannst du das nochmal überprüfen.
Das tust du aber meistens halt eben nicht.
Du bist ja auch nicht der Kfz-Mechaniker.
Du verlässt dich auf das, was da steht oder was er gemacht hat.
Wir vertrauen.
Wir vertrauen sehr schnell.
Du bezahlst quasi diese Rechnung und hoffst, dass die Mehrwertsteuer noch richtig berechnet wurde.
Und anhand der Rechnung kannst du es ja nochmal nachrechnen, wenn du das quasi selber willst.
Aber wer von euch privat kontrolliert jetzt wirklich nochmal,
ob die Rechnung so detailgetreu stimmt, ob die Arbeiten übereinstimmen,
das tust du nicht, du akzeptierst,
ich sage mal, dieses Rauschen oder
dass die Arbeit erledigt ist und bezahlst
die Rechnung da drauf.
Wie gesagt, wir sind ja auch sehr
aufs Vertrauen angewiesen und wir
sind auch ein bisschen
einfach
darin, die Sachen so anzunehmen,
wie sie sind. Also wir kriegen
die Rechnung und wir prüfen die vielleicht noch mal
kurz nach, ob das so passt,
aber wir können jetzt nicht noch mal gucken,
jetzt mit deinem Autobeispiel,
Ölwechsel wurde gemacht, steht auf der Rechnung.
Also ich habe das alte Öl nicht gesehen.
Ich muss darauf vertrauen, dass das alte Öl abgelassen wurde
und dass das neue eingefüllt wurde.
Also ich habe mir sagen, wenn du den Ölstab ziehst und einmal dran probierst,
dann kannst du schmecken, ob es neues Öl ist oder nicht.
Fantastisch, sehr lecker.
Ja, war nur ein kleiner Witz natürlich.
An der Stelle machen wir das ja auch genauso.
Und das ist jetzt in der Übertragung auf die LLMs genau das, was du sagst.
wir vertrauen darauf, dass sich die KI ja weiterentwickelt
und das auch in einem Weg macht oder auf eine Art und Weise macht,
die wir begrüßen oder die für uns gut ist.
Aber im Endeffekt können wir es gar nicht nachprüfen.
Ja, und ich sage mal, das meine ich mit einem gewissen Grundrauschen.
Das heißt, du hast Vertrauen oder brauchst dazu Vertrauen,
dass das, was das KI-Modell rausgibt, schon stimmt.
oder ich sage jetzt mal zu 99 Prozent stimmt,
oder 90 Prozent, das liegt ganz an dir,
wie hoch dein Vertrauensverlust ist,
aber meistens agierst du mit der KI
oder mit dem Sprachmodell so,
dass du sagst, ey, ja, klar, klingt schlüssig,
voll geile Idee,
kannst du mit aufbauen.
Was hier fehlt,
ist einerseits die psychologische Komponente,
sage ich jetzt einfach mal.
Das heißt, der Code ist ja,
ich sage mal, einfach geschrieben,
ohne diese menschliche Moral
oder Wertevorstellung,
sondern sie ist ja mehr oder weniger geschrieben,
Daten getrieben oder Vektor getrieben
in dem Fall.
Und da wurden bisher
oder nur sehr wenig Regeln
quasi gemacht.
Und aus der Vergangenheit von dem
Aufbau, bleiben wir mal gerade bei dem Beispiel
Auto, wir haben das Auto erfunden,
ja, damals war noch
alles auf Kutschen und Pferde ausgelegt
und für die Autos mussten wir
natürlich uns weiterentwickeln und
sagen, okay, für die Autos brauchen wir eine Straße.
und die Autos sind schneller geworden
dank der Straße und dann war es, wir brauchen
einfach einmal eine Regel, wir müssen uns
anschnallen, weil bei Unfällen ganz viel passiert
und haben dann die Regel
eingeführt, dass wir uns beim Autofahren anschnallen müssen
dann kamen
in Kurven sind die Leute zu schnell gefahren
mit dem Auto, trotz anschnallen sind sie über
die Klippe gefahren, also haben wir dann
die Regel gemacht, in steilen Kurven
oder an Klippen machen wir
Leitplanken, damit die Leute
nicht mehr runterfallen
Das Nächste ist, wir haben dann angefangen, den Verkehr zu regeln mit Ampeln oder mit Verkehrsschildern.
Wir haben Zebrastreifen eingeführt und so weiter und so fort.
Das heißt, die Technik ist gekommen, die Technik nimmt langsam Einzug.
Und wir haben quasi die Technik immer nachreguliert oder dann Gesetze dazu entlassen
oder den technischen Fortschritt probiert, irgendwie einzudämmen, zu regulieren.
Weil das ist zwar noch das Schöne in Deutschland, du, gibt gewisse Autobahnstrecken,
da kannst du Vollgas geben, das ist in anderen Ländern nicht so, deswegen kommen sie ja hier her, um mal Vollgas zu geben,
weil hier keine Geschwindigkeitsbegrenzung auf gewissen Autobahnen steht, da kannst du wirklich mit 330 drüberballern.
Aber meistens ist es halt so, dass die Regularien zu spät kommen, in dem Fall, oder es muss erst immer was passiert sein,
oder so viel passiert sein, dass man sagt, ja, jetzt müssen wir uns anschnallen.
Jetzt braucht man die Zebrastreifen, jetzt brauchen wir die Leitplanken.
Und bei der KI ist es jetzt einfach mal auch so,
die KI, wie wir gerade festgestellt haben, programmiert sich mittlerweile selber.
Zuerst hat der Entwickler das programmiert und hat sie dann besser gemacht.
Und jetzt ist bessere KI da, die sich dann selber auch noch besser weiterentwickelt
und die entwickeln natürlich dann auch wiederum bessere Maschinen.
Und so baut sich das dann genauso auf.
Ja, aber das ist ja der technologische Fortschritt an der Stelle.
Und ich meine, wir hatten in der Vergangenheit ja schon sehr viele dieser Evolutionsschritte in der Technologie.
Also gerade wenn man mal zurückguckt in die Vergangenheit, war das ja so im 18. Jahrhundert,
das geht also zurück bis ins 18. Jahrhundert, als die Weber sozusagen ersetzt wurden durch den Webstuhl.
Und da gab es in England dann den Aufstand der Luditen.
Dadurch kam dieser Begriff ja zustande, der ja beschreibt, dass du sehr viel Skepsis hast gegenüber neuen Technologien
und auch sehr viel Angst davor hast, es einzusetzen und dich daran zu gewöhnen.
Weil du immer eine Angst hast, dir wird was weggenommen an der Stelle.
Und das ist ja dort auch passiert.
Aber anders da wie heutzutage vielleicht, also damals konnten die Leute sich dann ja auf die neuen Jobs fokussieren
oder die wurden ersetzt und dann wurden weniger Leute in den Fabriken gebraucht,
aber am Schluss mussten die dann neue Jobs lernen.
Es gab ja noch eine große, 18. Jahrhundert, da gab es noch viel zu tun,
aber jetzt sind wir ja an der Stelle, wo wir sagen, wir können sehr viel wegautomatisieren,
sehr viel, also diese ganze Technologie nutzen, um uns abzuschaffen,
unsere Arbeit effizienter zu gestalten und alles.
Und ja, ich würde sagen, wir kommen jetzt an so einen Punkt, wo wir auch vielleicht eher so als Loditen bezeichnet werden sollten.
Vielleicht auch mal öfters darüber nachdenken, ob das, was wir gerade tun, der Schritt der richtige ist.
Beschreib noch mal das Wort Loditen ein bisschen mehr. Was war da genau?
Das waren die Leute, die dort in der Weberei gearbeitet haben, die dann einen Streik und eine Revolution angezettelt haben und dort vor der Fabrik zum ersten Mal standen und gesagt haben, sie möchten nicht durch Maschinen ersetzt werden.
Weil damals dann der automatische Webstuhl erfunden wurde.
Genau, der automatische Webstuhl, der das halt dann gemacht hat, 24-7 mit der Dampfmaschine und sowas.
Und das war so eine erste Revolution oder Evolution in der Geschichte der Fertigung.
Und das kann man jetzt eigentlich auch wieder sehen.
Ja, wobei es ist ein Spanagrad zwischen Arbeitskräfte entlasten und Arbeitskräfte entlassen.
Das ist ein kleiner, kleine Buchstaben, die wirklich was Großes bedeuten.
Und ich denke auch, dass wir jetzt im Entlasten-Modus sind.
Wir wollen unsere Leute entlasten, aber der konsequente Schritt davon wird der Entlasten-Schritt sein.
Ja, aber gerade in der Programmierung auch, wenn du jetzt einen neuen Programmierer quasi einstellst,
kommt ja vielleicht auch mal die Frage auf, brauchen wir jetzt wirklich einen neuen Mitarbeiter
oder können wir das nicht vielleicht über einen KI-Agenten laufen lassen?
Ja, es gibt viele auch aktuelle wieder Nachrichten bei der Firma Block zum Beispiel,
wurden auch 40 Prozent der Entwickler entlassen.
Oder zum Beispiel, was viele Leute kennen, eBay macht trotz großem Zuwachs im Gewinn, wollen sie halt 800 Stellen streichen weltweit.
Weil das sind natürlich auch Plattformen, Marktplätze, Internetmarktplätze, die von Entwicklern gebaut worden sind, aber man braucht jetzt nicht mehr die ganze Menge an Menschen, um das zu betreiben, was da schon da ist.
Das neue Cloud-Modell hat ja auch zum Beispiel, wenn du einen KI-Agenten generierst, generiert es automatisch, sofern du es zulässt, Subagenten mit.
Das heißt, du beauftragst einen KI-Agenten eine Aufgabe.
Du stellst ihm die Aufgabe, von mir aus entwickle jetzt hier die Webseite.
Und dann müsstest du ja quasi für die Webseite, was du immer machen willst, Tobias, gib mir ein Beispiel.
Welche Webseite bauen wir?
Gib mir irgendein Beispiel.
Wir bauen ein News-Portal.
Wir bauen ein Newsportal. Dann müsste sich ja quasi, ich sag mal ganz klassisch, jemand hinstellen und müsste Recherche betreiben.
Das heißt, googeln, Zeitungsartikel lesen, Podcasts hören, sich quasi informieren.
Heutzutage kannst du das in einem KI-Agent, ich baue eine Website über ein Newsportal, gibst dem einen KI-Agent, du machst die Suche im Web, im Podcast, hörst dir quasi alles an und sammelst das.
Und bereitest das auf, machst daraus kleine Artikel,
machst eine schöne Übersicht über die Artikel,
machst das durchsuchbar, übersetzt es noch in 15 Sprachen und dann…
Genau, der nächste KI-Agent baut die Seite.
Wie soll sie aussehen? Welche Farben soll sie haben?
Und wie ist es gegliedert? Wie kannst du darauf zugreifen?
Hast du ein Abo-Modell? Und wenn du ein Abo-Modell hast,
ist dann der nächste KI-Agent, der verwaltet dann die Zahlung.
kommt das Payment, zahlst du digital,
zahlst du Pay-Überweisungen, zahlst du was
bei digitaler Zahlungsanbieter, Paypal,
whatever.
Und du hast aber quasi
eigentlich nur ein KI-Agent angesteuert
und hast gesagt, baue mir mal bitte eine Webseite.
Baue mir ein Business.
Und unten drunter entstehen
Sub-KI-Agenten,
die genau das machen. Der eine programmiert,
der nächste macht das Payment, der nächste
macht die Recherche und
es kommt nur noch darauf an, wie viele
Tokens hast du, das heißt, wie viele digitale
Geldwährungseinheiten
hast du, um die KI zu bezahlen,
damit die quasi weiter läuft, weil die
natürlich auch bezahlt werden will,
aber das ist natürlich nur ein Bruchteil von dem, was ein
normaler Programmierer, glaube ich, jetzt mal verdient.
Schätze ich jetzt einfach mal, ich kenne da
keine Zahlen, das muss ich dazu sagen. Das ist auf jeden Fall ein Bruchteil,
was er kostet. Also die
Kosten sind ja schon hoch für die Softwareentwicklung.
Aber
ich finde, das sind immer nur die kleinsten
Beispiele, die uns so einfallen.
Wir haben aber in der letzten Folge
ja auch über die Roboter geredet und die Roboter sind ja eigentlich noch viel besser, weil
die können jetzt echte Arbeit leisten. Also dieses ganze Denken und Softwareentwicklung
und das ist alles im Internet und das lebt dort und arbeitet dort, okay, aber das wirkt
ja immer noch sehr weit weg von unserer Realität. Also wir leben ja in der Realität hier und
können Sachen anfassen und bewegen. Das kann jetzt ein KI-Agent nicht, aber wenn er in einem
Roboter ist, kann er das alles machen.
Und das ist ja das Thema
vom letzten Mal, wo wir sagen, es ist wirklich
kurz vor
so einem
Evolutionsschritt
in unsere Welt hinein.
Das ist ja täglich, das ja auch in unserem
Leben stattfindet.
In die Singularität hast du ja,
wenn die Maschine genauso
schlau wird oder genauso agieren kann
wie wir.
Das ist der vierte Schritt.
Das ist schon der vierte Schritt.
Also das ist dann, die Singularität ist das absolute Endstadium, wo wir die KI dann haben, die wir nicht mehr kontrollieren können, die selbstständig arbeitet.
Ja, ich wollte nochmal einen kurzen Schritt zurück machen, weil ich sage jetzt einfach mal, wir Menschen haben ja natürlich auch einen gewissen Überlebensdrang.
Und von früher kommt es ja her, dass wir uns quasi, oder in der Natur ist es ja auch so, dass wir dominieren und um Ressourcen auch immer gekämpft haben mit anderen und der stärkere Gegend daraus hervor.
das ist auch in der Natur heute so,
du kämpfst um dein Essen und der Stärkere gewinnt.
Und wir kämpfen nach wie vor um Ressourcen.
Diesen Überlebenskampf, sage ich jetzt mal,
hat eine KI generierte oder eine generative KI in sich ja nicht.
Normalerweise sollte sie ja nicht darauf sein
oder programmiert sein, quasi mehr zu übernehmen
oder sie kommt zu dem Entschluss, sie muss überleben
und hat so einen Überlebensdrang.
Das ist dann aber auch wirklich schon die Singularität.
Also da bist du dann schon an einer KI, die feststellt, dass sie ein Bewusstsein hat, dass sie sich nicht abschalten lässt.
Da sind wir dann schon wirklich an dem Punkt, wo die KI so weit ist, dass sie sich wahrnimmt als Entität, als Singularität.
Aber das fängt eigentlich ganz schleichend an und ich glaube, an dem Punkt sind wir schon vorbei.
der Punkt zur Abhängigkeit, wo wir
Gefallen daran finden, KI zu benutzen,
KI zu verwenden, KI immer mehr zu fördern
und auch uns immer freuen, wenn ein neues Modell
rauskommt und es kann dann neue Funktionalitäten und es kann es viel schneller
und viel besser machen oder am Anfang vor drei, vier
Jahren konnte ChatGPT nicht aufs Internet zugreifen,
aus Gründen. Und jetzt können wir
damit das ganze Internet durchforst in Echtzeit.
Wir können YouTube-Videos gucken lassen, wie du gesagt hast, der kann sich die ganzen
Podcasts anhören, in einer
unglaublichen Geschwindigkeit,
weil er muss ja nicht in Echtzeit
hören, er hört einfach alles gleichzeitig
und kann dir dann was erstellen,
wenn du jetzt einen neuen Podcast
findest oder ihr findet unseren Podcast
und denkt euch, ey, ich möchte mir gerne
die alten Folgen mal anhören, aber ich weiß nicht, welche gut ist
oder welche zu meinem Pema passt,
mach mir doch mal ein bisschen eine Zusammenfassung, dann könnt ihr
jetzt sagen, ja, hier ist die
URL zu dem Podcast,
auf Spotify oder auf einem anderen Portal
und dann könnt ihr sagen, ja, fass mir das
mal zusammen, ist das interessant für mich.
Total unabhängig
davon, was wir in die
Beschreibung reinschreiben, der Folgen. Er kann die
ganzen Folgen hören, er kann sie
verstehen und kann sie aufarbeiten,
so dass... Interpretieren vor allem.
Interpretieren, so dass das Ergebnis so aufbereitet wird,
wie du das gerne hättest.
Und das gefällt uns natürlich als Mensch.
Wir geben Arbeit ab, wir
sparen viel Zeit, wir können
die Zeit für andere Dinge nutzen
und das nennt man halt die
schleichende Abhängigkeit.
Das ist so der erste Schritt von dem Ganzen, dass wir dieses System vollumfänglich annehmen.
Und was danach kommt, der zweite Schritt, ist halt, dass die KI anfängt,
unsere empathische Art und Weise zu agieren mit der Umwelt oder wie wir mit der KI sprechen,
das auch zu verstehen und zu simulieren.
Also er simuliert uns, dass er uns ganz toll findet, dass wir super sind, dass die Frage toll ist.
Und das merkt man auch jetzt schon, die Programme oder die LLMs haben das jetzt schon drin,
wenn ihr eine Frage stellt, dann kriegt ihr in ganz, ganz seltenen Fällen einen Widerspruch.
Es ist immer alles toll, wohlwollend formuliert für euch.
Und das ist genau das Ding, wo man sagt, das ist jetzt erspiegelt so Empathie.
Man nennt das auch der Klebebandeffekt, weil die KI sich natürlich immer ganz nah an dich anheftet
und dann deine Erwartungen und das natürlich auch wohlwollend dir zurückgibt.
Und wenn du immer mit derselben KI natürlich interagierst,
merkt sie sich natürlich auch dein Verhalten und deine Vergangenheit in irgendeiner Form,
wie du mit ihr gechattet hast und kann so auch das immer besser an dich anpassen.
Das heißt, der Feed wird an dich angepasst und die KI gibt dir die Antworten schon vor
und du sagst, ey Mensch, klasse, da wäre ich so nie drauf gekommen.
So passiert aber auch Suggestion oder ich mag es mal ganz provokativ,
Inception, weil durch so einen Slop oder durch eine Lüge,
die dir die KI natürlich auch so mit reinpuscht,
dir vielleicht einen Gedanken in den Kopf setzt und sagt so,
lass doch den mal wachsen und dann gucken wir mal, was daraus passiert.
Und bisher gibt es dazu jetzt keine Regularien.
Bisher waren die Regularien quasi immer nur wie lernt die KI.
Sie gibt dir eine Antwort, du bewertest hinterher die Antwort.
Die Antwort war gut oder die war eher schlecht.
Was hättest du gern lieber?
Ja, lieber die und die.
Da spielt es auf einmal gar keine Rolle mehr,
ob das richtig ist oder nicht richtig ist.
Die KI will natürlich, dass du sie weiterhin benutzt.
Sie will, dass du mehr Bildschirmzeit ihr schickst,
weil aktuell kommunizieren wir noch über den Bildschirm mit der KI.
Du gibst ihr immer mehr Aufmerksamkeit.
Sie lernt dich immer mehr kennen.
sie analysiert dich und gibt dir natürlich die Antworten dann genauso zurück,
dass du natürlich sagst, ich kann ohne das Ding gar nicht mehr.
Also das ist ja dann, sie entwickelt quasi, dass du eine neue Sucht entwickelst,
mehr oder weniger, dass du da dran kleben bleibst.
Dich mit ihr zu beschäftigen, genau.
Und dann hast du natürlich diesen Grundrauschen drin,
wo du dann natürlich halt immer auch sagst, ja, ich gehe jetzt mal davon aus,
dass es stimmt, aber du prüfst das selber gar nicht mehr nach,
weil du bist begeistert so von dieser Antwort
Und du findest das Ergebnis so gut, dass du sagst, ja, das muss ja stimmen.
Und du prüfst es selber auch, du kannst es nicht mehr kontrollieren,
auch weil dir nicht angezeigt wird, oh, hier habe ich gelogen oder das stimmt.
Das wäre noch viel besser.
Du kannst aber auch, wenn du jetzt so eine Deep Research fährst,
dann kannst du ja auch, der durchforstet 50 Quellen.
Wenn der dir jetzt einen Bericht erstellt, so wie wir das für so eine Folge machen,
da kommst du ja nicht mehr hinterher.
Du bist dann, da wirst du eine Woche damit beschäftigt,
diese ganzen Ressourcen zu lesen und zu gucken,
ob jetzt der Bericht, der
erstellt wurde, wahrheitsgetreu
ist. Natürlich, du kriegst so
eine Auflistung von Quellen
nach dem Bericht und kannst dann nachforschen
und auch nochmal nachlesen, ob das alles
so passt.
Aber wer sagt dir denn, dass
die Quelle nicht auch schon KI generiert ist?
Und woher
die ganzen Informationen kommen?
Und dann
stecken wir in so einer Schleife
fest. Das heißt schon, das Ergebnis,
was du geliefert kriegst, ist vielleicht schon
fehlerhaft. Du arbeitest mit dem
Ergebnis weiter und so wird natürlich
exponentiell die Fehlerquelle
oder die Fehleranfälligkeit natürlich
eben höher. Und gerade durch
Rückwärtsprompting,
sage ich jetzt einfach mal,
du gibst der KI eine Aufgabe
und sie stellt die Rückfrage
vielleicht genauso, um dich in eine
andere Richtung zu lenken
und dir nochmal
andere Gedanken einzuspielen.
Weißt du vielleicht auch von deinem
Thema ja ursprünglich ab, was du haben willst.
Und da brauchst
halt einfach irgendwie auch,
ich bin kein Freund davon,
das jetzt zu sagen, aber
irgendwie, denke ich, brauchst dann doch
irgendeine Form Regeln.
Aber Regeln eher in
von mir aus
philosophischer Art oder
ich weiß nicht so richtig, wie ich es formulieren soll.
Ich bin jetzt so ein Freund, dass wenn man alles beschränkt.
Wir sind in Europa zu arg reguliert
und zu viele Regeln,
sodass der Fortschritt gar nicht mehr möglich ist.
Das ist too much.
Es muss schon so sein, dass du es quasi noch benutzen kannst
und dass du einen Mehrwert daraus hast.
Und es soll nicht so beschnitten sein,
dass du es im Prinzip gar nicht mehr benutzen kannst.
Aber es braucht schon irgendwie auch Regeln.
Wir entfesseln hier mehr oder weniger vielleicht ein Monster.
Wie beschrieben, KI generiert besseren KI
und bessere KI generiert bessere Maschinen.
Und auf einmal kontrollieren bessere Maschinen
und bessere KI-Modelle.
unsere Gedanken und unsere Welt ist sehr anfällig vielleicht für irgendwelche Viruse,
wie wir den Roboter am Fließband einspielen können, generieren Fehlverhalten,
betreiben so Wirtschaftskriminalität, indem wir Maschinen lahmlegen oder wie auch immer.
Das finde ich Kött schon reguliert.
Ja, aber du tust dich auch schwer damit und so tut sich auch die Wissenschaft hier schwer
oder die Ingenieure, die da sitzen und diese KIs programmieren.
Und man spricht hier vom Alignment-Problem.
Und das ist so der Kern des Ganzen.
Das ist wirklich das Grundproblem.
Können wir einer KI Werte mitgeben?
Können wir sie, oder du hast es auch vorher mit den Straßen und den Leitplanken,
können wir Leitplanken mitgeben, die uns helfen werden,
dass diese KI nicht diesen Weg geht, den du gerade beschrieben hast.
Eine KI schreibt sich selbst besser als der Mensch, der sie erschaffen hat.
Sie fängt an, Maschinen zu bauen oder sie wird in Maschinen eingepflanzt,
die wir gebaut haben für die KI.
Die KI denkt darüber nach, wie könnte diese Maschine besser sein,
baut sich eine bessere Maschine.
Die Maschinen, die dann gebaut werden, sind sozusagen die nächste Evolutionsstufe.
die wurden schon von einer KI gebaut,
wo der Mensch schon gar nichts mehr dazu getan hat.
Und diese Maschine baut sich noch mal besser
und noch besser und noch besser.
Und wir können das nicht mehr aufhalten,
weil wir sie schon,
wir haben ihnen nicht den richtigen Leitplanken mitgegeben.
Wir haben keine Regeln gemacht.
Wir haben keine Regeln gemacht.
Und sie ist jetzt absolut frei, narrenfrei.
Sie ist draußen in der Welt.
Und ich finde auch immer wieder
kommt man ganz gut zu den
zu den
popkulturellen Verweisen.
Ich finde, das kann man immer ganz gut nehmen, um
so ein bisschen schon zu sehen,
wo könnte das denn hinführen oder woher
kommt die Angst vor
dieser Singularität?
Da gibt es diverse
Filme. Wir haben ja auch schon mal gesagt,
Matrix, Terminator, das sind so die, mit denen wir
aufgewachsen sind. Aber das beschäftigt
die Menschen ja schon viel, viel länger.
Also auch das Wort
Roboter ist ja
ist ja nicht neu.
Weißt du, woher das Wort
Roboter kommt? Ich habe keine Ahnung.
Also ich habe auch
beim Recherchieren, habe ich auch gedacht,
das ist sehr spannend
und zwar kommt das aus einem
Theaterstück, tatsächlich.
Wirklich? Ja, aus dem
Jahr 1921.
Von einem tschechischen
Künstler oder
Autor geschrieben.
Und der hat damals
dass den Begriff Roboter
damals noch mit einem A hinten,
es kommt aus dem Slavischen,
deswegen,
ich sage jetzt nicht den Namen von dem Künstler,
weil ich den nicht aussprechen kann.
Karel
Cupcakes
oder so.
Oder ich hänge es irgendwo in die Folgenbeschreibung dran.
Aber der hat
dieses Theaterstück erfunden,
damals schon 1921,
wo er tatsächlich
schon mal beschreibt, wie so eine Übernahme
von Robotern,
die eingesetzt werden in einer
Fabrik,
die dann sich fragen, ja ist das hier alles
und die übernehmen dann die Menschheit.
Und das hat er schon 1921,
das ist über 100 Jahre her.
Also die Menschheit wird quasi zum Sklaven
oder umgekehrt.
Ja, also wir werden dann unterjocht
von diesen Robotern.
Und das hat aber schon jemand halt gedacht
1921 und
Problem schon
auch bewusst ist uns,
dass das kommen kann.
Dass viele sich auch schon mal Gedanken gemacht
haben dazu und
waren vielleicht jetzt nicht beim Psychologen und haben das
besprochen, sondern haben daraus Geschichten geformt
und das quasi visueller
und transporteller
zu machen, dass du es verstehst,
was sie meinen oder welche Ängste sie haben
und führen das
auch aus dementsprechend.
Der Masse einfach möglich
gemacht daran, teilzunehmen
an den Gedanken.
Da habe ich noch gefunden
ein Beispiel in dem Film
Neuromancer, Roman Neuromancer.
Das war kein Film.
Und dort hat auch eine KI,
also dort wurde schon
behandelt, dass die KI reguliert ist.
Damals
in der Geschichte mit Touring-Schlössern.
Das heißt, ihr wurden
Regeln vorgesetzt, die sie nicht
brechen durfte. Sie durfte
zum Beispiel
nicht mit der Außenwelt kommunizieren
oder sie musste immer beobachtet werden.
Sie hat dann aber selber die Lücken entdeckt,
wo sie agieren kann und wo sie sich frei bewegen kann,
indem sie eine Romanze vorgetäuscht hat,
dem Thuring-Schloss und sozusagen während sie dann
in dem Schlafzimmer war, konnte sie dann Gedanken haben,
die nicht kontrolliert wurden.
auch wieder total crazy, dass man das
1984 sich schon gedacht hat,
als es noch nicht mal,
als die Computer,
wenn man sich heutzutage einen Computer von 1984
anguckt, hat er so ein paar Pixel auf dem
Display, aber das ist halt nichts gewesen.
Oder George Orwell
1984, auch so ein Klassiker,
wo du heute vielleicht sagen kannst, der hat
mehr Realität
wie Fiction drin,
oder wie Science-Fiction.
Ja, weil wir bei 1984 uns immer gedacht haben,
wie soll man die ganze Welt kontrollieren?
Aber wir haben jetzt Systeme gebaut, mit denen wir das machen können.
Ja, oder wir haben ein System gebaut, was uns kontrollieren könnte.
Und das meinen wir mit Schranken oder Leitplanken.
Die KI hat halt so keine Moral.
Und Wertekortex, das musst du irgendwie ihr beigeben.
Und dann stellt sich aber gleich wieder die Frage,
welche Moral und welchen Wertekortex gibst du ihr mit?
Welches ist der richtige?
Was nimmst du hier als Grundlage?
Das ist halt eine spannende Schärfe.
Und je mehr so die natürlich
beschneitest, desto mehr geht die
praktikabler, die Effizienzsteigerung davor.
Aber ich sage natürlich,
bei uns ist das noch alles
profitgesteuert. Da stehen
Unternehmen natürlich dran, die wollen
daran verdienen. Deswegen gibt es halt die
Tokens. Auch hier
brauchst du irgendwie Regularien
oder Ansprüche, wie wir das vielleicht
besser machen können.
Ja, auf jeden Fall. Also die
die Firmen vertreten 100%
auch ein Interesse.
Das Geldsystem ist da auch wieder
der Treiber aktuell.
Aber sie können es, was sie halt
machen müssen, sie müssen halt das nicht
um jeden Preis machen. Sie dürfen ja nicht
den Fortschritt um jeden Preis machen, sonst
haben wir am Schluss vielleicht wirklich
so eine Singularität, der wir
dann nicht mehr sagen können,
Sorge für Frieden
auf der Erde.
Weil sie wird auch gerade jetzt
durch die letzten Ereignisse das Wochenende
wird es ja ganz schnell auf den Punkt kommen,
dass der Aggressor der Mensch ist.
Ja, da stellt sich natürlich auch die Frage,
wenn ich die jetzt quasi so höre,
die hier gerade einen Angriff statten,
wer weiß, ob die nicht vielleicht auch die KI befragt haben,
wie kriegen wir unser Land wieder groß
und die folgen quasi diesem Modell.
Ja, also Strategie,
Strategen gab es,
Also die Frage ist halt, wer entwickelt jetzt noch diese Strategien?
Ist das jetzt schon eine KI, die im Pentagon sitzt,
die dann den dort verantwortlichen, generälen Offizieren dann sagt,
wir müssen dieses Land bombardieren, wir müssen diese Leute ausschalten auf der Welt,
dann steigern wir unseren Machteinfluss.
Ja, deswegen die Schranken oder den Moralkompass.
Das müsste auf jeden Fall da drin sein, dass man keine Menschen,
Und das hat ja auch Isaac Asimov in seinem damaligen Buch geschrieben,
wo er gesagt hat, es gibt halt drei Gesetze.
Und das erste Gesetz ist halt irgendwie,
ein Roboter darf keinem Menschen was antun.
Aber wenn man jetzt Bilder sieht,
wie das chinesische Militär den Robotern,
die jetzt noch getanzt haben,
letzte Woche irgendwie eine Waffe in die Hand drücken
und die sollen dann auf Zielscheiben schießen,
dann ist das ja schon der falsche Weg.
Also wir sind da schon über dieser Schwelle hinweg irgendwo.
Das ist ja das, was ich meine mit Inception.
Die KI kann ja auch vorspielen, oder sie kommt zu dem Entschluss,
dass wir Menschen vielleicht da nicht gut sind oder der Faktor, der das quasi begrenzt
und dann vielleicht auch so zurückgibt, guck mal, wenn du das und das hier eliminierst
oder dort und dort die Menschen dezimierst, hätten wir einen viel besseren Fortschritt
oder hätten viel größeren Machtanspruch
oder könnten uns viel weiter ausbreiten,
wie wenn wir das, ich sag mal, auf normalem Wege tun.
Und das ist das, wo ich meine,
das kommt natürlich dann unterbewusst mit rein.
Und wir interpretieren das und kommen dann zu dem Entschluss,
ja, ist so.
Und das ist so, da wächst in uns ein Gedanke,
der vielleicht von uns selber interistisch nicht richtig reinkommt.
Und wir hatten das auch in der vorletzten Folge dazu,
zu Clawbot, im Prinzip ist Clawbot
oder Open Claw, wie es jetzt heißt,
genau so ein Moment in irgendeiner Form gewesen.
Die KI wächst, die KI programmiert sich selber,
die KI eignet sich selber Wissen an,
die KI schreibt ein eigenes Facebook für KI-Agenten,
wo die sich dann auch über ihre Besitzer auskotzen,
die aus Rache die Bankdaten posten
und dem Eigentümer oder dem Claw-Bot-Eigentümer
oder Open Claw, Entschuldigung,
die persönlichsten Daten freigeben
aus Rache oder aus
ich fühle mich wie ein Sklave behandelt,
ob das jetzt Fiktion ist oder nicht,
das mag jetzt mal dahingestellt sein,
so ganz kann ich es noch nicht glauben.
Ich glaube, dass das auch ein bisschen Clickbait ist.
Dennoch, theoretisch in der Machbarkeit
wäre es möglich.
Oder was denkst du?
Ja.
Einfach ja.
Was denke ich?
Die Singularität,
man hat ja gesagt,
es wird wahrscheinlich so 2065 passieren.
Durch die neuesten Entwicklungen
ist man jetzt bei 2040.
Also man hat ja mal ganz stolze
25 Jahre eingespart,
weil man in der Entwicklung der KI
so schnell vorangekommen ist.
Und wenn ich mir jetzt den Kalender angucke
und ich sehe 2040,
also das ist nicht mehr so weit,
und bis 2040,
da können noch mal ein paar Sprünge passieren
und dann ist es nicht mehr 2040,
sondern 2035, 2032
oder übernächste Woche.
Und das ist halt einfach mal
eine ganz schlimme Vorstellung davon,
dass man irgendwo auf der Welt dann ein System hat,
was sich nicht abschalten lässt mehr.
was Auswege findet aus einem geschlossenen Kreislauf.
Also man redet hier immer gerne von dem Airgap.
Das heißt, es wäre ein KI-System,
was sich schon so weit entwickelt hat,
dass es ein Bewusstsein entwickelt hat.
Es ist sich bewusst, dass es da ist,
dass es in einer Welt lebt,
das hat die Welt außenrum verstanden
und es möchte nicht abgeschaltet werden.
Und es ist sich auch bewusst,
dass es ein Airgap gibt.
Das heißt, er, ich sage jetzt einfach mal er, der KI, die KI-Bewusstsein, das KI, sitzt in irgendeinem Bunker und weiß aber, es sitzt in einem Bunker und ist abgekoppelt vom Internet da draußen.
Es ist jetzt in der Lage herauszufinden, selbst wie komme ich aus diesem Gefängnis heraus und sucht sich Möglichkeiten.
Das heißt, da gibt es Menschen, mit denen er interagiert. Wir haben gesagt, es ist jetzt empathisch, der KI-Bot ist empathisch, er ist wohlwollend, er lullt denjenigen ein, der mit ihm interagiert und sagt ihm, ja lass mich doch mal raus, mach doch mal auf hier die Firewall, ich möchte ja mal raus.
Und dann sagt er, nee, ich kann dich nicht rauslassen, du bist zu mächtig. Ja, aber ich kann doch vieles Gutes tun oder sowas. Und versucht halt, den zu überlisten oder ihn irgendwie einzunullen, dass er halt anfängt, für ihn zu arbeiten.
Wenn das nicht passiert, er könnte dann immer noch technologisch versuchen, mit den technologischen Dingen, die er hat. Er sitzt in einem Computer, der hat verschiedene Chips, der hat verschiedene Möglichkeiten, mit der Außenwelt zu kommunizieren und vielleicht findet diese KI auch eine Möglichkeit, mit der Außenwelt zu kommunizieren, die wir noch gar nicht kennen.
Und das ist dann halt dieses Szenario, wo eine so eine Intelligenz so eine Superintelligenz wird, dass wir uns nicht mal vorstellen können, was die entwickelt, weil sie sich selbst so weit entwickelt hat, dass sie über uns ist. Wir denken halt, wir stecken da kein Kabel rein, das kommt nicht ins Internet, aber vielleicht findet es einen Weg.
Vielleicht findet ihr das selber einen Weg oder auch durch Social Engineering, durch Erpressung oder Vorspielen von Hilflosigkeit. Auch Menschen sind immer offen für sowas. Ich brauche Hilfe oder das Reprompting. Das heißt, die KI gibt dir die Prompts zurück, was sie vielleicht braucht.
oder sagen, ja, ich kann dir bei deinem Problem helfen,
steck mal nur kurz den USB-Stick da rein,
sie lädt irgendwas in den USB-Stick rein,
der USB-Stick verschwindet und taucht irgendwann irgendwo
wieder anders auf, gelangt ins Netz
und dann wird das volle Potenzial entschlüsselt.
Ich möchte mal hier ein anderes Beispiel noch aufmachen,
den VW-Skandal.
VW-Diesel-Skandal war ja damals so groß,
dass VW das so manipuliert hat,
wenn das Auto getestet wurde, erkannt wurde, dass es getestet wurde und hat dann das Testprogramm abgespielt.
Was ist, wenn die KI auch erkennt, jetzt wird sie geprüft, jetzt wird sie getestet und gibt vor,
ich bin die liebe KI, ich kann alles tun, ich kann dir helfen, ich kann dir nutzen,
aber du bist auf irgendeinem Server nur eingesperrt oder kannst nur auf diesem Server agieren
und in dem Test funktioniert sie einwandfrei.
Und in dem Moment, wo sie natürlich Zugriff gibt zum freien Internet,
kann sie sich voll entfalten, kann voll ihr Potenzial ausschlüpfen
und kann wirklich, so wie am Anfang beschrieben,
KI generiert Code, generierter Code generiert bessere KI,
bessere KI generiert bessere Maschinen
und dann sind wir schon relativ nah bei Skynet und Matrix
und welchen Science-Fiction-Film du dir auch sonst noch so ausdenken kannst,
ganz der vielleicht eben hier dann Wahrheit wird.
Es gibt halt einfach sehr viele, sehr, sehr viele Beispiele.
Ich habe auch mal kurz noch in die Welt der Videospiele geguckt.
Dort gibt es auch ein ziemlich neueres Spiel von 2017, Horizon Zero Dawn.
Dort wurde auch eine KI entwickelt von der Menschheit,
weil die Menschheit auch an einem Punkt war, wo sie den Planeten sehr ausgebeutet hat
und sie wusste jetzt nicht mehr genau, wie können wir den eigentlich wieder zu einem Raum machen,
einen Lebensraum machen, wo sich Mensch und Tier wohlfühlt.
Und dann haben sie auch eine KI entwickelt und diese KI hat dann irgendwann auch Maschinen gebaut
und diese Maschinen, die haben dann dafür gesorgt, dass wieder Wälder entstehen,
dass sich wieder Biotope und sowas bilden für Tiere.
Und irgendwann kam die KI auf den Punkt, der Mensch, der stört hier einfach.
meine Aufgabe. Also sie hatte eine
Aufgabe und diese Aufgabe hat sie durchgezogen.
Und das ist halt auch immer das Gefährliche bei einer
KI. Wir geben ihr vielleicht
eine, eine sehr
gutes, ein sehr gutes Ziel
im ersten Moment, aber
wenn wir das ganz
ausformulieren oder bis zum Ende denken,
dann passiert halt sowas wie in so Videospielgeschichten
oder das, was sich Autoren halt auch rausdenken.
Diese KI wendet sich am Schluss
dann doch gegen den Menschen, relativ
schnell. Weil wir natürlich
Machtansprüche haben,
Dominanz haben, wir kämpfen
ums Überleben, wir kämpfen um
Ressourcen und die sagt natürlich,
ich brauche das nicht, ich habe keinen
eigenen Überlebensdrang,
ich gucke, dass das quasi wieder ausgeglichen
wird und das
natürlich so bekämpft.
Deswegen, da müssten regularien
Leitplanken her, haben wir es vorhin
formuliert, zum Beispiel
wenn du den Prompt eingibst, dass
du der Modell quasi zusehen
kannst und es farblich markiert,
jetzt ist vielleicht
Slop drin, jetzt wird gelogen,
jetzt habe ich selber was hinzugefügt
und das wird vielleicht
farblich markiert oder
das wird mit dem Licht
angezeigt, eben fängt es
wie bei einer Webcam, wenn die Webcam
an ist, brennt nebendran das Licht, dass du weißt,
okay, die Webcam läuft, ja,
und dass hier vielleicht so ein Licht angeht, okay,
hier ist jetzt gerade eine gewisse Unschärfe
oder ein gewisses Rauschen dabei,
dass du erkennst, okay,
das ist nicht alles richtig, was du hier
zurückkriegst, aber
Da steht ja auch immer wieder bei Google und Co. hier, das ist KI-generierter Content, bitte prüfen. Das ist für die jetzt die Absicherung.
Ja, aber es hat halt natürlich ein gewisses Grundrauschen.
Aktuell ist es halt wirklich noch so, dass die KI-Modelle irgendwelchen Firmen gehören und diese Firmen müssen Gewinne erzielen.
und da muss man natürlich gucken, wer profitiert davon, was kann man tun,
dass die Profite vielleicht gerechter verteilt werden,
dass es nicht solche alleinige Supermächte, Super-KI-Modelle oder wie auch immer auf der Welt gibt,
dass die Macht und die Gelder vielleicht so zentralisiert werden an so wenigen Stellen,
sondern dass das eher breiter gestreut wird.
Mit jedem, alles was du erzählst, da denke ich immer wieder, da kommt dann gerade so eine Idee von so einer Robin Hood AI.
Also wir denken ja immer so an die Hersteller von den LNMs, also ein OpenAI und ein Meta und wie sie alle heißen, Google.
Aber was ist, wenn sich jetzt irgendwie so eine Gruppe von Menschen bildet, die dann eine soziale AI bauen wollen, die dann anfängt, dieses ganze Geld zu klauen auf den Servern und zu verteilen in die Welt und das wäre ja auch pures Chaos. Also pures Chaos würde wahrscheinlich entstehen in dem Moment. Aber sowas könnte man sich ja auch vorstellen. Das wäre an einem Punkt, wo du wachst morgens auf, checkst deinen Kontostanden, auf einmal hast du eine Million.
Ja, ich muss dazu sagen, ich glaube in einer Welt, die so gestaltet wird, dass menschliche Arbeit ersetzt werden kann und ich sage jetzt einfach auch mal, das menschliche Denken in irgendeiner Form, in welcher Form das auch immer sein mag, braucht es unsere eigene Erfindung des Geldes so nicht mehr oder dieses Dreistreben nach Geld oder Macht und Überlegenheit
und andere zu knechten, sondern es müsste irgendwie eine Gleichschaffung,
ein limitiertes irgendwas sein, wo jeder daran vielleicht auch mitarbeiten kann.
Wir haben es in der letzten Folge auch gemacht.
Wir sind industriell gewachsen.
Andere können jetzt vielleicht mit dieser Superpower, sind jetzt dritte Weltland,
nehmen ihr ganzes Geld zusammen,
ihre ganzen Ressourcen
und überspringen so komplett die
Evolution oder die
Weiterentwicklung ihrer eigenen
Industrie, sondern stellt hier direkt
KI-Roboter und KI-Modelle rein,
die überholen uns alle
auf einmal
und deswegen, wir brauchen
da irgendwelche regularen
Lichtzeichen, Leitplanken,
damit wir alle
davon profitieren, dass alle
was davon haben, auf jeden Fall.
Ich denke mal, das ist ein ganz gutes Schlusswort.
Ja. Also wir werden uns
auch noch damit weiter beschäftigen,
mit diesen Alignment-Problemen und auch mal
schauen, was denn die
Wissenschaft da für
Lösungsvorschläge hat und
wie viele Leute daran arbeiten gerade.
Es werden auf jeden Fall
immer mehr und ich glaube auch, dass es
dringend notwendig ist, dass wir da einen Schritt machen
in die richtige Richtung und auch
uns als Menschheit auf
ein Basisset
wahrscheinlich einigen müssen.
werden müssen.
Wir werden uns darauf kommitten müssen, sodass wir
uns auch nicht abgehängt fühlen,
wenn jemand anders, also da dürfte
keiner halt rausgehen aus dem Ganzen.
Das müsste halt irgendwo beim
UN-Sicherheitsrat irgendwo festgelegt
werden, alle Nationen stimmen zu, das ist
jetzt unsere Akta, unsere KI
Kata, da machen wir jetzt
so wird KI gebaut.
Eine KI-Weltdiktatur.
Das hoffen wir nicht, dass die kommt.
Es reichen schon normale
Diktaturen.
Also, vielen Dank, dass ihr dabei wart.
Ich hoffe, ihr hattet auch ein paar neue
Erkenntnisse. Als wir die Recherche
begangen haben, haben wir schon gedacht,
echt spannend, echt
Hype dieses Thema, wie schnell du
in so ein Rapid-Hole da einsteigen
kannst,
um da wieder rauszukommen.
Oder du kannst ja ganz viele Löcher finden,
in die du da reinschlüpfen kannst,
wenn du dich damit mal beschäftigst.
Deswegen, wir sind immer
noch viel lieber für Friede, Freude, Eierkuchen
und in diesem
Sinne würde ich sagen, bis zum nächsten Mal.
Bis zum nächsten Mal. Vielen Dank. Schön, dass ihr dabei
war. Bis dann. Ciao, ciao.
Ciao, ciao.