Cookie-Einstellungen

Wir verwenden Cookies, um die Nutzung unserer Website zu analysieren und zu verbessern. Alle Daten werden anonymisiert und ausschließlich auf unseren eigenen Servern gespeichert. Du kannst deine Zustimmung jederzeit im Impressum widerrufen.

Zurück zu allen Episoden
Cover-Bild: #6 Die dunkle Seite der KI
Episode 6

#6 Die dunkle Seite der KI

38 Min3. Dezember 2025
#6 Die dunkle Seite der KI — Folge 6
00:00 / 37:42

Über diese Episode

In dieser Folge von "Zukunft ist relativ" legen Tobias und Patrick den Fokus auf den Missbrauch von Künstlicher Intelligenz. Anhand konkreter Beispiele, diskutieren wir, wie schnell aus Innovation ein kriminelles Werkzeug wird.Die Hauptgefahren im Blick:Cybersecurity im Fadenkreuz: Wie nutzen Hacker KI, um menschliche Schwachstellen (Social Engineering) auszunutzen und automatisierte, nie dagewesene Angriffswellen zu starten.KI im Dienst der Kriminalität: Von Deepfake-Erpressungen bis zur Generierung von gefährlichem Code – welche Werkzeuge nutzen Kriminelle bereits heute, um Banken, Unternehmen oder sogar Einzelpersonen anzugreifen?Die Verteidigung: Können wir uns überhaupt noch schützen, wenn die Gegenseite eine unermüdliche KI ist? Oder ist die KI unsere einzige Rettung in der Cybersicherheit?** Reinhören und mitdiskutieren:** Ist die Entwicklung der KI bereits außer Kontrolle geraten, wenn ihre Missbrauchs-Potenziale so leicht zugänglich sind?Themen-Highlights: Awful AI, Cyberkriminalität, Hacking, Deepfakes, Social Engineering, KI-Sicherheit, Ethik der Technologie.

Transkript

Hey, willkommen zurück bei Zukunft ist relativ. Heute mit mir Patrick. Und hier Tobias, hallo. Seid ihr dabei bei The Dark Side of AI? Der Tobias hat uns heute ein spannendes Thema mitgebracht. Tobias, lass uns teilhaben. Ja, das Thema hast du ja gut angefangen mit The Dark Side of AI. Also wo begegnet uns oder wo haben wir schon mal AI gesehen, die missbraucht wurde für Straftaten oder auch für nicht die schönen Dinge im Leben? Spannendes Thema. Wo wurde AI schon mal auf die schlechte Seite benutzt? Spontan fällt mir dazu jetzt ein, dass Hacker vielleicht mal die K\letter I\letter benutzt haben, um Bankkonten zu knacken oder Passwörter in Sekundenschnelle zu knacken oder rauszufinden. Das geht natürlich mit der AI wahrscheinlich viel schneller im Prompting, auch mit Coding, wie wir das schon mal gehabt haben in den letzten Folgen. Was fällt dir sonst noch dazu ein? Ja gut, wenn du Banken sagst, da ist natürlich ganz klar zum Beispiel der Enkeltrick. Also der ruft jemand an und gibt sich aus als der Enkel von der alten Dame und versucht so an Daten heranzukommen, die die Frau ja sonst niemandem geben würde. Also einen Verwandten, der etwas über dich weiß, über deine sozialen Verflechtungen Bescheid weiß, das klingt ja sehr plausibel, wenn der anruft und sagt, hier, ich bin der Tom, ich bin ein guter Freund von ihrem Enkel. Und ich bräuchte hier, der steckt gerade echtckt in der Klemme und dem muss geholfen werden. können Sie bitte mal 50 Euro überweisen. Ja, mit dem AI-Chatbot ist das natürlich noch viel besser, jetzt umzusetzen oder zu realisieren. Oder auch Phishing-Mails, die du dann bekommst. Früher war es ja immer höher, mein Onkel aus demimbae, der hat 50.000 Euro geerbt. Wir brauchen ein Bankkonto. Und dann überlegst du, wie kommt der Onkel aus dem Waffe und? Mit AI kannst du natürlich so Fishing-Mails total sauber in grammatikalisch richtig Deutsch, in perfekt formuliert, wahrscheinlich noch von der Bank selber mit dem Logo, dir so eine E-Mail einfangen. Und dann denkst du halt, okay, das ist vielleicht echt und drückst drauf auf diese Phishing-Mail und bist dann natürlich dort gefangen, gibst deine Daten und auf einmalo und vielleicht eine Abbuchung machen. Es ist auf jeden Fall sehr viel einfacher geworden. Wenn du kriminelle Energie hast, diese auch mit AI in Verbindung dann sehr profitabel einzusetzen. Weil du hast ja gerade gesagt, so eine E-Mail verfassen, Texte, das haben wir jetzt ja auch schon in den letzten Folgen gehört , das kann die AI sehr gut. Texte verfassen, Grammatik und was du jetzt auch machen kannst, ist halt auch sehr viel über Menschen herausfinden im Internet. Also Social Engineering betreiben auf Plattformen wie Facebook, TikTok, Instagram und somit auch Insights generieren und auch eine gewisse Nähe simulieren einfach an der Stelle. Ja, wir haben das mal bei diesem Bot-Attack mal auch gehabt , dass in Hannover wurde das gepostet, wie eine quasi eine Botfarm betreibt, eine Botfarm für alle, die das nicht wissen, ist quasi Handyhüllen. Und in diesen Handyhüllen laufen quasi ganz normale Betriebssysteme, aber jedes Handy ist natürlich wie ein einzelner User, die sind in Reihe geschalten, laufen unter Dauerstrom . Und man muss quasi nur dem obersten Handy oder dem ersten Handy einen Befehl geben, schreiben Content auf dem Social Media und je nachdem, wie groß deine Bot-Farm ist, also die Bot-Farm mit über 2000 Handys in Reihe geschalten , kopieren die die Anweisungen von dem ersten Handy und posten das auf Social Media. Und wie kann man das zum Beispiel wie Wirtschaftskriminalität benutzen? Da ist ein simples Beispiel gewesen, was er gesagt hat, ja, wir nehmen irgendeinen Zahnpasta-Hhersteller, der macht eine Umfrage in Social Media . Was sollen wir für einen neuen Geschmack generieren? Und dann nimmst du so eine Botfarm. 2500 User schreiben drauf, hey, wäre mal total cool, Zahnpasta mit was nehmen wir für einen fancy Geschmack? Senfkorn natürlich. Senfkorn, sehr geil. Wir hätten gerne eine Zahnpasta, die nach Senf schmeckt. Und dann wird es repliziert. Und nochmal die Nachfrage, wirklich, wollt ihr Senf kommen? Ja, natürlich, wir wollen alle Senf Zahnpasta 2500 User schreiben in der Umfrage, ja, wir wollen Senfpasta , dann 50 kommen echte Menschen dazu und sagen, Senfpasta, seid ihr eigentlich total behindert. Und es fängt eine Diskussion an, aber sie kommt in der Abstimmung dazu, okay, wir produzieren die Senfpasta, wir testen es einfach mal. heißt, wir entwickeln das, wir gehen ins Labor, wir stellen die Maschinen um, wir fangen an zu produzieren und geben die erste Charge mit 100 Senfpastas raus. Wir haben alles dafür gemacht, wir haben eine Marketingabteilung dafür hochgezogen . Und, oh Wunder, sie lässt sich nicht verkaufen, weil irgendeine Bot-Amee dich natürlich aufs G geführt und das natürlich mit viel einfach Ja, also ich glaube, da hätte sich die Firma auch absichern können, indem sie nicht ein Freitextfeld gelassen hat, wo man irgendwas reinschreiben oder irgendwas kommentieren konnte, sondern vielleicht eine Umfrage machen mit schon exotischen Zahnpastaeschmecken, aber vielleicht so drei, die man so vorgibt, wo man auch schon ein bisschen Research gemacht hat, ein bisschen Marketing , weiß schon, dass das vielleicht ankommt am Markt, aber man wollte noch mal so ein bisschen Engagement rausholen aus dem Feed und sagen, hey Leute, was wollt ihr denn? Wir hören auf euch. Aber wenn man natürlich einsfeld lässt, dann kriegt man heutzutage auch. Ja, was ist mit Freitagtesfeld, sage ich jetzt einfach mal, wenn da eine Bot-Aarmee kommt, mit einer schreibt und 2500 oder 5.000, je nachdem, du kannst ja dann auch zwei Botfahren zusammenschalten und dugst undunter 5000 Kommentare und die stimmenher ist es ein absoluterp du ja trotzdem den Schaden. Was ist definitiv ein wirtschaftlicher Schaden, der dabei entsteht , durch so eine Botfarm dann? Ja, das nächste ist natürlich auch, wenn du gerade so Robotik einsetzt, ich sag mal, in irgendein Hochregallager automatisierten Lägern hatten wir das ja auch gehabt, wenn die kleinen Ameisen rumfahren, du fängst hier eine DD-Doske-Attacke an auf diese Maschinen und die Roboter laufen auf einmal falsch oder richten die Pakete falsch. Ist ja genauso ein wirtschaftlicher Schaden, der ja enorm ist und der auch schwer nachvollziehbar ist, wenn so eine Attacke kommt. Und die natürlich heute leichter in diese Systeme reinkommen oder vielleicht auch dadurch, dass ja vielleicht auch eine AI im Hintergrund läuft, da probiert einen Sl reinzubringen, also dass die halluziniert, dass ich da falsche Daten reinspiele. Ja, das ist aber ein ganzer neuer Industriezweig, der sich aufgetan hat, Cyber Security. Die sind ja dafür da, solche Sachen auch abzufangen , die Firmen abzusichern. Kommen wir nochmal zurück vielleicht auf dieses Bankhema, weil wir reden ja davon, dass Menschen oder Kriminelle die Sachen missbrauchen, um damit sich einen Vorteil zu holen. Aber auf der anderen Seite gibt es natürlich auch die Banken selbst, also Firmen, die AI benutzen. Vielleicht am Anfang mit einer guten Intention. Sie haben sich überlegt, ey, wie wäre es, wenn wir mal so ein Scoring machen für unsere Kunden und anhand des Scorings dann die Kredite vergeben und Zinsen berechnen. Und das hat ja dazu geführt, auch in der Vergangenheit schon, dass es auf einmal sehr diskriminierende Systeme gab, die schlechte, also Menschen, die schlecht gestellt sind, auch schlechtere Konditionen bekommen haben. Und Leute, die natürlich gut gestellt sind, also die Kredite immer zurückzahlen, die schon viele Kredite hatten. Wir alle kennen die SUFA-Auskunft. Dort wird zum Beispiel auch schon alles gescored, die letzten Jahre, Jahrzehnte. Und solche Systeme, wenn das dann Banken selber machen, dann können sie natürlich die Modelle auch so beeinflussen, wie sie Lust haben. Wenn da die falschen Trainingsdaten natürlich auch hinterlegt sind, das ist natürlich blöd. Da kommt es natürlich auch darauf an, welche Daten habe ich, mit der ich die AI trainieren kann, wie viele Daten habe ich da erhoben? Wenn es natürlich jetzt, ich sag mal, mehr so Beispiele dieser negativer SUFA-Score ist und die A natürlich mehr mit negativen SchUFAScore dann natürlich auch arbeitet , gibt es natürlich auch einen negativen Effekt. Dabei müsste es ja im Prinzip genau umgekehrt sein, dass quasi die besser Substituierten den schlechteren Zins haben müssten und die weniger gut betuchten quasi den besseren Zins. Aber das ist natürlich Utopie, weil du natürlich aufgrund der Masse, du willst ja immer Mengenrabatt oder dementsprechend, und dort ist es ja im Bankenwesen dann genauso, aber da kommt es natürlich auch natürlich darauf an, was für Daten hast du, was gibst du der RI zum Trainieren? Wie kann die künstliche Intelligenz auf was greift sie zurück ? Wir haben das auch im Bewerbungsverfahren, bei Amazon war das. Die Trainingsdaten, die dort hinterlegt war, waren natürlich, dass kolerierte Menschen schlechter bewertet wurden oder im Auswahlverfahren. Einfach weil die AI mit meist männlichen Daten gefüllt war und gegen Frauen. Und so Frauen oder auch Kolerierte quasi schlechter benachteiligt war. Und das dauerte halt auch ein bisschen, bis das quasi auch auffiel. Das hat man natürlich korrigiert. Aber da merkt man dann zum Beispiel auch , es ist wichtig, auch zu einer Querbeet-Tatensatz zu haben, der alle mit abdeckt und nicht nur das Problem ist, glaube ich, hier was anderes, wenn wir bei dem negativen Bankbeispiel sind, diese negativbeispiele werden natürlich mehr gesammelt und werden mehr ein Auge drauf beworfen und man guckt natürlich, dass da die Verluste weniger sind. Deswegen sammelt man natürlich auch hier Daten, weil man natürlich von da, wo es rund läuft, da brauche ich ja keine Daten mehr, da will ich ja sammeln, weil das System hat sich ja etabliert, das läuft ja gut. Wenn man aber genau hier dann die Schnittmenge braucht, muss man sowohl die guten als auch die schlechten Daten zusammenbringen, damit man Schnitt ziehen kann. Und wenn man es halt vorläufig oder vorrangig mit schlechten Daten füttert, ist der Output, der Outcome dazu natürlich auch ein bisschen schlechter. Ja, ich glaube auch, die Firmen machen das ja nicht grundsätzlich schlecht. Sie möchten ja, also gerade auch das Amazon-Beispiel. Ich kann mir schon sehr gut vorstellen, dass bei einem Amazon-Lager sehr viele Bewerbungen reinkommen, die auch gar nicht passen. Oder überhaupt bei Amazon ist ein großer Arbeitgeber weltweit. Und die ist wahrscheinlich auch ein sicherer Arbeitgeber, weil das Geschäft sehr gut läuft . Aber es ist natürlich auch, dass da in der HR-Abteilung die Leute wahrscheinlich sehr überlastet sind. Und dann denkt sich jemand in der IT, wie kann ich denen helfen? Ich könnte ja ein System nehmen, ein Large Language Model, ein Modell trainieren mit Daten, so wie du sagst . Und dann füttert man die vielleicht mit die Daten, die schon da waren. Also aus der Vergangenheit. Und hier kommt dann halt auch wieder ein bisschen was, die Kultur des Unternehmens kommt da ein bisschen raus. Vielleicht war das schon so auch in der Vergangenheit, dass die Frauen in einem Lager, wenn die sich beworben haben , einfach benachteiligt wurden. Ist aber gar nicht so richtig aufgefallen, weil so ein System nicht damit gefüttert wurde mit den Daten. Ja, weil es auch keiner, ich sag mal, neutral beobachtet hat. Jetzt hatte man natürlich das System damit gefüttert und trainiert. Und auf einmal hat man dann das System viel mehr gecheckt als die Menschen, die vorher an diesen Positionen waren und das menschlich entschieden haben, hat man jetzt ein System gehabt, was man beobachten konnte und dann hat man wahrscheinlich festgestellt, oh, das ist jetzt ein bisschen rassistisch und auch diskriminierend. Das heißt, dieRI spiegelt ja dann in dem Fall auch unsere eigenen Fehler quasi wieder, weil wir jetzt quasi auch für die AI quasi wie lesbar sind oder Verhaltensmuster aufzeigen, die natürlich dann auch ganz andere Facetten vorbringen, was man vielleicht selber auch gar nicht gedacht hat oder was man auch nicht hat, weil man natürlich auch immer aus seiner eigenen Brille guckt. Ja, wie du gesagt hast, da guckt man halt eigentlich nicht hin. Das hat halt keiner beobachtet , das Verhalten von der HR-Abteilung. Und erst durch die IT und durch das Trainieren des Models ist es aufgefallen. Und so kann ich mir auch gut vorstellen, dass das natürlich bei den Banken auch so ist. Die wollen, wie du auch sagst, die wollen natürlich zahlende Kunden haben. Die wollen, dass die Kredite zurückbezahlt werden. Die leben leben ja nicht von geplatzten Krediten, sondern die leben davon von den Zinsen von Krediten, die zurückbezahlt werden. Und so wird sich wahrscheinlich der Score dahin verändern, dass die Leute, die halt auf jeden Fall zurückzahlen, bevorzugt werden. Aber es ist natürlich in unserer Gesellschaft ein Problem. Eine ethische Frage, eine Grundfrage, ob das okay ist, wenn sich Firmen solche Systeme vor ihre Angebote schalten können, um besseren Gewinn daraus zu ziehen. Sie möchten ja so viel Umsatz machen wie möglich und nehmen halt die technischen Möglichkeiten, die es gibt. Und das ist halt die Vorauswahl. Und wir in der Uhr , wir sind da sehr hinterher und sagen halt auch so, ey Diskriminierung geht nicht. Wir möchten es nicht, dass es diskriminierend ist. Aber im Endeffekt ist das natürlich auch ein Eingriff in die Arten, wie die Firmen Geschäfte machen. Oder wie siehst du das? Ich verstehe das. Der Profit steht da leider meistens im Vordergrund und das ist natürlich auch das moralische Dilemma , dass ich natürlich immer mehr auf Profit und auf Gewinn achte, wie wäre es ethisch korrekt. Ja, eigentlich sind wir ja alle gleich. Aber sind gleich. Als Firma kann ich mir das halt auch raussuchen bisschen, wem ich die Ware verkaufen möchte. Es kann natürlich dann auch wieder den Leuten die Leute können sich halt drüber aufregen, die halt dann in den Filter reinfallen und dann aussortiert werden. Und wenn das dann halt auffällt, dann ist die Klage nicht weit, denke ich. Ja, aber das führt natürlich zu noch einem ganz anderen Dilemma, weil so entstehen natürlich Schwarzmärkte. Also wenn ich quasi nicht mehr neutral dort einkaufen kann , ich aber das Bedürfnis habe, dieses Produkt zu brauchen oder wie auch immer, entsteht so ein Schwarzmarkt, der quasi, okay, ich verkaufe dir unter der Hand. Da fällt mir ein Beispiel gerade ein, ein Porsche GT3 kriegst du ja erst, wenn du drei Porsche vorher bestellt hast, dann kannst du das einfach so bestellen. , du brauchst erstmal drei Porsche. Vorher musst du gekauft haben bei Porsche selbst, damit du den überhaupt bestellen kannst. Und wenn du den dann hast, dann ist es bisher so gewesen, du hast ihn gekauft und sofort mit dem Übergang an dich ist er ein Preis gestiegen, weil du konntest ihn auf dem freien Markt für Nummer 100.000 Euro mehr verkaufen. Dagegen ist dein Porsche jetzt auch wieder eingestiegen und hat gesagt, okay, wir verkaufen dir den Fahrzeugbrief quasi nicht mit. Wir wollen wissen, wann das Auto, wie das wechselt. Das führt natürlich dann wieder mehr zu Regularien. du kannst ihn gar nicht mehr kaufen jetzt bei Porsche. du musst ihn jetzt leasen. Ja, genau. Das ist dann der Unterschied. Man hat quasi Einhörner geschaffen. Die Einhörner, natürlich, wenn die so schwer zu besorgen sind, wenn ich es dann habe, verkaufe ich es natürlich ums Mehrfache. Also wenn ich jetzt Porsche-Besitzer war, habe ich mir quasi drei Porsche GT3 einen behalte ich selber und zwei habe ich unter dem Markt weiterverkauft oder unter der Hand. ganz normal verkauft, also nicht unter Darm. Ich habe sie ganz normal an den öffentlichen Markt verkauft und habe so mir meinen eigenen Porsche GT3 so verkauft . Und das ist ja, wenn es nicht gleich ist, wenn es nicht gleichberechtigt ist. Das ist jetzt ein Luxusgut, ein Porsche, aber das gleiche hat man ja schon mal beachtet oder konnte man beobachten , wenn so eine neue Konsole rauskommt. Eine PlayStation oder eine Xbox, dann hat sich in den letzten Jahren da auch immer wieder eine Gruppe gebildet oder gab es bestimmte Menschen, die Scalper, die haben dann im Internet nach diesen Produkten auch mit Tools gestützt, danach gesucht, wo ist die auf Lager, haben die Sachen aufgekauft, um sie dann halt mit Profit weiterzuverkaufen. Also da wurde halt aus der Mangelware, auch der Porsche ist ja eine Mangelware, das sagst du hast Einhorn gesagt , aber auch sowas wie eine Konsole damals in Corona war ja Chipmangel und alles. Und dann wurde das einfach aufgekauft auf dem Markt und dann bei ebay und Co. und Amazon Marketplace oder sowas einfach rausgehauen für den doppelten Preis. Sehr spannend, was der Tobias gerade gesagt hat. Ich fühlte mich dabei gerade etwas selbst vielleicht erwischt. Aber wir haben das noch nicht so mit Tools gemacht. Heute ist das natürlich mit der AI viel einfacher, so zu machen. Aber ich kannst das natürlich Agenten dafür trainieren, die dann das alles machen für dich. Die gehen shoppen, der Bot macht das alles für dich. du sagst einfach, ey, so den Preis würde ich gern kaufen und dann laufen die 24 Stunden, sieben Tage die Woche und kaufen für dich PlayStation. Ja, Frü hast du den Content quasi noch immer selber schreiben müssen. Heute lässt du das alles schreiben mit Vibe-Coding. Das heißt, du sagst der AI, was du haben willst und der führt es dann im Hintergrund aus. Das ist halt schon mittlerweile erschreckend, wie es leider auch für schlechte Dinge benutzt wird. Ich habe da aber noch ein anderes Beispiel. Wir beide wissen aus der IT oder aus Geschäftsvergangenheit, dass leider auch das Internet sehr viel, über 50 Prozent für diverse andere Seiten benutzt wird, die nicht jugendfrei sind oder das quasi auch ein sehr großer Teil im Internet ist. Erwachsenen-Content. Erwachsenen-Content mal kurz runtergebrochen . Wenn du BI dir so einen Content erstellen lässt, das heißt, du generierst ein Model, ein Bild, lässt es in die verschiedenen Posen machen und postest, und das geht ja mittlerweile fotorealistisch in 4K mit künstlicher Intelligenz . Und du lässt dort hier verschiedene Bilder generieren und ausspielen auf diversen Plattformen kannst du natürlich auch so Bezahldienste in Anspruch nehmen oder es gibt Leute, die Bezahldienste dafür in Anspruch nehmen, um diesen Content zu konsumieren . Und so generierst du halt auch. Ich sag mal einfach Fake Videos, Fake-Bilder, die so benutzt werden, um dir die Kohle aus der Tasche zu ziehen. Und so wie wir das jetzt quasi mal beschrieben haben in dem Erwachsenen-Content, gibt es genauso auch auf der Politikseite , dass hier Fake-Videos und Fake-Kommentare. Faes meinst du halt. Nochmal? Depfakes zum Beispiel. Defakes, genau, die dann natürlich genau darauf abzielen, eine gewisse Meinung zu machen, Meinungsstimmungsbilder abzubilden, die es vielleicht sogar nicht gibt Oder vielleicht auch für den Content zu bezahlen. Oder du tust halt einen Kandidaten im Wahlkampf zum Beispiel diskreditieren, indem du ihn einfach in Posen zeigst, an Stellen zeigst, wo er gar nicht war, was er gar nicht war, aber es sieht halt täuschend echt aus . Und so kannst du jede Kampagne von deinem Konkurrenten im Politik Wettkampf einfach defrieren und sagen ja das das ist nicht so einer, der macht ganz andere komische Sachen, ja. Oder du schürst mit Wärmefirmen manipulieren, der ki Werbung vielleicht auch heimlich Ängste oder sowas oder rufen die natürlich hervor, obwohl sie vielleicht sogar nicht gibt. Ja du kannst ja Bilder erzeugen, die gar nicht stattgefunden haben. Also du kannst zum Beispiel machen St aufs Kapitol war ja auch eine Sache, die für uns Europäer ganz komisch aussah. Also warum greifen denn Amerikaner das amerikanische Kapitol an? Also wie kommt man denn auf so eine Idee , da, wo der Staat ist, da wo das Parlament sitzt, da reinzugehen, um irgendwas zu machen? Die waren ja in einem Wahn die Leute oder was hat die da hingebracht? Wer hat die da hingesteuert? Und das war schon immer so, dass man halt gesagt hat, das war eine Kampagne , die war über Social Media gesteuert und da wurde so viele Fake News gemacht, dass die Leute wirklich geglaubt haben, dort sind jetzt nicht mehr die Politiker, sondern halt irgendwie andere an der Macht. Und der Deep und sowas und da müssen wir jetzt rein und wir müssen die alle rausholen und Endeffekt war ja eigentlich gar nicht so. Und die auch, kann ich jetzt schlecht beurteilen, aber ich sage mal, es war sehr polarisierend. Und wenn wir das einfach mal in dem Kontext, Fakt ist, es gab jetzt zuletzt eine Reportage von BBC, mit dem ja auch entlarvt haben, dass sie einen Fake-Content erstellt haben aus einer Rede von Trump, indem sie einfach den Anfang von der Rede genommen haben, den Mittelteil weggeschnitten haben. Und am Schluss war dann noch irgendwie, jetzt gehen wir zum Kapitol. Und das war irgendwie so zusammengeschnitten aus dem Kontext raus, dass es schon so wirkt, als ob er dazu aufgerufen hat. Aber wenn man die ganze Rede nimmt, dann ist es halt nicht so. Da gehört quasi auch eine Kennzeichnung her. Und das ist halt, wenn wir das nochmal zusammenfassend, auch jetzt, was wir jetzt auch erwähnt gehabt haben , nochmal erwähnt. Das heißt, wir haben diese Botfarmen. Wir haben Fake-Videos, Fake Accounts, die Fake Ton, Fake Bilder und die dann natürlich polarisierend in Stellung gebracht, auf Social Media gestreut mit Werbekampagnen ausgebreitet. Es gibt dann schon auch einen Moment, wo wir dann auch drüber nachdenken müssen, müssen wir das vielleicht deklarieren, dass das jetzt KI-gesteuert ist oder K\letter I\letter generiert ist. Wir selber haben es jetzt gesehen in einem Prospekt von einemcounter, Discounter, der quasi jetzt hier mit Blättchenbacken Werbung gemacht hat, Werbung bei uns geschaltet hat. Da stand dann unten drunter auch KI-generierte Bilder. Und wir hatten es auch beim letzten Mal, wenn das Model nicht mehr um die Welt chatten muss und jetzt werden die Blättchen auch nicht mehr gebacken fürs Fotoshooting, sondern jetzt wird es nur noch K\letter I\letter generiert. Ich weiß nicht, ich überlege mir, manchmal brauchen wir eine Kennzeichnung. Ich finde manchen Content irgendwie ganz cool, dass er vielleicht nicht gekennzeichnet ist, weil es so offen zur Spekulation lässt. Andererseits ist es halt , gerade wenn es so polarisierend sein sollte oder wenn es so polarisierend ist, führt das natürlich in deral falsche Richtung und kann falsche Meinungsbilder erzeugen. Und dann finde ich eine Kennzeichnung nicht schlecht, aber das ist jetzt ich mal wieder so eine ethische Frage, wann. Wo fängt man an, wo? Wo zieht man das Beispiel hin? im Vorgespräch hattest du gerade eben auch nochmal mit autonom Fahren was gebracht. Kannst du es vielleicht nochmal wiederholen? Ja, das ist das ethische Problem, was Autos haben oder die autonom fahrenden Autos, dass das Trolley-Problem, meinst du anschauen. Genau, das hatten wir im Vorgespräch. Das Trolley-Problem erklärst nochmal für alle, die es nicht wissen. Das Trolley-Problem beschreibt eine Straßenbahn zum Beispiel, die außer Kontrolle ist. Und jetzt hat die Straße runterfährt, also rollt oder rast. Sie fährt es einfach . Und sie fährt auf eine Gruppe von Menschen zu. Das können zum Beispiel Arbeiter im Gleis sein. So, jetzt könnten diese drei oder fünf Menschen, die da jetzt auf dem Gleis stehen und sehen, jetzt die Bahn ankommen. Die könnten jetzt eine Weiche umstellen und durch diese weiche würde aber die Bahn so umgelenkt werden, dass sie auf eine Mutter mit Kind trifft. Das ist jetzt ein Dilemma an der Stelle, weil entweder sterben jetzt fünf Menschen oder zwei Menschen. Und wenn wir uns überlegen, das müsste jetzt eine K\letter I\letter entscheiden oder das müssen halt KIs entscheiden in Zukunft. Es ist wie jeder Autofahrer. Wir haben wenn wir am Steuer sitzen und wir fahren durch den Ort und es läuft jemand auf die Straße, haben wir immer zwei Möglichkeiten. Entweder draufhalten, wie wenn es ein Wild ist, also ein Reh oder ein Wildschwein vor das Auto läuft, dann soll man ja drauf . Aber was machst du, wenn ein Mensch dir vors Auto läuft? Ziehst du nach links weg, kommst du wieder in den Gegenverkehr? Genau, kannst in Gegenverkehr kommen oder du fährst auf den Gehweg, um auszuweichen und erwischst jemand anders. Das sind Sekundenuchteile der Entscheidung. Und auch das sind halt ja auch Entscheidungen, die getroffen werden. Augen tun durch oder du kannst ja der AI oder dem selbstfahrenden Auto nicht sagen, ja, mach mal Augentun durch. Ja, das ist das menschliche Versagen. Und auch hier gibt es einfach eine Fehlerkultur. Das muss eine her. Das Auto, sollte das dann eine Münze werfen zum Beispiel. So intern einfach mal so einen Randomizer anschmeißen und dann so, ja, wenn der Wert über 50 ist, dann fahre ich jetzt gerade aus und wenn nicht, dann weiche ich ab. Also ich glaube, dafür gibt es sogenannte Ethikäte oder Ethik-Kontrollmechanismen. Ja, aber die Ethikäte, die tun ja auch nicht über Menschen richten an der Stelle. Aber das wäre so eine ethische Frage, aber das gebe ich gerne mal an euch. Wie seht ihr das? Schreibt sie in unseren Kommentaren. Wie würdet ihr entscheiden, was würdet ihr tun? Aber das ist jetzt das Trolley-Problem und da sind wir halt auch bei allen, wo Menschen involviert sind in AI, wo, wo AI über Menschenleben bestimmt. Da findet man immer wieder diese ethischen Fragen. Entscheide ich mich irgendwie gerade auszufahren, fünf Leute oder weiche aus und treffe zwei Leute. Das ist auch beim Militär zum Beispiel sowas. Genau, das wollte ich. Wenn das Militär sich jetzt weiterentwickelt und wir sehen es jetzt in der Ukraine mit einem Drohnenkrieg. Autonome Drohnen fliegen durch die Gegend und suchen sich ihre Opfer selbst und bomben dann selbst eine Gruppe von den Gegnern oder von Feinden. nach welchen Kriterien wird er geguckt? Also ein Soldat, der noch am Joystick irgendwo sitzt oder im Flieger sitzt früher, der hatte noch eine ethische moralische Einstellung zur Sache und hat gesagt, vielleicht, ey, in der Schule bombe ich nicht. Aber wenn jetzt diese autonome Drohne über einen Ort fliegt und dann nur darauf programmiert ist, große Menschenansammlung zu bombardieren. Und es fliegt über den Kindergarten und da sind die gerade draußen am Spielen. Dann wird die wahrscheinlich nicht. Die wird nicht zögern, die Bomben abzuwerfen oder selbst reinzufliegen und zu explodieren. Und das ist was, wo ich finde, da wird der Mensch jetzt da tun wir einfach eine Grenze übertreten, die wir nicht übertreten sollten. Hier sollte ein Halt auf alle Fälle gesetzt werden und die Notbremse gezogen werden. Das ist einfach nicht richtig. Wir hatten das auch schon mal vordiskutiert schon vor längerer Zeit. Es gibt einen Dron Squad, glaube ich, hieß es nochmal, war auch fünf, wieC-Team aufgebaute Roboterhunde in dieser Art glaube ich, war vom chinesischen Militär präsentiert, gibt es ein YouTube-Video dazu, Dragons Squad, wenn ich mich recht erinnere, weil ich muss ganz ehrlich sagen, ich weiß gerade den Namen nicht mehr korrekt. Auf alle Fälle sind es fünf Roboter in Hundeform oder in der Art eines Hundes, Boston Dynamics diesen Roboterarm oder Hunderoboter quasi gebaut haben. Einer davon quasi mit Sensorik, mit Kamera, mit Radar, der quasi alles erkundet. Der eine hat einen Gr Granatwerfer drauf, der andere hat eine Maschinenpistole drauf und der nächste hat einen Flammenwerfer . Und diese kannst du per Flugzeug abscheißen oder die können sich einzeln irgendwo in Häuserschluchten verbarrikadieren. Der Radarhund sitzt oben auf irgendeinem Hochhaus und scannt die ganzen Sensorik und steuert so alle anderen Roboter langsam nach vorne Und die so auch, ich sag mal, wie ein Seal-Team vorangehen, sich absprechen. Das klingt halt wie in einem Videospiel. Ja, wirklich, es klingt wie einem Videospiel, aber es wurde quasi gezeigt, was da mittlerweile möglich ist, militärisch Und die so Menschen zurücktreiben, in eine Ecke treiben und notfalls natürlich auch den Knopf drücken. Und dann sind wir von alten Zeiten, die wir hatten, nicht mehr so weit entfernt, wo nie wieder hinkommen. Das klingt ja auch so ein bisschen nach Terminator und wirklich Dyst, wo man Dyst, wo man sieht oder wo man im Film wieder mal gesehen hat , wie schlimm die KI, wenn die Robotik so gegen den Menschen einfach eingesetzt wird und Menschenleben kostet und dafür extra hergestellt wird, um Menschen zu töten, um im Krieg einfach zu dienen. Also die Russen haben ihren ersten humanoiden Roboter vorgestellt, der dann erstmal von der Bühne gefallen ist . Aber das ist ja auch Boston Dynamics passiert vor Jahren. Da sind die auch alle immer umgefallen, wenn die gezeigt wurden. Aber jetzt natürlich auch gleich irgendwie, schwingt der Unterton mit, ist das sind das die nächsten Soldaten? Ist das jetzt hat das Militär was mitentwickelt nur nicht zu dem Zweck, dass die uns helfen im Alltag, was wir auch schon mal hatten in der Folge , sondern dass man hier wirklich nur hingeht und sagt, das sind jetzt absolut emotionslose Maschinen, Tötungsmaschinen, die gehen rein, die kennen keine Gnade. Da ist kein Gewissen mehr dahinter. Gewissen ist gar nichts. Die gehen einfach rein. Die sagen auch nicht, ich konnte nicht abdrücken oder sowas. Da gibt es keine Menschlichkeit mehr. Das wird den austrainiert. Und das finde ich halt, das sollte auf jeden Fall, das sollte nicht passieren. Wir dürfen diese Grenze nicht überschreiten. Hier müsste ganz klar Regularien her, dass Des quasi nicht kommt . Und wir sind eher Freunde davon, um das klar zu positionieren. AI ist ein tolles, faszinierendes Tool, setzt es bewusst ein. Sollte ich bewusst, dass man auch hier leicht getäuscht werden kann und bringt auch immer noch eine gewisse Art von Skepsis mit. Also AI ist Die ist das neue allwissende System. Nee, man sollte nicht jeden Fortschritt zu jedem Preis haben. Das auf jeden Fall nicht. Ja, das das ist noch ein letzter Punkt, den ich mir aufgeschrieben habe oder den ich einbringen wollte. Das ist die Sache mit der Überwachung, weil wir auch durch AI Systeme immer wieder mehr nahe dem Überwachungsstat kommen. Man sieht das sehr gut in Ländern wie China, wo es einen Social Score gibt, der anhand von deinen Daten, wie du dich verhältst mit deinen Mitmenschen beim Einkaufen, in der Arbeit. Alles das fließt in ein Scoring-System ein und schließt dich entweder vom alltäglichen Leben aus oder von Dienstleistungen aus oder wie wir vorhin am Anfang schon gesagt haben, der Bankkredit wird dir nicht gewährt, weil ein Score zu niedrig ist . Und ich finde, da sollte man immerhin auch, das ist auch so eine furchtbare Vorstellung, dass wir Schritt und Tritt überwacht werden, dass wir immer das alles aufgezeichnet wird und dass auch die Sachen gegen uns verwendet werden können. Dass keine menschliche Fehler mehr zugelassen werden. Ich kann da auch nochmal ein Beispiel bringen. Die Versicherungen bieten ja mittlerweile an, wenn du dir einen Tracker von der Versicherung geben lässt, der dich quasi dein Fahrverhalten aufzeichnet , dann wird deine Versicherung billiger. Das wird zwar am Anfang an Autoversicherung, du kriegst einen Tracker ins Auto, der zeichnet auf, wie schnell fährst du, merkt sich natürlich, wann hast du Geschwindigkeitsübertretung gemacht, weil das ja dank Navigationssysteme überall mittlerweile GPS-Daten überwacht ist. Wann warst du zu schnell, wann hast du eine Vollbremsung hingelegt Jetzt im ersten Moment macht es natürlich deine Autoversicherung billiger. Aber wenn die genug Daten gesammelt haben, ist dann natürlich genau der Nachteil, guck mal, das ist jetzt so ein Raser, der fährt eh in , was weiß ich, hier in Porsche oder fährt dann ein BMW M3 oder wie auch immer, weil nur einfach, weil er gern das Auto fährt und es geht nicht mal darum, dass er jetzt ein Raser ist, sondern er hat einfach gern dieses Auto oder ist ein Auto-Fan Und damit steigt automatisch schon die Versicherung. Jetzt kann man natürlich sagen, bei den Autos ist es schon die Versicherung so teuer, weil es natürlich auch Luxuskars sind. Aber es geht nur nicht mal hier um die Luxuskarte, sondern es werden hier Daten erhoben . du wirst pauschalisiert, eingestuft. Man kennt jetzt quasi deine Daten. Fährst du zu schnell, bist du zu langsam, machst du zu schräge Pharmanöver und deine Versicherung steigt dementsprechend. Das macht uns schon irgendwie gläsernd. Und das lässt keine menschliche Fehler mehr zu. Genau, das macht uns gläsern als Fahrer. Aber du zum Beispiel als Kunde weißt überhaupt nicht, wie deine Daten verwendet werden . Also du weißt, du sagst ja sowas wie, die messen, wie oft ich zu schnell gefahren bin innerorts, anhand von GPS-Daten. Aber vielleicht sind ja auch andere Sachen, da wird ja alles wahrscheinlich erfasst. Wie drehe ich das Gaspedal durch? Bin ich jemanden, der immer, wenn die Ampel auf Rot, also Ampelstart macht oder sowas Das ist ja auch eine Art von Typ von Fahrer. Ist das jemand, der Trailer oder mal kurz ein bisschen in der Kurve driften oder so. Macht mich das gleich zum Raser, wenn ich ein bisschen irgendwie nachts um halb zwölf, wo eh nichts los ist, mal kurz aus der Einfahrt oder aus der Ausfahrt von der Bundesstraße rrifte oder sowas. Ist das dann was, wo mich dann runtercor oder wo ich einen negativen Score. In dem Fall Hochscore, ja. Ja, Hochscore und halt negativ bewertet in dem Sinne mein Risiko hochtreibt. Das lässt keine menschlichen Fehler, da menschlichen Freiheiten zu. Das ist ja auch kein Gefühl mehr dann. Das ist ja einfach nur noch eine Zahl. Ich bin ja so du bist nur noch eine Kennzahl, die reguliert wird. Ja, und du hast ja auch gerade gesagt, die Porsche-Fahrer. Ich glaube, niemals ein Porsche-Fahrer wird sich so ein Ding einbauen. Das sind dann mehr die armen Menschen, die noch einer günstigere Versicherung brauchen. Die brauchen noch eine günstigere Versicherung. Also die nehmen schon die günstigste, aber die nehmen sie noch, naja gut, also wenn ich mir den Tracker einbaue, dann natürlich , dann kriege ich nochmal 3,50. Und die liefern dann die Dingstaten dazu. Und die liefern die Daten dazu, die werden dann noch benachteiligt. Der Porsche-Fahrer, der zahlt halt seine 3000 Versicherung, weil er sowieso das einkalkuliert hat in seinen Preis , den er bezahlt für seinen Porsche. Und deswegen trifft es an der Stelle meiner Meinung nach auch wieder die falschen, weil ich finde, man sollte an der Stelle nicht hingehen und sagen, das ist jetzt ein System, was dich bevor, du kriegst einen Vorteil, wenn du gut fährst und Nachteil, wenn du schlecht fährst. Wenn, dann ist das einfach die Versicherung und jeder, der diese Versicherung abschließt, kriegt diesen Tracker. Und dann wird halt Neujahrs Art von Tarifmodell gebaut mit Daten aus diesem Tracker heraus, weil sie dann halt viel mehr detailliertere Daten über die Fahrer haben und du dann nicht mehr einkategorisiert wirst in die Fahrergruppe Golffahrer oder sowas. Ja, so ist das ja immer. du wirst ja immer bei Autoversicherung, so war das jedenfalls früher , dass du dann immer in so eine Autoklasse einkategorisiert wurdest und dann hast du halt irgendwie jeder Golfahrer mit so viel Jahren Berufserfahrung, Berufserfahrung ist ja schon Fahrerfahrung, und Schadenfreiheitsklasse hat dann immer diesen Betrag bezahlt. Sondern das war das Tarifmodell. Das ist halt super unindividuell und eigentlich auch, aber halt dadurch, dass es nicht individuell ist, ist es halt wieder sehr viel liberaler für alle. Also jeder hat den gleichen Preis bezahlt und jetzt kriegst du halt einen personalisierten Preis. Individualisierten. Ganz individuellen Preis für dein Fahrverhalten. Das kannst du natürlich wieder voll aufs Gas drücken, zahlst du mehr oder fährst du halt ganz defensiv, dann zahlst du auch weniger. Willkommen bei der Dark Side of AI. Das ist dann was, wo dich dann wahrscheinlich irgendwann, wo du sagst, jetzt reicht es aber auch mal. Ich hoffe, wir konnten euch nochmal hier ein bisschen auch erhellen oder auch nochmal ermuntern, selbstkritisch die AI zu benutzen. Wir finden das System ganz toll, aber wir sehen natürlich auch die, wo Licht ist es auch Schatten. . Wir fanden das Thema ganz spannend. Wir wollen es euch einfach mal ein bisschen näher bringen und freuen uns natürlich auf eure Kommentare. Wir werden immer wieder diese kritischen Folgen machen, wo wir nicht nur über den Fortschritt und das alles so bejahen, sondern halt auch, wir wollen auch kritisch auf die Sachen gucken, genau. Schön, dass ihr wieder dabei wart bei Zukunft ist relativ. Dankeschön fürs Zuhören. Ciao, ciao. Ciao, ciao.