Wird KI die Weltherrschaft übernehmen?

Wird KI die Weltherrschaft übernehmen?

Warum ist KI so gefährlich und was sind die gefährlichsten Risiken von KI? Dies habe ich hier zusammengetragen; Stand Oktober 2024.

KI – ein emotionales Thema

Zu meiner letzten E-Mail zu künstlicher Intelligenz (KI) und der damit erstellten Rede eines modernen Buddhas zur Bewältigung unserer Krisen kam überraschend viel Reaktion – das Thema scheint viele von uns zu bewegen!

Die meisten von euch hat diese Rede inspiriert und motiviert, eben an diesem inneren Bewusstseinswandel dran zu bleiben. Und auch die Tatsache, dass aus dieser KI eben nicht nur beängstigende herauskommt. Es gab aber auch kritische Antworten, zum Beispiel dass ich überhaupt einer E-Mail verschicken würde deren Inhalt zu 90 % KI-generiert ist.

3 essenzielle Einschätzungen von mir zu KI

Da das Thema auf so großes Interesse euch gestoßen ist, möchte ich gerne noch mal ein paar Dinge dazu ergänzen:

  1. Ich möchte noch mal wiederholen, dass ich die KI insgesamt in der jetzigen Entwicklung als großes Risiko für uns alle einschätze: KI ist gefährlich! Daher geht es hier um die Haupt-Risiken von KI die ich derzeit sehe.
  2. Gleichzeitig ist ziemlich klar, dass sich die Entwicklung nicht aufhalten lassen wird, und in dem Kontext finde ich es wichtig, sich damit zu beschäftigen und vertraut zu machen, um sich eine gewisse „KI-Kompetenz” zu erwerben und dem Thema in Zukunft nicht hilflos ausgeliefert zu sein.
  3. Des weiteren halte ich es auch für wichtig, dass Thema differenziert zu betrachten: Mein Eindruck ist, dass die meisten von uns eine gewisse emotionale Prägung gegenüber dem Thema haben und entweder überschwänglich begeistert sind von den neuen Möglichkeiten, die sich durch KI bieten, oder generell skeptisch sind und zum Beispiel von KI geschriebene Texte generell als minderwertig oder irgendwie falsch betrachten. Auch wenn es menschlich ist, so oder so zu fühlen: Ich glaube beides dient uns letztlich nicht, und es ist einfach gut, uns bewusst zu machen, wie wir persönlich ticken.

In mir schwingt beides ein bisschen: Große Bedenken und manchmal Angst vor den Gefahren der KI, aber auch eine Faszination und Staunen über die Möglichkeiten.

(Übrigens: Du meinst, KI betrifft dich nicht? – Stell dir mal vor, du bekommst ein Schreiben vom Finanzamt, wo der Kinderfreibetrag, den du die letzten Jahre immer hattest, nicht anerkannt wird; deine Finanzen laufen aus dem Ruder und ein paar Jahre später stellt sich heraus, dass eine KI an der Auswertung beteiligt war, die das einfach fehlerhaft beurteilt hat. Hört sich das absurd an? In den Niederlanden ist genauso etwas schon passiert vor kurzem…! S. z.B. hier oder google “toeslagenaffaire”)

Es ist also wichtig aus verschiedenen Gründen wichtig, dass wir uns darauf vorbereiten, was uns da erwartet!

Und deswegen möchte ich heute das Thema “Gefahren durch KI” unter die Lupe nehmen:

Die Gefahren von künstlicher Intelligenz

Interessanterweise, wenn ich Google nach den Risiken von KI befrage kommen vor allem Seiten dazu, wie Unternehmen ihre verschiedenen Bereiche auf die Risiken von KI-Einsatz überprüfen sollten und in dem Zusammenhang die neue EU-Regulierung zu dem Thema, der “EU Artificial Intelligence Act (AIA)”. Letzterer spricht zum Beispiel von vier Risiken von KI, die höchste Stufe davon, die als “nicht akzeptabel” eingestuft wird, betrifft vor allem die Verwendung von Daten, die unsere Menschenrechte beschädigen könnten, zum Beispiel wenn die automatische Auswertung von sensiblen Daten über eine Person dann dazu führen, dass diese von der Polizei besonders beobachtet wird (“profiling”) oder eine schlechtere SCHUFA-Bewertung bekommt.

Klar, sowas gibt sehr zu denken und muss vermieden werden. Trotzdem, wenn ich daran denke, warum KI gefährlich ist, dann geht es mir um viel existenzielle Szenarien, die von Experten (in dem Fall tatsächlich in erster Linie Männer) durchaus diskutiert werden, die aber anscheinend in der breiteren Diskussion noch gar nicht so auftreten.

Ich versuche mal im Folgenden die aus meiner Sicht größten Risiken aufzulisten (angeregt durch verschiedene Podcast-Interviews mit Experten, die ich bisher so gehört habe, plus mein eigenes Weiterdenken), und wenn jemand von euch dazu eine gute Website hat oder sonstige Quelle, die diese Risiken strukturierter auflistet, gerne her damit!

Die größten Risiken durch KI (engl.: AI)

Weltherrschaft durch allgemeine KI

Weltherrschaft durch allgemeine KI (AGI = artificial general intelligence, manchmal auch ASI = artificial super intelligence): damit ist gemeint, dass die KI irgendwann eine menschenähnliche Intelligenzstufe erreichen könnte, was dann dazu führen würde, dass sie sich selbst weiter optimieren könnte und würde, sodass sie sehr schnell sehr viel intelligenter als wir Menschen wäre (“intelligence singularity”) und als nächste Konsequenz eine Welt nach ihren eigenen Maßstäben erschaffen würde, in der wir Menschen nur noch eine untergeordnete Rolle spielen und wir uns sozusagen selbst zu Sklaven machen oder uns sogar ausrotten dabei. Es gibt da viele Aspekte, über die sich die Experten streiten, die größte Frage ist jedoch, ob die gegenwärtigen Modelle schon nahe an dieser AGI dran sind (was zum Beispiel der Chef von openAI, Sam Altmann, glaubt – letzerer im Positiven!) oder ob AGI mit den momentanen Algorithmen prinzipiell nicht möglich ist (wie zum Beispiel der Biologe und Philosoph Johannes Jaeger es erklärt).
Eng zusammen hängt das mit dem alignment problem, also die Schwierigkeit, die Kontrolle zu behalten darüber, was eine KI gerade macht und wie das mit unseren Bedürfnissen zusammenpasst. Auch wenn es sich erst mal banal anhört, ist dieses Problem gar nicht so einfach, weil die KI-Programme so groß und undurchsichtig sind, dass selbst die Entwickler nicht genau wissen wie und wo gewisse Antworten innerhalb der Software entstehen (so wie auch im menschlichen Gehirn). Im allgemeinen geben zwar die Entwickler oder der Benutzer der KI ein Ziel oder eine Frage vor, aber diese zerlegt dieses Ziel dann in Unterziele und wenn so eine KI in Zukunft sich vermehrt selbst immer mehr und immer komplexere Unterziele setzt und diese mit immer allgemeinerer “Intelligenz” verfolgt, könnte es dazu kommen, dass sie eben Ziele verfolgt, die wir gar nicht mehr verstehen und kontrollieren können.
Auch wenn sich das sehr gespenstisch anhört, bin ich persönlich skeptisch, dass so eine AGI in nächster Zeit entstehen wird; ich bin nach dem Hören verschiedener Meinungen relativ überzeugt dass die allgemeine Intelligenz, die uns Menschen charakterisiert, Eigenschaften hat, die durch die momentanen (!) KI-Ansätze nicht erreicht werden können.
Was Experten wie Eliezer Yudkowsky herausstellen: Vielleicht muss so eine KI allerdings gar nicht genau wie ein Mensch denken, es reicht, wenn sie einfach sehr allgemeine Denkfähigkeiten entwickelt, die auch über mehrere Domänen hinweg Strategien entwickeln kann, um gefährlich zu werden. Ich selbst sehe das noch skeptisch; ich denke, es geht mir darum, wie viel Macht wir diesen Systemen bereit sind zu geben – und darum geht es in den nächsten beiden Punkten:

    KI als Beschleuniger und Verstärker

    KI als Beschleuniger und Verstärker: ist KI einfach eine weitere Technologie unter vielen? Nein, KI ist insofern anders, als dass sie alle anderen Technologien beschleunigen kann und wird: Mit KI kann z.B. bio engineering schneller voranschreiten, weil KI hilft, unter einer Wust von theoretisch möglichen Gen-Zusammensetzungen auszuwählen, wie ein bestimmtes neuartiges Virus zum Beispiel aussehen sollte. KI treibt jetzt schon die Effektivität und Autonomie von Drohnenwaffen voran – von denen wir ausgehen können, dass sie heute schon in der Ukraine und Gaza  ausprobiert werden. Wie wäre es, wenn zum Beispiel ein KI-Programm der CIA mit dem Ziel “China” aus Versehen aus einem Testfall ernst macht und mit einer Cyberattacke Infrastruktur in China angreift, China daraufhin ernst macht und direkt Infrastruktur in den USA lahmlegt, mit Stromausfällen etc.? – KI beschleunigt und verstärkt existierende Dynamiken und Machtverhältnisse, sodass die Starken (und v.a. Reichen!) noch stärker und die Schwachen noch schwächer werden, und bisherige Machtgleichgewichte werden labiler, weil KI meist undurchsichtig ist in ihren Funktionsweisen und Zwischenzielen, sodass ungewollte Fehlergebnisse schwieriger zu verhindern sind. Momentan haben die meisten KI, die im Einsatz sind, noch menschliche Kontrolle zwischengeschaltet in ihrem Kontakt zur realen Welt (vor allem wenn es um kritische Entscheidungen geht), aber da der Einsatz von KI in vielen Bereichen direkt mit Profiten verknüpft ist, werden diese Instanzen von menschlicher Kontrolle in Zukunft immer wieder abgebaut werden.

      KI in Gesellschaft und Demokratie

      KI in Gesellschaft und Demokratie: Der aus meiner Sicht am wenigsten diskutierte und gleichzeitig gefährlichste Bereich ist die Auswirkung von KI auf unsere Gesellschaft und Demokratie. KI an sich kann natürlich auch für sehr positive Zwecke eingesetzt werden. Aber schon bei den sozialen Medien haben wir gesehen, wie sich Technologien entwickeln, die in einem Umfeld von Kapitalismus und Profitmaximierung stattfinden: es geht nicht darum, was uns als Individuen psychologisch und emotional gut tut, oder was unsere Gesellschaft politisch zusammenhält, sondern es geht darum, Geld zu verdienen. Bei den sozialen Medien führt das zu immer mehr Zeit, die wir im Internet verbringen, immer polarisierteren Meinungen und weniger Bereitschaft zum Zuhören, und dadurch Debatten, die immer emotionaler und verkürzter werden, bis schließlich gar keine adäquaten Einigungen mehr denkbar sind – deswegen profitieren auch die Populisten so von den sozialen Medien, siehe US-Wahl (Cambridge Analytica) oder die letzten Wahlen in Deutschland (AfD und TikTok).
      KI ermöglicht weitere Stufen davon: Mit künstlich erstellten Fotos und Videos wird es schwerer zu unterscheiden, was real und was erfunden ist. Außerdem können wir zu jedem möglichen Standpunkt in Sekundenschnelle eloquente Texte mit Referenzen erstellen, die noch die absurdeste Meinung scheinbar wissenschaftlich belegt. Weil KI immer auch ein Wettbewerbsvorteil sein wird, wird es immer schwerer werden, sich dem zu entziehen, und schwuppdiwupp löst eine KI den nächsten Börsencrash aus oder führt zu einem neuen “Marsch aufs Kapitol” (nicht nur in den USA!), weil eine Gruppe von Wählern durch  geschickt manipulierte Nachrichten davon überzeugt ist, dass die letzten Wahlen manipuliert waren.

        Zugegeben: Manches davon hört sich noch relativ fern an, und es kann sein, dass den hier beschriebenen Szenarien aus meinem Kopf ganz andere der Fall sein werden. Oder dass es noch eine Weile dauern wird, bis krassere Vorfälle passieren. Aber dass wir die Auswirkungen von KI die nächsten Jahre stark zu spüren bekommen werden, ist aus meiner Sicht gesichert.

        Was tun?

        Es stellt sich also wieder mal die Frage: Was tun wir jetzt damit? Es ist ähnlich wie mit der Klimakatastrophe: Die Auswirkungen sind so unvorstellbar und unser persönlicher Hebel so klein, dass der Impuls sehr groß ist, den Kopf in den Sand zu stecken. Und in diesem Fall können wir noch nicht mal mit einem reduzierten Fleischkonsum wenigstens ein klein bisschen beitragen!

        Für mich ist die KI, genau wie die Klimakrise, eine starke Erinnerung: Eine Erinnerung, wie kostbar jeder Moment unseres Lebens ist, und wie sehr es nicht selbstverständlich ist, so in Frieden und Selbstbestimmtheit leben zu können. Und genauso eine Erinnerung, unsere persönliche Rolle zu finden und einzunehmen: unsere Rolle, also wo wir innerhalb all dieser Herausforderungen unseren persönlichen Wirk-Raum und Sinn finden können.

        Denn auch wenn unser Handlungsspielraum klein ist: es gibt ihn, immer. Auch wenn wir persönlich die KI nicht stoppen können, so können wir in unserem Umfeld zum Beispiel starke menschliche Netzwerke aufbauen, die auch Politik mitgestalten und die nicht abhängig sind von Technologie und Medien. Menschliche Beziehungen, die auch in einem Umfeld von gesellschaftlicher Spaltung und Fake News sowie Konflikten verschiedenster Form weiterbestehen können und die vor allem auch über meine persönliche “in-group”, über meine Blase hinausgehen, auch zu Menschen, die anders denken.

        Und ich kann mir eine persönliche Achtsamkeits- und Meditationspraxis aufbauen, die mich unterstützt, emotional stabil zu bleiben und auch komplexe Zusammenhänge selbstbestimmt und klar durchdenken zu können, sodass ich weniger empfänglich bin für Manipulation. Im besten Falle kann ich diese sogar weitergeben an Andere.

        Genau diese Dinge, menschliche Beziehungen, emotionale Resilienz und Achtsamkeit, stärken wir in unserem Seminar “Krise und Du”, dass wir erst vor gut einer Woche wieder gehalten haben, diesmal in der Gemeinschaft Sonnenwald im Schwarzwald. Deswegen bin ich so motiviert mit unserem Seminar und auch mit meinen Vorträgen: Selbst wenn es nur ein winzig kleiner Beitrag ist und wir natürlich nur eine sehr begrenzte Menge an Menschen erreichen können – es fühlt sich einfach sehr wichtig an, und es passt zu den Fähigkeiten die ich (und meine Kollegin Sonja) mir über die letzten Jahre erarbeitet habe.

        Und jetzt zu dir:

        Und du, was ist deine Geschichte, deine Fähigkeiten und eine Rolle?

        Schreib mir dazu gerne eine Email wenn du magst! – Auch Feedback, Kritik, Gedanken an mich? Schreibt mir sehr gerne! tm (at) tobiasmaerz.de

        Du kennst eine:n deutschsprachige Expert:in auf dem Gebiet KI? Bringe uns gerne in Kontakt, ich würde gern einmal ein Experteninterview auf Deutsch zu dem Thema aufzeichnen; davon gibt es viel zu wenig!

        Herzlichst, Tobias

        Das Bild zum Artikel habe ich wieder mithilfe von einer KI generiert. Diesmal war es etwas aufwendiger, weil die KI-Bild-Softwares anscheinend noch nicht so darauf trainiert sind, auf kurzen Text hin mit eigenen innovativen Ideen zu kommen; mit mehr Beschreibung, was auf dem Bild sein soll, klappt es dann besser.

        No Comments

        Sorry, the comment form is closed at this time.

        "Willst du in Kontakt bleiben?

         

        Meine Erkenntnisse zum Umgang mit den großen Krisen - alle 2 Wochen in deiner Inbox."