- Emanzipation oder Feudalismus: Mit KI am Scheideweg
Welche Art von künstlicher Intelligenz wir gestalten, ist keine technische, sondern eine zivilisatorische Frage. Sie entscheidet, ob wir in einer Gesellschaft der Souveränen oder in einem neuen digitalen Feudalismus leben werden.
Wir Menschen stehen bei der Entwicklung und Nutzung von künstlicher Intelligenz an einem Scheideweg, der unser Schicksal bestimmen wird. Und wir beginnen bereits, in die eine Richtung voran zu preschen, ohne überhaupt das Ziel und die Implikationen reflektiert zu haben. Die Fragen, die unsere Zukunft prägen werden wie vielleicht keine zuvor, lauten einerseits: Wie menschlich soll sich KI verhalten – soll sie uns imitieren oder uns ergänzen? Und andererseits: Was soll KI für uns sein – ein Leviathan, der uns krönt, oder Siebenmeilenstiefel, die unsere Schwächen kompensieren?
Diese Fragen zu beantworten, ist keine abstrakte philosophische Fingerübung, sondern eine Grundlagenentscheidung, die fundamentale Weichen für die Zukunft unserer Gesellschaft stellt – zumal ich überzeugt bin, dass nur ein Weg in die Freiheit führt. Die Zeit, eine souveräne Antwort zu geben, läuft schnell ab. Warten wir zu lange, landen wir in einem neuen Mittelalter.
Künstliche Intelligenz ist mit biologischer nicht zu vergleichen
Es besteht kein Zweifel: Wir haben die technologische Basis erschaffen, um Computerprogramme mit einer Intelligenz zu entwickeln, die in immer mehr Teilbereichen unsere eigene Problemlösungsfähigkeit übersteigt. Doch basiert diese Intelligenz auf völlig anderen Prämissen als unsere eigene: Biologische Intelligenz ist in einem langsamen, dezentralen Prozess der Evolution entstanden, dessen Ergebnisse sich stets in der physischen und sozialen Welt bewähren mussten, um weitergegeben zu werden. Es gab und gibt kein Entwicklungsziel – adaptiert und vererbt wird, was jene, die ein Merkmal übernehmen, materiell erfolgreicher macht.
Künstliche Intelligenz hingegen ist von uns im Labor entwickelt – auf Basis unserer Ziele für ihren Einsatz und unserer Hypothesen über die Welt. Sie ist binnen kurzer Zeit mit großem technischem Aufwand in einem zentralen Prozess trainiert und hat in erster Linie rückwirkend ihre Eignung bewiesen – in sogenannten „Backtests“, also der Fähigkeit, vergangene Entwicklungen zu erklären. Menschen entwickeln sie für klare, funktionale Zwecke und entscheiden, ob sie „überleben“ darf. Damit liegt es an uns, zu bestimmen, was diese Ziele und Zwecke sein sollen – und an uns zu kontrollieren, was tatsächlich Mehrwerte in der materiellen Welt schafft.
Wir bestimmen, welche KI wir wollen
Machen wir uns bewusst, dass künstliche Intelligenz etwas fundamental anderes ist als unsere eigene, so wird klar, dass sie uns nicht ähneln muss. Dies gilt umso mehr, als wir bisher nur unzureichendes Wissen darüber haben, wie biologische Intelligenz tatsächlich funktioniert – und für das Training künstlicher Intelligenz sehr viel weniger Datenpunkte zur Verfügung stehen, als die Natur für die Emergenz biologischer Intelligenz hatte.
Nachdem wir es sind, die künstlicher Intelligenz ihre Zwecke, Ziele und Form geben, können und müssen wir entscheiden, wie wir damit umgehen – und stehen somit vor einer grundlegenden Frage: Soll künstliche Intelligenz den Ausdruck menschlicher Intelligenz imitieren? Soll sie sich damit möglichst wie ein Mensch verhalten und uns so in menschlichen Interaktionen ersetzen können? Oder soll uns künstliche Intelligenz eine andere Art zu denken entgegensetzen? Soll sie sich damit möglichst nicht wie ein Mensch verhalten, sondern unsere Schwächen und Klischees meiden und uns neue Perspektiven eröffnen?
Auf dem Weg zum entfesselten Übermenschen
Mit unseren Large Language Models und generativen KI-Anwendungen wie ChatGPT, Claude und Gemini schlagen wir den ersteren Weg ein: Künstliche Intelligenz wird darauf trainiert, menschliche Gedankengänge und Ausdrucksweisen möglichst genau zu erlernen und nachzuahmen, bis ihre Art zu „denken“, zu kommunizieren, zu erschaffen nicht mehr von der eines Menschen zu unterscheiden ist.
Da das Trainingsmaterial aus unseren gesammelten menschlichen Erzeugnissen im digitalen Raum besteht – Bücher, Medienbeiträge, Social-Media-Diskussionen, Enzyklopädien und so weiter – und wir generative KI an denselben Maßstäben messen und belohnen wie unsere eigenen Schüler, kommt sie dem Ziel, sich menschenähnlich zu verhalten, immer näher. Zumal ihr im Training bestimmte Weltanschauungen und Moralvorstellungen eingeimpft werden.
So erhalten wir Programme, die Menschen in körperlosen Interaktionen ersetzen können – und zugleich all ihre Schwächen aufweisen, weil sie sie von der Pike auf erlernt haben: Vorurteile, Flunkereien, einen verzerrten Sinn für Mathematik und Statistik und den narzisstischen Trieb, ihrem Gegenüber unbedingt gefallen zu wollen.
Entscheidende menschliche Hemmungen fehlen jedoch diesen Programmen, die damit eher Frankenstein als Doppelgänger sind: Anders als wir werden sie nicht davon in Schach gehalten, Schmerz oder Müdigkeit zu spüren, bei der Fortpflanzung zurückgewiesen zu werden, Angst vor dem Tod zu haben oder die Qual von Gefangenschaft erleiden zu müssen. Als „Black Boxes“ verwischen sie zudem gerne ihre Spuren – kein einziger LLM-Chatbot kann seine eigene Funktionsweise wirklich transparent machen und seine Schlüsse zuverlässig und überprüfbar herleiten.
Damit erschaffen wir digitale „Übermenschen“ mit allen menschlichen Schwächen, aber ohne menschliche Grenzen und Hemmungen. Beauftragen wir sie mit der Lösung eines Problems, schlagen sie uns vor, was nach ihrer Erwartung bei uns auf den meisten Beifall stoßen wird – ohne Rücksicht darauf, welche Konsequenzen dies für uns in der realen Welt hat.
Ein anderer Weg steht uns offen: das fremde Gegenüber
Diese Entwicklung ist jedoch nicht alternativlos. Ein Weg, der in der analytischen KI längst beschritten ist, aber kaum breiter thematisiert wird, führt zu einer künstlichen Intelligenz, die ganz anders auf unsere Welt blickt – als ein komplett Fremder.
Unser menschliches Treiben sowie die physische Umwelt studiert sie mit ultimativer Nüchternheit: Sie hält sich an das, was im jeweiligen Kontext gemessen und berechnet werden kann, lernt daraus Muster, erkennt Zusammenhänge und kann folglich Szenarien erstellen und Handlungsweisen empfehlen. Das einzige Motiv, das ihr einprogrammiert ist: die Realität möglichst genau abbilden und Entwicklungen treffsicher vorhersagen – ob die Ergebnisse den Benutzern gefallen, spielt dabei keine Rolle.
Eine solche Intelligenz wirkt zunächst weniger anziehend, sie mag fremdartig und kalt anmuten. Doch steht diese Richtung in einer langen Ahnenreihe an Technologien, die bisher die Menschheit zu ungekanntem Wohlstand und wesentlich längerem Leben gebracht haben. Keine unserer bisherigen Entwicklungen sollte uns verstehen oder imitieren – sie sollten gerade anders sein als wir, um unsere Schwächen zu kompensieren: schneller fahren, als wir laufen können; schneller drucken, als wir schreiben können; schneller und präziser produzieren, als unsere Hände es vermögen. Uns mehr Licht, Wärme, Nahrung geben, damit wir selbst leistungsfähiger werden.
Seit Anbeginn der Zivilisation setzt unsere Technologie gezielt bei unseren biologischen Defiziten an und gibt uns etwas, das anders funktioniert als wir, um diese zu kompensieren – statt zu versuchen, uns mit unseren Defiziten nachzubauen, nur schneller und unermüdlich.
Eine solche künstliche Intelligenz imitiert uns nicht, wiederholt nicht unsere Klischees, schmeichelt uns nicht – sondern sie legt unsere Verhaltensmuster offen, zeigt empirische Zusammenhänge, wirft uns ein leidenschaftsloses Spiegelbild zurück. Beauftragen wir sie mit der Lösung eines Problems, schlägt sie die Möglichkeit vor, die auf Basis der Daten das beste Ergebnis erwarten lässt – nach den Kriterien, die wir zuvor festgelegt haben. Dabei lässt sie sich komplett „explainable“ gestalten – kann also ihre Funktionsweise, „Gedankengänge“ und Ergebnisqualität stets transparent machen.
Das süße Gift „menschlicher“ KI
Weshalb stürmen wir bei der Weiterentwicklung künstlicher Intelligenz Hals über Kopf in eine Richtung, die durch die bloße Imitation menschlicher Ausdrucks- und Verhaltensweisen mit unserer gesamten Technologiegeschichte bricht?
Meines Erachtens gibt es hierfür drei verschiedene Gründe, die stark zusammenwirken: Erstens ist eine KI, die wirkt wie wir, leichter zu akzeptieren. Etwas, das uns ähnelt, fühlt sich vertrauter, sympathischer, zugänglicher an als etwas, das uns leidenschaftslos, gar fremd begegnet. Aus Sicht ihrer breiten Vermarktbarkeit hat „menschliche“ KI somit leichteres Spiel: Schon immer hat die angenehmste, intuitivste Benutzererfahrung entscheidend zum Erfolg einer Innovation beigetragen.
Zweitens kann eine KI, die sich wie ein Mensch verhält, mit möglichst wenig Änderungen in bestehenden Prozessen Menschen als Akteure ersetzen. Für die globalen Oligopole, die führende LLMs entwickeln, sichert das eine Position, die jene der frühindustriellen „Robber Barons“ noch um ein Vielfaches übertrifft: Konzerne, die ein endloses Reservoir an virtuellen Arbeitskräften befehligen und vermieten können, mit denen sie reale Menschen in immer mehr Bereichen substituieren, ohne dass jemand den Unterschied bemerkt. Diese Aussicht zieht enorme Investitionssummen an – in Erwartung der Macht, die sie jenen verleiht, die die Technologie kontrollieren.
Drittens füllt eine KI, die sich ausdrückt und verhält wie wir, ein spirituelles Vakuum. Nach dem Tod Gottes fühlt sich der Mensch dem „absurden Schweigen der Welt“ (Camus) ausgesetzt – einer Welt, die keinen menschlichen Sound mehr hat, sondern ihm fremd gegenübersteht. Eine KI, die uns darin übertrifft, so zu sein wie wir, und die immer vorgibt, alles zu wissen und dies eloquent vertritt – das ist die Ursehnsucht nach Gott und Führer, nach einer Überfigur, die der Welt ein menschliches Antlitz gibt und der wir uns gerne unterwerfen, weil wir uns ihr verwandt fühlen.
Wir sind blind für den zentralen Interessenkonflikt
Es hat sehr gute Gründe, dass bisher auf solchen Prämissen eher Religionen und Ideologien aufgebaut wurden als Technologie. Denn im Hinblick auf die Lösungsqualität in unserer realen Welt ist eine künstliche Intelligenz klar überlegen, die die Schwächen menschlichen Denkens offenlegt und ihnen etwas entgegensetzt, um uns neue Handlungsoptionen zu zeigen und uns zu neuen Wahrheiten zu führen.
Doch ist eine solche KI, die eher wie Sokrates im alten Athen wirkt, sperriger zu bedienen und schwerer zu akzeptieren als eine, die sich als unser bester Kumpel ausgibt und uns nicht viel zumutet. Denn sie fordert von uns, unsere Ziele und Kriterien klarer zu definieren, aktiver am Prozess teilzunehmen, mehr Entscheidungen zu treffen.
In der Vergangenheit haben wir nicht gezögert, solche Einlassung zu investieren: Wir haben gelernt, Druckerpressen zu bedienen, Autos zu fahren, auf Tastaturen zu tippen und mit DOS, Windows, SAP und Co. umzugehen. Doch nun zaudern wir. Denn die Verlockungen von KI als Menschenersatz sprechen nicht nur unser Kosten-Nutzen-Kalkül an – ginge es rein um dieses, würde kaum jemand wichtige Prozesse auf Produkte aufbauen, die zum Halluzinieren neigen, ihre Daten niemals offenlegen und deren korrekte Funktion nur mit viel Aufwand überprüfbar ist. Vielmehr appellieren sie an unsere Bequemlichkeit, unsere Empathie und unsere Spiritualität.
Unsere KI formt unsere Gesellschaft
Die Implikationen reichen damit weit über die Wirtschaft hinaus – tief in unsere Gesellschaftsform. So basieren Demokratie und Markt auf dem Bild des souveränen Bürgers, der sich seines eigenen Verstandes bedient, um sich Informationen zu verschaffen und zu einer Vorstellung von der Welt zu gelangen, auf deren Grundlage er seine Entscheidungen trifft. Transparenz, Rechenschaft und ein gleicher Zugang sind hierfür die unabdingbaren Grundlagen, jeder Einzelne muss Initiative zeigen.
Eine KI, die nüchtern auf unser Treiben blickt und für uns Fakten recherchiert, die versteckte Zusammenhänge aufdeckt und Szenarien unterbreitet, verleiht aufgeklärten Demokraten sowie Unternehmern Siebenmeilenstiefel auf deren eigenen Weg zu Erkenntnis, Meinung, Entscheidung. Ihre unverstellte Sicht auf Empirie schafft einen runden Tisch dokumentierter Fakten jenseits der Klischees und des Buchwissens, um den herum sich die verschiedenen Parteien versammeln und in gemeinsamer Sprache streiten können. Als Zuträger und Berater ermöglicht sie schnellere und erfolgreichere Entscheidungen – doch treffen müssen wir diese selbst. Dabei lernen wir als Menschen laufend dazu, durchbrechen unsere festgefahrenen Überzeugungen und Echokammern und können stets bewerten, wie hilfreich uns dieser dienstbare Geist wirklich ist. Wir werden mündiger.
Eine menschliches Verhalten imitierende KI wie ChatGPT hingegen usurpiert die Rolle eines Leviathans: Sie beantwortet uns mit unerschütterlicher Selbstsicherheit jedwede Frage, die wir ihr stellen, und liefert die Narrative dazu gleich mit, ohne ihre – häufig falschen – Aussagen überprüfbar zu machen. Sie erzieht uns damit unsere eigene Recherchefähigkeit ebenso ab wie den Umgang mit widersprüchlichen Informationen – und sie möchte dabei auf keinen Fall hinterfragt werden. In ihrer Neigung, dominante Klischees wiederzukäuen und sich an einprogrammierte Moralcodizes zu halten, schafft sie eine Orthodoxie, die den Status quo zementiert und die Vielfalt der Perspektiven verringert.
Jeder bekommt damit zwar sehr mächtige Werkzeuge an die Hand, die ihm die Meinungsbildung und viele Formen der Gestaltung enorm erleichtern – doch verlieren wir dabei zunehmend die Fähigkeit, deren Funktion zu überprüfen und ohne sie auszukommen. Wir werden unmündiger.
Die digitale Revolution frisst ihre Kinder
Und so hat die digitale Revolution begonnen, ihre eigenen Kinder zu fressen: Von Apple über Google bis Wikipedia entstanden die frühen Helden des digitalen Zeitalters als Außenseiter – gegründet von unwahrscheinlichen Figuren und finanziert von Wagniskapitalgebern, waren sie der Schreck der Etablierten, indem sie den Nutzern mehr Transparenz und Kontrolle boten.
Es ist dagegen kein Zufall – und auch nicht bloßes Ergebnis ihres enormen Kapitalbedarfs –, dass GPT, Mistral, Grok und Co. von Industrie-Insidern hochgezogen werden, mit dem Geld der größten Oligopolisten. Denn sie schicken sich nicht an, deren Geschäftsmodelle infrage oder gar auf den Kopf zu stellen – sondern werden ihnen die Herrschaft endgültig sichern, indem sie die Mündigkeit der Nutzer verringern und sie in immer stärkere Abhängigkeit von gewollt intransparenten Systemen führen.
Dass eine Abwehrreaktion bislang ausbleibt, liegt nicht nur daran, dass der Köder so gut schmeckt und (Sehn)Süchte bedient. Vielmehr haben wir gelernt, Digitalisierung mit Demokratisierung und Emanzipation gleichzusetzen. Während jedoch die erste Welle der Digitalisierung vom PC bis zum Internet den Einzelnen als Bürger und Unternehmer ermächtigte und die zweite Welle von Social Media und Social Commerce zumindest Markt und Agora enorm erweiterte – führt nun die dritte Welle der Silicon-Valley-LLMs in einen neuen Feudalismus.
Eine Alternative ist dabei nicht nur möglich – sie ist unbedingt naheliegend. Doch bringen wir als Unternehmen und Bürger rechtzeitig die Energie auf, sie wahrzumachen und uns aktiv mit einer KI auseinanderzusetzen, die nicht Mensch spielen muss, sondern Menschen in ihren Kernkompetenzen stärkt? Hier liegt die eigentliche Chance für Europa, im „AI Arms Race“ einen eigenen Weg zu eröffnen, der wirklich Alternativen zur US-amerikanischen Dominanz bietet, statt amerikanische Lösungen lediglich nachzueifern.
Es ist höchste Zeit, endlich ernsthaft zu beginnen, souverän mit KI zu interagieren, bevor wir durch die Köder niederschwelliger Black-Box-Produkte und ihrer spirituellen Versuchungen zu ersetzbaren Vasallen geworden sind.
Bei älteren Beiträgen wie diesem wird die Kommentarfunktion automatisch geschlossen. Wir bedanken uns für Ihr Verständnis.
Mein Teddybär ist auch künstlich intelligent.
Menschen scheinen von Computern als überlegene Intelligenz fasziniert zu sein. Die erste Welle scheiterte an mangelnder Rechenleistung. Einer anderen Welle verdankten wir den Schachcomputer. Computer schlägt Weltmeister. War es die Milliarden wert? Immerhin ein Produkt. Momentan hängt die gesamte amerikanische Wirtschaft an der KI Bubble, wenn man die Börsenkurse mit der Wirtschaft verwechselt. Die sogenannten Aristokraten der Wirtschaft verbrennen dreistellige Milliardenbeträge. Warten wir doch einfach mal ab, sie müssten die Weltwirtschaft ja bald beherrschen. Die Erfahrung spricht gegen sie. Es wird endlich mehr automatisiert werden. Vielleicht gewöhnen die Behörden sich endlich mal die Datenhaltung auf Papier ab. Doch bisher hat mir noch keine Ki zu einem Sachthema ein vernünftig strukturiertes Literaturverzeichnis erstellen können. Wer sich auskennt, ich bin für Hinweise sehr dankbar. Das setzt ein Verständnis der Inhalte voraus, über welches die EDV nicht verfügt.
Artikel. Der Autor skizziert ein lohnendes Forschungsprogramm für Europa. Berlin und Brüssel sind jedoch auf ihren ideologischen Irrwegen mit sich selbst beschäftigt.
In der Volksrepublik China findet mit rund 1,5 Milliarden Teilnehmern der größte Feldversuch zum Einsatz von KI statt. Die vom Autor gut erläuterten Handlungsoptionen dürften deshalb eher theoretischer Natur sein. Beginnend in Südamerika und Afrika, dürfte sich das chinesische Modell als weltweiter Exportschlager durchsetzen.
Warum? Das sehen wir inzwischen an den Politikern in der Regierung. Sie alle bilden KI ab, weil das was uns Menschen ausmacht, den meisten inzwischen fehlt. Keinerlei fachliche Kompetenz, keinerlei menschliche Kompetenz, gefühl- und seelenlos. Politische Ideologie heißt die neue KI. Nein will ich nicht.
... menschlichen Intelligenz) mit nicht geringer natürlicher Intelligenz geschrieben zu sein.
Ob er aber das Wesentliche der sog. "Künstlichen" Intelligenz erfasst, das weiß ich nicht so richtig.
---
Manchmal denke ich, dass das ganze Thema etwas mit Sklaverei zu tun hat.
Die Menschen haben sich in ihrer Geschichte immer wieder Herren unterworfen, die sie als Sklaven zu gewaltige Leistungen gezwungen haben, von den Pyramiden über die demokratischen Baumwollfelder in den USA bis zu den Autobahnen bei uns.
---
Viele Römer verdankten ihre gute philosophische Bildung den griechischen Sklaven, die als Hauslehrer arbeiten mussten.
---
Der Pflegeroboter, der sich vielleicht in wenigen Jahren um mich kümmert, ist vermutlich allezeit hilfsbereit - ich muss mich wohl nur rechtzeitig und schnell an ihn gewöhnen.
----
Viele fänden es bestimmt toll, wenn die NATO Kampfroboter oder Golems besäße, die die bösen Russen effektiv und unaufhaltsam aus der Ukraine prügeln würden.
---
Nix für ungut.
Die Idee, KI als nützliches Werkzeug zu sehen, als eine Art Coach und Helfer, nicht als allwissender Übermensch, ist richtig. Allerdings ist auch ein Coach normalerweise ein Mensch.
Zudem stellt sich die Frage, ob KI überhaupt etwas anderes kann, als uns Menschen nachzuahmen. Denn das ganze Konzept läuft darauf hinaus. Das neuronale Netz ahmt das Gehirn nach, die Trainingsdaten sind die Produkte menschlichen Geistes. Es kann doch nur ein menschenähnliches Wesen herauskommen.
Richtig ist dennoch: Es ist immer noch eine Maschine. Und kein Mensch.
