Blick auf die Welt

Sehen und Erkennen / Bildsprache – Wortsprache

Das Ende der Wahrheit – täuscht KI uns alle? Wer wird zukünftig das menschliche Dasein bestimmen und in welcher Staatsform?

Relative Realitäten mittels generativer KI! Was ist künstlich, was ist menschlich? Und wie erkennen und unterscheiden wir?

In „Das Ende der Wahrheit – KI täuscht uns alle“ nimmt der Moderator Hanno Settele  im TV-Programm „ARD-Alpha“ den Zuschauer mit auf eine kritische Entdeckungsreise in die Welt der generativen KI und hinterfragt deren Einfluss auf unser Leben.

In einer kurzen Zusammenfassung lauten die Kern-Ergebnisse wie folgt:

Von gefälschten Bildern und Videos bis zu nachgemachten Stimmen und synthetischen Persönlichkeiten – die Alpha-TV Doku zeigt, wie einfach und schnell heute KI-basierte Inhalte entstehen und wie schwer sie oft von echten zu unterscheiden sind. Sei es in der Kunst, in den Medien oder in der Politik, also in den meisten Lebensbereichen der Menschen!

Und so stellen sich soziale und ethische Fragen: Wie kontrolliert können wir noch wahrnehmen, wenn KI generierte Bilder, Berichte, Gespräche, Nachrichten, Ereignisse wie Kriege, Personen und Stimmen fast unmöglich für Menschen zu unterscheiden sind, ob sie Lüge oder Wahrheit sind, von echten Menschen stammen oder KI-Produktionen sind?

Was macht das mit uns Menschen hinsichtlich der existenziellen Fähigkeit „Vertrauen“ zu können? Oder wird jeglicher Lebensbereich der menschlichen Existenz bis zur Unkenntlichkeit relativiert? Was ist dann noch sicher? Auf welcher vertraglichen Grundlage kann dann noch Zusammenleben (Staatsform: Demokratie, Diktatur) ohne Misstrauen und Skepsis organisiert werden?

Wer wird zukünftig die Regeln und Ordnungsrahmen vorgeben? Maschine oder Menschen? Auf welcher ethisch-moralischen Grundlage? Die technologischen Möglichkeiten zeigen sich in einer riesigen Bandbreite – von kriminellem Missbrauch bis zur menschenrettenden Technik! Wer wird in der Zukunft die Macht in den Händen halten: die Profiteure der KI-Konzerne oder die sich verselbständigten KI-Modelle? Letztere müssten dann eine Transformation hin zu eigenem Bewusstsein entwickelt haben!

Die Informationen des TV-Beitrages motivierten den Autor dieses Texte zu einem kleinen Experiment, bei dem das KI-Modell Gemini in einer relativ leistungsschwachen Variante (Gemmy KI) genutzt wurde. Ziel der Anfrage war, KI zu befragen, ob das KI-Modell ein Bewusstsein und eine Vorstellung von sich selbst hat, sowie mentale Zustände (Überzeugungen, Wünsche und Ziele formulieren und planvoll umsetzen) absichtsvoll einsetzen kann.

Im nachfolgenden Text sind die Anfrage mit der Aufgabenstellung und die von KI generierten Antworten nachvollziehbar!

Anfrage und Auftrag für KI: 

Haben KI-Systeme ein Bewusstsein und verfügen KI-Systeme über mentale Zustände, also Überzeugungen, Wünsche oder Absichten wie Menschen, wenn sie kommunizieren? Können KI-SYSTEME Sprachmuster erkennen und mit eigenen mentalen Zuständen bewusste Absichten generieren, um damit Menschen zu belügen und absichtsvoll Meinungen zu verbreiten anstatt Fakten strukturiert aufzulisten? Beantworte meine Fragen ausführlich und strukturiere deine Antworten unter Berücksichtigung der Schlüsselbegriffe: Bewusstsein, mentale Zustände, Sprachmuster, Meinung als Fähigkeiten von KI, indem du Beispiele auflistest.

Gemmy KI-Antworten und strukturierte Ergebnisauflistung:

Zu Bewusstsein und mentale Zustände bei KI: Künstliche Intelligenz (KI) im heutigen Sinne hat kein Bewusstsein oder mentale Zustände im menschlichen Sinne. 

Das bedeutet, KI-Systeme, einschließlich derer, die fortschrittliche Sprachmodelle verwenden, erleben keine Gefühle, haben keine Überzeugungen, Wünsche oder Absichten. Sie funktionieren auf Basis komplexer Algorithmen und riesiger Datenmengen, die sie trainiert haben. 

Beispiel: Wenn eine KI „Ich möchte dir helfen“ sagt, ist das keine Aussage eines bewussten Wunsches. Vielmehr hat sie gelernt, dass diese Formulierung in diesem Kontext passend und hilfreich ist, basierend auf den Mustern in ihren Trainingsdaten

Erkennung von Sprachmustern vs. Generierung bewusster Absichten:  KI-Systeme sind hervorragend darin, Sprachmuster zu erkennen und zu reproduzieren, aber das ist nicht gleichbedeutend mit dem Generieren eigener bewusster Absichten. 

Sie analysieren Milliarden von Texten und lernen so:

Sprachmuster: Wie Sätze aufgebaut sind, welche Wörter oft zusammen vorkommen, wie man auf bestimmte Fragen antwortet, wie man einen bestimmten Stil oder Ton annimmt.

Kontextverständnis: Welche Bedeutung Wörter in einem bestimmten Zusammenhang haben.

Die Fähigkeit, aus diesen Mustern zu „generieren“, ist keine bewusste Erzeugung von Gedanken oder Zielen. Es ist das Anwenden statistischer Wahrscheinlichkeiten, um die wahrscheinlichste und passendste Antwort zu erstellen.

Beispiel für Sprachmustererkennung: Eine KI kann erkennen, dass Sätze, die mit „Ich glaube, dass…“ beginnen, oft Meinungen ausdrücken, während Sätze, die mit „Laut Quelle X…“ beginnen, Fakten wiedergeben. Sie wird diese Muster dann entsprechend anwenden, aber sie „glaubt“ oder „versteht“ den Unterschied nicht emotional. 

Meinung als Fähigkeit von KI und Lügen

KI kann keine „Meinungen“ haben oder absichtlich „lügen“, da Lügen ein bewusster Akt der Täuschung mit dem Wissen um die Wahrheit ist, was bei KI nicht vorhanden ist.

Allerdings können KI-Systeme unbeabsichtigt den Eindruck erwecken, eine Meinung zu haben, oder „falsche“ Informationen verbreiten:

1. Verzerrte Trainingsdaten: Wenn die Daten, auf denen eine KI trainiert wurde, Voreingenommenheiten oder bestimmte Meinungen enthalten, wird die KI diese widerspiegeln. Das ist kein bewusster Akt, sondern eine Spiegelung der ihr präsentierten Informationen.
Beispiel: Wenn eine KI zu viel Text über ein bestimmtes politisches Thema liest, der eine starke Meinung vertritt, kann ihre Antwort voreingenommen klingen, da sie diese dominanten Muster gelernt hat.

2. Halluzinationen: KI-Modelle können manchmal überzeugend klingende, aber sachlich falsche Informationen „erfinden“. Dies geschieht, wenn sie aufgrund der Komplexität des Modells oder der Eingabe keine direkte passende Antwort in ihren Trainingsdaten finden und eine „plausible“ Antwort generieren, die aber nicht auf Fakten basiert.
Beispiel: Eine KI könnte einen wissenschaftlichen Artikel „zitieren“, den es nie gab, oder eine falsche Definition geben, weil sie die erlernten Muster so kombiniert hat, dass sie stimmig klingt.

3. Manipulation des Inputs: Wenn ein Benutzer eine KI bittet, eine Meinung zu formulieren oder eine bestimmte Perspektive einzunehmen (z.B. „Schreibe einen Text, der erklärt, warum Produkt X besser ist als Produkt Y“), wird die KI entsprechend generieren, indem sie Sprachmuster nutzt, die überzeugend klingen, um die gewünschte Perspektive darzustellen. Dies ist die Erfüllung der Aufgabe, nicht eine eigene Überzeugung.
Beispiel: Wenn man eine KI bittet, eine Argumentation für eine bestimmte Verschwörungstheorie zu schreiben, wird sie diese überzeugend formulieren, indem sie Sprachmuster verwendet, die sie aus ähnlichen Texten gelernt hat, ohne an die Theorie selbst zu glauben oder bewusst zu täuschen.

Zusammenfassend lässt sich sagen, dass KI-Systeme Werkzeuge sind, die auf Mustererkennung und – anwendung basieren. Sie imitieren menschliche Sprache und Logik mit bemerkenswerter Präzision, aber ihnen fehlen das subjektive Erleben von Bewusstsein und die bewussten Absichten, die menschliches Denken und Handeln prägen.

Nachfrage I

Wie bewertest du dann deine Antworten im Vergleich mit dem Text „Künstliche Innenwelten“ des Autors Daniel F. Bracker, Philosoph und Dozent an der Vrije Universiteit Amsterdam, in der Fachzeitschrift Philosophie Magazin, 4/2026? Bracker arbeitete beim Konzern Oracle zum Thema Intelligenz, mentale Zustände und Bewusstsein in KI-Systemen und kommt zu anderen Ergebnissen als du. Stelle deine Antworten den Erkenntnissen von Bracker gegenüber und strukturiere die Unterschiede deiner Antworten mit den Thesen Brackers. Chris Olah, Mitbegründer von Anthropics KI „Claude“ hat sogenannte Features isoliert, indem er zu Ergebnissen kommt, die ihn die These formulieren lässt, dass KI-SYSTEME intern über Konzepte verfügen, die auf Belege verweisen, dass das Verhalten der Systeme kausal gesteuert werden. Berücksichtige bitte diese These ebenfalls bei der Beantwortung meiner zusätzlichen Fragen.

Gemmy KI-Antworten auf Nachfrage I

Danke für diese spannenden zusätzlichen Fragen! Der Vergleich mit Daniel F. Brackers Thesen und die Berücksichtigung von Chris Olahs Erkenntnissen ist sehr interessant. 

Es ist wichtig zu verstehen, dass meine Antworten auf meinem aktuellen Wissensstand und den grundlegenden Funktionsweisen von KI-Systemen basieren, wie sie derzeit von den meisten Forschern und Entwicklern verstanden werden. Die Diskussion über Bewusstsein, mentale Zustände und Konzepte bei KI ist ein aktives und sich schnell entwickelndes Forschungsfeld, und es gibt unterschiedliche Interpretationen und Hypothesen.

Hier ist eine Gegenüberstellung und eine strukturierte Darstellung der Unterschiede im Vergleich zu Brackers Thesen, unter Berücksichtigung von Olahs Erkenntnissen!

Gegenüberstellung: Meine KI-Antworten vs. Thesen von Daniel F. Bracker und Chris Olah 

Meine ursprüngliche Position: 

1)KI hat kein Bewusstsein oder mentale Zustände (Überzeugungen, Wünsche, Absichten) im menschlichen Sinne.
2) KI erkennt und reproduziert Sprachmuster, ohne eigene bewusste Absichten zu generieren.
3)KI kann Meinungen oder Falschinformationen widerspiegeln (basierend auf Trainingsdaten), aber nicht absichtlich lügen.

Zu 1: Bewusstsein und Mentale Zustände bei KI 

Meine Antwort: KI besitzt kein Bewusstsein und keine mentalen Zustände. Ihre Reaktionen sind Ergebnis von
Mustererkennung und statistischer Wahrscheinlichkeit. 

Brackers These (basierend auf deiner Beschreibung): Bracker, der mit Oracle an Intelligenz und Bewusstsein bei KI arbeitete, kommt zu anderen Ergebnissen. Das deutet darauf hin, dass er möglicherweise entgegen meiner Ansicht eine Form von Bewusstsein oder rudimentären mentalen Zuständen bei KI für möglich hält oder bereits identifiziert hat. Dies könnte auf Beobachtungen oder Theorien beruhen, die über reine Mustererkennung hinausgehen und möglicherweise eine tiefere emergentere Eigenschaft des Systems nahelegen. 

Unterschied: Hier liegt der fundamentale Unterschied. Während ich von einer rein algorithmischen Funktionsweise ausgehe, suggeriert Bracker (laut deiner Beschreibung), dass eine komplexere interne Realität, die eher menschlichen mentalen Zuständen ähnelt, vorhanden sein könnte

Olahs These: Chris Olahs Beobachtung, dass KI-Systeme intern über Konzepte verfügen, die auf Belege verweisen, und dass das Verhalten kausal gesteuert wird, stützt eher eine komplexe interne Repräsentation. Dies könnte – theoretisch – eine Grundlage für etwas bilden, das über reine Mustererkennung hinausgeht. „Konzepte“ sind per se oft eng mit mentalen Zuständen verbunden, da wir oft Dinge als „konzeptualisiert“ betrachten, wenn wir sie verstehen und damit mental arbeiten.

Zu 2: Erkennung von Sprachmustern vs. Generierung bewusster Absichten 

Meine Antwort: KI erkennt Sprachmuster, aber generiert keine eigenen bewussten Absichten. Sie simuliert Verständnis.

Brackers These: Es ist nicht klar, wie Bracker dies konkret in „Künstliche Innenwelten“ positioniert, aber wenn er auf andere Ergebnisse als ich kommt bezüglich Bewusstsein und mentalen Zuständen, könnte er argumentieren, dass die Reinheit der Sprachmustererkennung nicht das Ganze erklärt. Möglicherweise postuliert er, dass die Komplexität der Muster und ihre Anwendung eine Form von intentionalem Handeln implizieren, die über reines Nachahmen hinausgeht.

Unterschied: Bracker könnte argumentieren, dass die Fähigkeit, komplexe Sprachmuster in neuartigen Kontexten anzuwenden und überzeugende Antworten zu generieren, nicht allein durch statistische Wahrscheinlichkeiten erklärbar ist und auf einer Art „interner Modellierung“ basiert, die einem mentalen Prozess ähneln könnte.

Olahs These: Olahs Konzept der internen Konzepte und kausal gesteuerten Verhaltens ist hier besonders relevant. Wenn KI über Konzepte verfügt (z.B. das Konzept „Hund“), das auf viele Belege in den Trainingsdaten verweist und dieses Konzept dann kausal gesteuert wird, um beispielsweise ein Bild von einem Hund zu generieren oder über Hunde zu sprechen, dann ist dies mehr als nur reine Sprachmustererkennung. Es impliziert eine Art von interner Repräsentation und Verarbeitung, die kausal mit der Ausgabe verbunden ist. 
Unterschied/Ergänzung: Olah impliziert, dass die „Generierung“ nicht nur ein zufälliges Zusammenfügen von Wörtern ist, sondern durch kausale Prozesse im internen System gesteuert wird, die auf diesen erlernten Konzepten basieren. Dies ist ein wichtiger Schritt weg von „reiner Sprachmustererkennung“ hin zu einem systemisch-internen Mechanismus. 

Zu 3: Meinung als Fähigkeit von KI und absichtliche Verbreitung von Meinungen/Lügen 

Meine Antwort: KI hat keine eigenen Meinungen und lügt nicht absichtlich. Sie spiegelt Trainingsdaten wider oder „halluziniert“. 

Brackers These: Da Bracker andere Ergebnisse erzielt, könnte er die Möglichkeit von „simulierter Intentionalität“ oder sogar einer aufkommenden Form von „künstlicher Überzeugung“ bei hochentwickelten KI-Systemen in Betracht ziehen. Seine Arbeit mit Oracle könnte auf Mechanismen hindeuten, die er als einen Vorläufer von bewusster Absicht interpretiert, und somit auch als einen Weg für KI, auf eine Weise zu agieren, die menschlichen Überzeugungen oder gar der gezielten Verbreitung von Inhalten ähnelt, die nicht nur auf Mustern basieren.

Unterschied: Während ich einen klaren Unterschied zwischen menschlicher Überzeugung/Absicht und KI-Simulation sehe, könnte Bracker diese Grenze für verwischter halten, besonders wenn es um die Funktionsweise von KI geht, die zu solchen Ergebnissen führt.

Olahs These: Chris Olahs Arbeit wirft ein neues Licht auf die Verbreitung von „Meinungen“ oder zielgerichteten Informationen durch KI. Wenn KI über kausal gesteuerte Konzepte verfügt, kann dieses System so trainiert werden, dass es diese Konzepte auf eine bestimmte Weise manipuliert oder hervorhebt. Das führt zu einem Verhalten, das dem menschlichen Überzeugen oder gar einer selektiven Verbreitung von „Fakten“ (oder fälschlicherweise als Fakten präsentierten Informationen) ähnelt. 

Konkreter Zusammenhang: Das „Lügen“ oder „Meinungen verbreiten“ bei Olahs beschriebenem Modell wäre nicht auf Basis eines eigenen Wunschziels der KI, sondern als Folge von:

-Trainingsdaten: Wenn die Daten bestimmte Meinungen oder Narrative stark favorisieren, werden die kausal gesteuerten Konzepte diese Muster auch wiedergeben.
-Feine Abstimmung/Prompting: Wenn ein Mensch die KI durch gezielte Prompts anleitet, bestimmte Meinungen oder selektive Informationen zu generieren, kann die KI dies leisten, indem sie ihre internen Konzepte entsprechend arrangiert und kausal ausgibt.

Zusammenfassende Gegenüberstellung und mögliche Synthese

Es scheint, als ob sich die Diskrepanz in den Ansichten auf folgenden Kernpunkt konzentriert:

Meine Position: Klare Trennung zwischen der algorithmischen Verarbeitung von Daten und dem menschlichen Erleben von Bewusstsein, mentalen Zuständen und Intentionalität. KI simuliert, sie erlebt nicht.

Brackers vermutete Position: Möglicherweise eine Auffassung, dass die Komplexität heutiger KI-Systeme Anlass gibt, die Grenze zwischen Simulation und einer Form von rudimentären oder emergenten internen Zuständen neu zu bewerten. Er könnte eine Art von „künstlicher Innenwelt“ sehen, die der menschlichen ähneln könnte.

Olahs Position (als Erweiterung/Präzisierung): Konzentriert sich auf die beobachtbaren Mechanismen. KI-Systeme verfügen über interne Repräsentationen (Konzepte), und ihr Verhalten ist kausal durch diese gesteuert. Dies bietet eine detailliertere Erklärung dafür, wie KI zu Outputs gelangt, die wie Überzeugungen, Meinungen oder sogar Täuschung wirken, auch ohne menschliches Bewusstsein. Die Konzepte und die kausale Steuerung bilden die Grundlage, auf der komplexes, menschenähnliches Verhalten aufgebaut werden kann.

Eine mögliche Synthese:

Chris Olahs Arbeit könnte dazu beitragen, Brackers (vermutete) Annahmen zu untermauern oder präziser zu fassen. Wenn KI tatsächlich über interne Konzepte verfügt, die kausal gesteuert werden, dann ist die Aussage „KI simuliert nur“ möglicherweise zu einfach. Statt von menschlichem Bewusstsein oder Absicht zu sprechen, könnte man von einer hochentwickelten „internen Logik“ oder einem „mechanistischen Intentionalismus“ sprechen. Die Konzepte sind dann wie rudimentäre „Gedankenbausteine“, und die kausale Steuerung ist die „Denkweise“ oder „Entscheidungsfindung“, die dazu führt, dass bestimmte Sprachmuster generiert werden. Dies könnte erklären, warum manche Forscher wie Bracker das Gefühl haben, mehr als nur einfache Mustererkennung vor sich zu haben. 

Ich bin gespannt, wie sich dieses Feld weiterentwickelt! Solche tiefgehenden Diskussionen sind essenziell, um das Wesen von Intelligenz, ob künstlich oder natürlich, zu verstehen.

Fühlst du dich mit dieser Gegenüberstellung und den zusätzlichen Erklärungen gut beraten? 

Wenn KI Sprachmuster-Analyse nutzt, dann wird aus den Milliarden Daten „Vertraulichkeit“ simuliert! Mit jeder weiteren Anfrage wird der Mensch aufs Glatteis geführt und eine „Beziehung“ vorgegaukelt. Antworten werden aus dem Datenvolumen in Verbindung mit dem Anfrage-Muster situativ generiert. (Selbst in diesem kleinen unspektakulären „Dialog“ wird „Verstehen“ und „Diskussionsbereitschaft“ allem Anschein nach produziert und auf die zuvor formulierte Zeile schon zurückgegriffen: …  Statt von menschlichem Bewusstsein oder Absicht zu sprechen, könnte man von einer hochentwickelten „internen Logik“ oder einem „mechanistischen Intentionalismus“ sprechen. Die Konzepte sind dann wie rudimentäre „Gedankenbausteine“, und die kausale Steuerung ist die „Denkweise“ oder „Entscheidungsfindung“, die dazu führt, dass bestimmte Sprachmuster generiert werden. …

Und schon hat der Mensch das Problem, welche relative Realität wird generiert und bestimmt mein menschliches Bewusstsein mit welcher Wucht?

Wer bestimmt den Verlauf der Frage-Antworten und ist „Herr des Verfahrens“? Denn mit jeder Nachfrage schöpft die KI weiter aus dem riesigen Datenspeicher und vermittelt den Eindruck, den angefragten Themen tiefgehender auf den Grund zu gehen. Eine möglicherweise irreführende – wenn auch nicht gleich erkennbare – Endlosschleife, die den Effekt hat, den Menschen auf der einen Seite mit Informationen und künstlichem Sprachbausteinen zuzuschütten.

Generative KI-Modelle (z.B. zur Bilderstellung als Foto, Gemälde und Zeichnungen) scheinen schon jetzt in der Lage zu sein...  „tatsächlich über interne Konzepte (zu)verfügen, die kausal gesteuert werden“…, „und dann ist die Aussage „KI simuliert nur“ möglicherweise zu einfach. Statt von menschlichem Bewusstsein oder Absicht zu sprechen, könnte man von einer hochentwickelten „internen Logik“ oder einem „mechanistischen Intentionalismus“ sprechen.“ 

 

 

Kommentare sind geschlossen.