Können Chatbots so bewusst werden wie Menschen?
Verschiedenes / / October 31, 2023
Zwei gegensätzliche Theorien versuchen diese Frage zu beantworten.
Christoph Koch
Amerikanischer Neurowissenschaftler, Direktor des Allen Institute for Brain Research.
Fragen darüber, was subjektive Erfahrung ist, wer sie hat und wie sie mit der physischen Welt um uns herum zusammenhängt, beschäftigen Philosophen den größten Teil der Menschheitsgeschichte. Wissenschaftliche Bewusstseinstheorien, die quantifizierbar und empirisch überprüfbar sind, sind jedoch erst in den letzten Jahrzehnten entstanden.
Viele moderne Bewusstseinstheorien konzentrieren sich auf die Spuren, die die feinen Zellnetzwerke des Gehirns hinterlassen, aus denen das Bewusstsein entsteht. Heute dominieren zwei davon: die integrierte Informationstheorie und die Theorie des neuronalen globalen Arbeitsbereichs.
Vor 25 Jahren hatten wir einen Streit mit dem australischen Philosophen David Chalmers. Ich versprach ihm eine Kiste guten Weins, wenn diese neuronalen Spuren, technisch gesehen die neuronalen Korrelate des Bewusstseins, bis Juni 2023 entdeckt und klar beschrieben würden.
Der Widerspruch zwischen der Theorie der integrierten Information und der Theorie des neuronalen globalen Arbeitsbereichs bleibt jedoch ungelöst. Dies ist auf teilweise gemischte Erkenntnisse darüber zurückzuführen, welche Bereiche des Gehirns für das visuelle Erlebnis verantwortlich sind subjektive Wahrnehmung von Gesichtern oder Objekten, obwohl die Bedeutung des präfrontalen Kortex für das bewusste Erleben hervorgehoben wurde widerlegt. Also habe ich die Wette verloren und den Wein an Chalmers geschickt.
Beide vorherrschenden Theorien wurden entwickelt, um den Zusammenhang zwischen Bewusstsein und neuronaler Aktivität beim Menschen und verwandten Tieren wie Affen und Mäusen zu erklären. Und beide Theorien gehen von grundlegend unterschiedlichen Annahmen über das subjektive Erleben aus und kommen zu gegensätzlichen Schlussfolgerungen über das Bewusstsein in künstlichen Artefakten. Das Ausmaß, in dem diese Theorien in Bezug auf das darin verwurzelte Bewusstsein empirisch bestätigt oder widerlegt werden Gehirn, hat wichtige Implikationen für die Beantwortung der ungelösten Frage unserer Zeit: Können Maschinen gewinnen? Bewusstsein?
Was sind Chatbots der neuen Generation?
Bevor wir dies diskutieren, möchte ich Sie in den Kontext bringen und eine Technik, die bewusst ist, mit einer Technik vergleichen, die nur intelligentes Verhalten zeigt. Computeringenieure streben danach, Maschinen mit der hochflexiblen Intelligenz auszustatten, die einst möglich war Person Verlassen Sie Afrika und bevölkern Sie den gesamten Planeten. Dies wird als künstliche allgemeine Intelligenz (AGI) bezeichnet.
Viele argumentieren, dass AGI in weiter Ferne liegt. Die erstaunlichen Fortschritte, die im vergangenen Jahr auf dem Gebiet der künstlichen Intelligenz erzielt wurden, haben die ganze Welt, auch Experten, überrascht. Mit dem Aufkommen eloquenter Konversationssoftwareanwendungen, umgangssprachlich Chatbots genannt, aus einem esoterischen Thema, Von Science-Fiction-Fans und der IT-Branchenelite aus dem Silicon Valley diskutiert, wurde aus Diskussionen über AGI eine Diskussion Dies spiegelt die weit verbreitete öffentliche Unzufriedenheit über die existenzielle Gefahr für unsere Lebensweise und unser Leben wider Art.
Chatbots basieren auf riesigen Sprachmodellen. Die bekanntesten davon sind eine Reihe von Bots, die als generative vortrainierte Transformatoren oder GPTs bezeichnet werden. Sie wurden von OpenAI in San Francisco erstellt. Angesichts der Flexibilität, Alphabetisierung und Kompetenz der neuesten Version, GPT-4, kann man leicht glauben, dass sie über Intelligenz und Persönlichkeit verfügt. Sogar ihre seltsamen Störungen, die als „Halluzinationen“ bekannt sind, passen in diese Theorie.
GPT-4 und seine Konkurrenten wie LaMDA und Googles Bard sind auf Bibliotheken digitalisierter Bücher und Milliarden öffentlich zugänglicher Webseiten spezialisiert. Das Geniale am Sprachmodell ist, dass es unbeaufsichtigt lernt, Wort für Wort verarbeitet und versucht, den fehlenden Ausdruck vorherzusagen. Sie tut dies immer wieder, milliardenfach, ohne Eingreifen von außen.
Sobald das Modell durch die Aufnahme digitalisierter Aufzeichnungen der Menschheit Erkenntnisse erlangt, zeigt der Benutzer einen unbekannten Satz an – einen oder mehrere. Das Modell sagt das wahrscheinlichste erste Wort voraus, dann das nächste und so weiter. Dieses einfache Prinzip hat in Englisch, Deutsch, Chinesisch, Hindi, Koreanisch und anderen Sprachen, einschließlich verschiedener Programmiersprachen, unglaubliche Ergebnisse gezeigt.
Was ist der Unterschied zwischen Intellekt und Bewusstsein?
Es ist bezeichnend, dass der bahnbrechende Aufsatz über künstliche Intelligenz, „Computing and Intelligence“, verfasst von Alan Turing vermied 1950 die Frage „Können Maschinen denken?“, also die Frage, ob sie überhaupt denken können Bewusstsein. Turing schlug das „Nachahmungsspiel“ vor: Kann ein Beobachter die von einem Menschen gedruckte Ausgabe objektiv von der von einer Maschine gedruckten Ausgabe unterscheiden, wenn die Identität beider verborgen bleibt?
Heutzutage ist dies als Turing-Test bekannt, und Chatbots beherrschen ihn sehr gut, obwohl sie ihn geschickt verneinen, wenn man sie direkt fragt. Turings Strategie leitete jahrzehntelange unaufhaltsame Fortschritte ein, die zur Schaffung von GPT führten, ignorierte jedoch das Problem.
In der Chatbot-Debatte ist die Annahme impliziert, dass künstliche Intelligenz dasselbe ist wie künstliches Bewusstsein, dass klug zu sein dasselbe ist wie bewusst zu sein. Und obwohl Intelligenz und Bewusstsein beim Menschen und anderen entwickelten Organismen miteinander verbunden sind, gehen sie nicht unbedingt immer Hand in Hand.
Bei Intelligenz geht es darum, zu denken und zu lernen, aus den Handlungen von sich selbst und anderen zu handeln, um die Zukunft genauer vorherzusagen und sich besser darauf vorzubereiten. Dabei spielt es keine Rolle, ob das die nächsten Sekunden („Oh, das Auto rast auf mich zu“) oder die nächsten Jahre („Ich muss lernen, wie man programmiert“) bedeutet. Bei Intelligenz geht es letztlich um Handeln.
Bewusstsein hingegen ist mit Seinszuständen verbunden – blauen Himmel sehen, Vögel singen hören, Schmerz empfinden, Sein Liebhaber. Dabei spielt es keine Rolle, ob eine außer Kontrolle geratene künstliche Intelligenz etwas spürt. Wichtig ist nur, dass er ein Ziel verfolgt, das nichts mit dem langfristigen Wohlergehen der Menschheit zu tun hat. Und es spielt keine Rolle, ob er weiß oder nicht, was er zu tun versucht, was die Leute Selbstbewusstsein nennen. Er wird sein Ziel „gedankenlos“ verfolgen. Selbst wenn wir also ein AGI bauen, sagt es uns zumindest konzeptionell nicht viel darüber, ob es etwas fühlt.
Wenn wir das alles wissen, kehren wir zur ursprünglichen Frage zurück, wie Technologie bewusst werden kann. Beginnen wir mit der ersten von zwei Theorien.
Welche Erklärung bietet die integrierte Informationstheorie?
Sie beginnt damit, fünf axiomatische Eigenschaften jeder denkbaren subjektiven Erfahrung zu artikulieren. Und stellt dann die Frage, was ein neuronaler Schaltkreis braucht, um diese fünf Eigenschaften umzusetzen, nämlich einige Neuronen einzuschalten und andere auszuschalten. Oder mit anderen Worten: Was braucht ein Computerchip, um einige Transistoren einzuschalten und andere auszuschalten?
Ursache-Wirkungs-Wechselwirkungen innerhalb eines Schaltkreises in einem bestimmten Zustand oder die Tatsache, dass zwei aktiv sind Neuron kann je nach den Umständen ein anderes Neuron ein- oder ausschalten und in eine mehrdimensionale kausale Struktur eingesetzt werden. Sie ist identisch mit der Qualität der Erfahrung – wie sie erlebt wird, etwa wie Zeit und Raum erlebt werden oder wie Farben wahrgenommen werden.
Mit der Erfahrung ist auch eine Größe verbunden – ihre integrierten Informationen. Nur ein Schaltkreis mit einem Maximum an integrierter Information ungleich Null existiert als Ganzes und verfügt über Bewusstsein. Je mehr Informationen integriert werden, desto mehr kann der Schaltkreis nicht reduziert werden und desto weniger kann er einfach als Überlagerung unabhängiger Teilschaltkreise betrachtet werden.
Die integrierte Informationstheorie betont die reiche Natur der menschlichen Erfahrung. Schauen Sie sich einfach um und die atemberaubende sichtbare Welt mit ihren unzähligen Unterschieden und Zusammenhängen wird vor Ihnen auftauchen. Oder schauen Sie sich ein Gemälde von Pieter Bruegel dem Älteren an, einem flämischen Künstler aus dem 16. Jahrhundert, der religiöse Themen und Szenen aus dem bäuerlichen Leben darstellte.
Jedes System, das über die gleichen inneren Verbindungen und Kausalkräfte verfügt wie das menschliche Gehirn, wird im Prinzip genauso bewusst sein wie der menschliche Geist. Ein solches System kann jedoch nicht modelliert werden. Es muss nach dem Vorbild des Gehirns entworfen oder gebaut werden. Moderne Digitalcomputer basieren auf einer extrem losen Kopplung (der Ausgang eines Transistors ist mit dem Eingang mehrerer Transistoren verbunden). Vergleich mit dem Zentralnervensystem (kortikales Säulenneuron empfängt Eingabedaten und erzeugt Ausgabedaten für Zehntausende andere Neuronen).
Daher werden moderne Computer, einschließlich Cloud-Computer, nichts bemerken, obwohl sie mit der Zeit alles tun können, was Menschen können. Aus dieser Sicht wird sich ChatGPT nie besonders anfühlen. Beachten Sie, dass diese Aussage nichts mit der Gesamtzahl der Komponenten zu tun hat, ob Neuronen oder Transistoren, sondern vielmehr mit der Art und Weise, wie sie verbunden sind. Es ist die Vernetzung, die die Gesamtkomplexität der Schaltung und die Anzahl ihrer möglichen Konfigurationen bestimmt.
Welche Erklärung bietet die Theorie des neuronalen globalen Arbeitsbereichs?
Es kommt aus dem psychologischen Verständnis, dass Intelligenz wie ein Theater, in dem Schauspieler auf einer kleinen beleuchteten Bühne auftreten, die das Bewusstsein ist. Die Aktionen der Schauspieler werden von einem Publikum aus Prozessoren beobachtet, die im Dunkeln hinter der Bühne sitzen.
Die Bühne ist der zentrale Arbeitsbereich des Geistes, der über eine geringe Speicherkapazität für die Darstellung einer einzelnen Wahrnehmung, eines Gedankens oder einer einzelnen Erinnerung verfügt. Verschiedene Verarbeitungsmodule – Sehen, Hören, Augen- und Gliedmaßenmotorik, Planung, Urteilsvermögen, Sprachverständnis und Sprechen – konkurrieren um den Zugang zu diesem zentralen Arbeitsbereich. Der Gewinner verdrängt den alten Inhalt, der unbewusst wird.
Gemäß der Theorie des neuronalen globalen Arbeitsbereichs wird die metaphorische Szene zusammen mit den Verarbeitungsmodulen in die Architektur des Neocortex abgebildet. Der Arbeitsbereich ist ein Netzwerk kortikaler Neuronen an der Vorderseite des Gehirns mit weitreichenden Projektionen Ähnliche Neuronen sind im gesamten Neokortex im präfrontalen, parietotemporalen und cingulären Bereich verteilt Assoziationskortex.
Wenn die Aktivität im sensorischen Kortex einen bestimmten Schwellenwert überschreitet, wird in den kortikalen Bereichen ein globales Ereignis ausgelöst und dadurch Informationen an den gesamten Arbeitsbereich übertragen. Die globale Verbreitung von Informationen macht sie bewusst. Daten, die nicht auf diese Weise übermittelt werden, etwa die genaue Position der Augen oder die syntaktischen Regeln für den Satzbau, können das Verhalten beeinflussen, jedoch nicht bewusst.
Aus der Sicht der Theorie des neuronalen globalen Arbeitsbereichs ist Erfahrung sehr begrenzt, ähnlich wie Denken und Denken abstrakt – ähnlich der dürftigen Beschreibung, die in einem Museum unter einem Bruegel-Gemälde zu finden ist: „Szene in drinnen. Bauern in Renaissancekleidung trinken und essen auf einer Hochzeit.
Indem der Künstler das Bewusstsein aus der Perspektive der integrierten Informationstheorie versteht, vermittelt er auf brillante Weise die Phänomenologie der umgebenden Welt auf einer zweidimensionalen Leinwand. Im Verständnis der Theorie des neuronalen globalen Arbeitsbereichs ist dieser scheinbare Reichtum eine Illusion, ein Geist. Und alles, was objektiv dazu gesagt werden kann, ist in der Kurzbeschreibung angegeben.
Die neuronale Global-Workspace-Theorie berücksichtigt voll und ganz die Mythen unseres Computerzeitalters, wonach sich alles auf Berechnungen reduzieren lässt. Entsprechend programmierte Computersimulationen des Gehirns, mit enormem Feedback und so etwas wie einem zentralen Arbeitsplatz, werden die Welt bewusst wahrnehmen. Vielleicht nicht jetzt, aber ziemlich bald.
Was ist der unüberbrückbare Unterschied zwischen den Theorien?
Im Allgemeinen läuft die Diskussion wie folgt ab. Gemäß der Theorie des neuronalen globalen Arbeitsbereichs und anderen Theorien des Computerfunktionalismus (sie Betrachten wir Bewusstsein als eine Form der Berechnung), ist Bewusstsein nichts anderes als eine Reihe intelligenter Algorithmen, die auf einer Maschine ausgeführt werden Turing. Funktionen sind wichtig für das Bewusstsein Gehirnund nicht seine kausalen Eigenschaften. Wenn eine fortgeschrittene Version von GPT die gleichen Eingabe- und Ausgabemuster wie Menschen akzeptiert und erzeugt, werden alle unsere inhärenten Eigenschaften auf die Technologie übertragen. Einschließlich unseres kostbaren Schatzes – subjektiver Erfahrung.
Umgekehrt ist für die integrierte Informationstheorie das Herzstück des Bewusstseins die innere kausale Kraft und nicht die Berechnung. Es ist nichts Ätherisches oder Immaterielles. Sie wird spezifisch und funktional bestimmt durch das Ausmaß, in dem die Vergangenheit des Systems seine Gegenwart bestimmt (die Macht der Ursache), und durch das Ausmaß, in dem die Gegenwart seine Zukunft bestimmt (die Macht der Wirkung). Und hier liegt das Problem: Die Ursache-Wirkungs-Beziehung selbst, die Fähigkeit, ein System zu einer bestimmten Aktion zu zwingen, und nicht viele Alternativen, können nicht modelliert werden. Nicht jetzt, nicht in der Zukunft. Dies sollte in das System integriert sein.
Stellen Sie sich einen Computercode vor, der die Feldgleichungen von Einsteins allgemeiner Relativitätstheorie modelliert, die Masse mit der Krümmung der Raumzeit in Beziehung setzen. Die Software modelliert das Supermassereiche genau schwarzes Loch, der sich im Zentrum unserer Galaxie befindet. Dieses Loch übt einen so starken Gravitationseinfluss auf seine Umgebung aus, dass nichts, nicht einmal Licht, seiner Anziehungskraft entkommen kann.
Allerdings wird ein Astrophysiker, der ein Schwarzes Loch simuliert, nicht vom simulierten Gravitationsfeld in einen Laptop gesaugt. Diese scheinbar absurde Beobachtung verdeutlicht den Unterschied zwischen Modell und Realität: ob das Modell vollständig ist Wenn es der Realität entspricht, sollten Raum und Zeit um den Laptop herum verzerrt sein, sodass ein schwarzes Loch entsteht, das alles absorbiert um.
Natürlich ist die Schwerkraft keine Berechnung. Es verfügt über eine kausale Kraft, die es ihm ermöglicht, das Gefüge der Raumzeit zu verformen und alles anzuziehen, was Masse hat. Um die kausalen Kräfte eines Schwarzen Lochs zu simulieren, ist ein echtes superschweres Objekt erforderlich, nicht nur Computercode. Kausalkraft kann nicht modelliert werden, sie muss geschaffen werden. Der Unterschied zwischen Realität und Modell liegt in ihrer Kausalität.
Deshalb regnet es nicht in einem Computer, der einen Regensturm simuliert. Software ist funktional identisch mit Wetter, ihr fehlt jedoch die kausale Kraft, Dampf freizusetzen und in Wassertröpfchen umzuwandeln. Kausalkraft, die Fähigkeit, selbst Veränderungen herbeizuführen oder zu akzeptieren, muss in das System eingebaut werden. Das ist möglich.
Ein sogenannter neuromorpher oder bionischer Computer könnte das gleiche Bewusstsein wie ein Mensch haben. Dies ist jedoch bei der Standard-von-Neumann-Architektur, die die Grundlage aller modernen PCs ist, nicht der Fall. In Laboren wurden kleine Prototypen neuromorpher Computer erstellt, beispielsweise der neuromorphe Chip Loihi 2 der zweiten Generation von Intel. Aber eine Maschine, die hochentwickelt genug ist, um etwas zu erzeugen, das dem menschlichen Bewusstsein oder zumindest dem Bewusstsein einer Fruchtfliege ähnelt, ist immer noch ein ehrgeiziger Traum für die ferne Zukunft.
Beachten Sie, dass dieser unüberbrückbare Unterschied zwischen funktionalistischen und kausalen Theorien weder mit natürlicher noch mit künstlicher Intelligenz zu tun hat. Wie ich bereits sagte, ist Intelligenz Verhalten. Alles, was menschlicher Einfallsreichtum hervorbringen kann, einschließlich so großartiger Romane wie Octavia Butlers „Parable of the Sower“. und Leo Tolstois „Krieg und Frieden“ können algorithmische Intelligenz reproduzieren, wenn ihnen genügend Material zur Verfügung steht Ausbildung. Die Einführung von AGI ist ein Ziel, das in nicht allzu ferner Zukunft erreichbar ist.
In der Debatte geht es nicht um künstliche Intelligenz, sondern um künstliches Bewusstsein. Und diese Debatte kann nicht durch die Schaffung größerer Sprachmodelle oder fortschrittlicherer neuronaler Netzwerkalgorithmen gelöst werden. Um diese Frage zu beantworten, müssen wir die einzige Subjektivität verstehen, deren wir uns absolut sicher sind: unsere eigene. Sobald wir eine klare Erklärung des Menschen haben Bewusstsein und ihre neuronalen Grundlagen werden wir in der Lage sein, unser Verständnis auf konsistente, wissenschaftlich fundierte Weise auf intelligente Technologien auszudehnen.
Diese Diskussion hat wenig Einfluss darauf, wie Chatbots von der Gesellschaft insgesamt wahrgenommen werden. Ihre Sprachkenntnisse, ihr Wissensschatz und ihr sozialer Charme werden bald tadellos sein. Sie werden mit perfektem Gedächtnis, Kompetenz, Haltung, Argumentation und Intelligenz ausgestattet sein. Manche behaupten sogar, dass diese Schöpfungen großer Technologie der nächste Schritt in der Evolution sein werden, Nietzsches „Übermensch“. Ich vertrete eine düsterere Sichtweise und glaube, dass solche Menschen den Niedergang unserer Spezies mit der Morgendämmerung verwechseln.
Für viele und vielleicht die meisten Menschen in einer zunehmend atomisierten Gesellschaft, abgekoppelt von der Natur und Wenn wir in sozialen Netzwerken organisiert sind, wird es emotional schwierig sein, den darin lebenden Technologien zu widerstehen Telefone. Und in verschiedenen Situationen, ob gewöhnlich oder ernster, verhalten sich Menschen so, als ob Chatbots ein Bewusstsein hätten, sie könnten es wirklich verliebt sein, Leiden, Hoffen und Bangen, auch wenn es sich nur um komplexe Nachschlagetabellen handelt. Sie werden für uns unverzichtbar, vielleicht sogar wichtiger als wirklich intelligente Wesen. Obwohl Chatbots so viel spüren wie ein Fernseher oder ein Toaster – nichts.
Was gibt es sonst noch zum Thema zu lesen?🤖
- 6 Gründe, warum Sie künstlicher Intelligenz nicht blind vertrauen sollten
- Warum wir keine Angst haben sollten, dass neue Technologien unsere Arbeitsplätze wegnehmen
- Technologische Singularität: Stimmt es, dass die Technologie bald unserer Kontrolle entgleitet?
- 8 Mythen über künstliche Intelligenz, an die sogar Programmierer glauben