10 beschämende Fragen zu neuronalen Netzen: Antworten des Spezialisten für maschinelles Lernen Igor Kotenkov
Verschiedenes / / August 08, 2023
Wir haben alles zusammengetragen, was Sie wissen wollten, sich aber zu scheuen zu fragen.
Im Neuen Serie Artikel bekannter Experten beantworten Fragen, deren Stellen normalerweise peinlich sind: Es scheint, als wüsste jeder bereits davon, und der Fragesteller wird dumm aussehen.
Dieses Mal haben wir mit dem Spezialisten für künstliche Intelligenz Igor Kotenkov gesprochen. Sie erfahren, ob Sie Ihre digitale Kopie für Ihre Urenkel aufbewahren können, warum man Neuronen nicht hundertprozentig vertrauen kann und ob der Welt ein Maschinenaufstand droht.
Igor Kotenkow
1. Wie funktionieren neuronale Netze? Es ist eine Art Magie. Wie konnte ChatGPT überhaupt erstellt werden? Und Midjourney oder DALL-E?
Ein neuronales Netzwerk ist ein mathematisches Modell, das mit dem Ziel entwickelt wurde, zu verstehen, wie das Gehirn eines lebenden Organismus funktioniert. Dabei wurden zwar die grundlegendsten Ideen des Beginns der zweiten Hälfte des 20. Jahrhunderts zugrunde gelegt, die heute als irrelevant oder zu vereinfacht bezeichnet werden können.
Sogar der Name „neuronales Netzwerk“ kommt vom Wort „Neuron“ – dies ist der Name einer der Hauptfunktionseinheiten des Gehirns. Neuronale Netze selbst bestehen aus Knoten – künstlichen Neuronen. Wir können also sagen, dass viele Ideen moderner Architektur aus der Natur selbst „geguckt“ wurden.
Aber was noch wichtiger ist: Das neuronale Netzwerk ist ein mathematisches Modell. Und da es sich hier um etwas mit der Mathematik zu tun hat, können wir die ganze Leistungsfähigkeit des mathematischen Apparats nutzen, um die Eigenschaften eines solchen Modells herauszufinden oder zu bewerten. Sie können ein neuronales Netzwerk als Funktion betrachten, und eine Funktion ist auch ein mathematisches Objekt. Das einfachste und verständlichste Beispiel: eine Funktion, die beispielsweise eine beliebige Zahl als Eingabe nimmt und 2 dazu addiert: f (4) = 6, f (10) = 12.
Aber eine solche Funktion ist sehr einfach zu programmieren, selbst ein Kind kann damit umgehen, nachdem es ein paar Stunden Sprachen gelernt hat. Programmierung. Und der Grund dafür ist, dass eine solche Funktion sehr leicht formalisiert und detailliert in einer einfachen und verständlichen Sprache beschrieben werden kann.
Allerdings gibt es einige Aufgaben, bei denen wir nicht einmal wissen, wie wir sie angehen sollen. Ich kann Ihnen zum Beispiel Fotos von verwechselten Katzen und Hunden liefern und Sie können diese problemlos in zwei Stapel sortieren. Aber wovon genau lassen Sie sich bei der Ermittlung der Antwort leiten? Beide sind flauschig. Beide Arten haben einen Schwanz, Ohren und zwei Augen. Vielleicht die Größe? Aber es gibt ganz kleine Hunde, es gibt große Katzen.
Wir können viele Aufgaben der realen Welt nicht beschreiben, wir kennen die Abhängigkeit unserer Beobachtung und einer bedingten „richtigen“ Antwort nicht.
Wir wissen einfach, wie wir diese Antwort geben sollen – und das ist alles, ohne darüber nachzudenken, wie es ausgeht.
Hier kommen neuronale Netze zum Einsatz. Diese mathematischen Funktionen werden aus den Daten trainiert. Sie müssen die Beziehung zwischen Eingabe und Ausgabe nicht beschreiben. Sie bereiten einfach zwei Stapel Fotos und die Modelleisenbahnen vor, um die richtigen Antworten zu geben. Sie selbst lernt, diese Verbindung zu finden, sie findet sie selbst, indem sie sich darauf verlässt FehlerWer macht. Eine Bengalkatze und ein Rottweiler verwechselt? Na ja, beim nächsten Mal wird es besser!
Der Lernprozess eines neuronalen Netzwerks ist eine solche Anpassung von „Neuronen“, um zu lernen, wie man ein Problem löst und die richtige Antwort gibt. Und das Bemerkenswerteste: Es gibt einen theoretischen Beweis dafür, dass ein ausreichend großes neuronales Netzwerk mit einem ausreichend großen Datensatz jede komplexe Funktion lernen kann. Das Wichtigste hierbei ist jedoch die Rechenleistung (da das Neuron sehr groß sein kann) und die Verfügbarkeit gekennzeichneter Daten. Nämlich gekennzeichnet, das heißt, sie haben die Klasse „Hund“, „Katze“ oder was auch immer.
Wir verstehen nicht vollständig, wie Modelle funktionieren – die komplexesten und größten Modelle ChatGPT nahezu unanalysierbar.
Die besten Forscher arbeiten derzeit an der Herausforderung, das Innenleben ihrer Prozesse zu „verstehen“.
Aber wir wissen, für welche Aufgabe die Modelle trainiert wurden und welche Fehler sie während des Trainings zu minimieren versuchten. Für ChatGPT besteht die Aufgabe aus zwei. Die erste ist die Vorhersage des nächsten Wortes entsprechend seinem Kontext: „Mama gewaschen ...“ Was? Das sollte das Modell vorhersagen.
Die zweite Aufgabe besteht darin, sicherzustellen, dass die Antworten nicht anstößig sind, aber gleichzeitig nützlich und verständlich bleiben. Deshalb ging das Modell viral – es wird direkt darauf trainiert, die Art von Text zu generieren, die den Leuten gefällt!
Weitere Informationen zur Funktionsweise von ChatGPT finden Sie in meinem Artikel.
2. Können Neuronen denken?
Wissenschaftler verstehen immer noch nicht, was es bedeutet, zu „denken“ oder zu „vernunft“ und wie der Intellekt im Allgemeinen funktioniert. Daher ist es schwierig zu beurteilen, ob ein Modell wie ChatGPT über solche Eigenschaften verfügt.
Stellen wir uns eine Situation vor: Sie nähern sich der Tür Ihrer Wohnung. Haben Sie die Idee, dass Sie den Schlüssel aus der linken Tasche Ihres Rucksacks holen müssen, um die Tür zu öffnen? Können wir sagen, dass die Beschreibung und Darstellung von Handlungen ein Denkprozess ist? Im Wesentlichen haben wir einen Zusammenhang zwischen dem Ist-Zustand und dem angestrebten Ziel (offene Tür) hergestellt. Wenn Sie der Meinung sind, dass die Antwort auf die obige Frage „Ja“ lautet, dann wäre meine Antwort dieselbe. 🙂
Eine andere Sache ist, wenn es um innovative Gedanken geht, die bisher noch nicht geäußert wurden oder nicht so verbreitet sind. Schließlich kann man zum Beispiel an dem obigen Beispiel leicht etwas auszusetzen haben: „Ja, ich habe dieses Modell 100.500 Mal im Internet und in gelesen.“ Bücher. Natürlich weiß sie es! Nichts Überraschendes.“ Übrigens, woher wussten Sie das? Liegt es daran, dass deine Eltern es dir in der Kindheit gezeigt haben und du den Prozess Hunderte von Tagen hintereinander beobachtet hast?
In diesem Fall gibt es keine genaue Antwort. Und der Punkt hier ist, dass wir eine wichtige Komponente nicht berücksichtigen: die Wahrscheinlichkeit.
Wie wahrscheinlich ist es, dass das Modell einen Gedanken erzeugt, der Ihrer spezifischen Definition von „Gedanke“ entspricht?
Schließlich kann ein Neuron wie ChatGPT dazu gebracht werden, eine Million verschiedene Antworten auf dieselbe Anfrage zu generieren. Zum Beispiel: „Überlegen Sie sich eine Idee für.“ wissenschaftliche Forschung». Wenn eine Generation von einer Million wirklich interessant und neu ist, gilt das dann als Beweis dafür, dass ein Modell eine Idee hervorbringen kann? Aber wie unterscheidet es sich von einem Papagei, der zufällige Wörter „Nein-Nein“ schreit und so etwas Verständliches ergibt?
Andererseits äußern Menschen auch nicht immer die richtigen Gedanken – manche Sätze führen in eine Sackgasse und enden im Nichts. Warum können neuronale Netze das nicht verzeihen? Nun, eine neue Idee von einer Million generierter Ideen ist wirklich schlecht... Aber was wäre, wenn 100 von einer Million? Tausend? Wo ist diese Grenze?
Das wissen wir nicht. Der Trend geht dahin, dass wir zunächst denken, dass es für Maschinen schwierig sein wird, Problem X zu lösen. Um beispielsweise den Turing-Test zu bestehen, müssen Sie lediglich eine halbe Stunde lang mit einer Person chatten. Mit der Entwicklung der Technologie entwickeln die Menschen dann Möglichkeiten, eine Aufgabe zu lösen bzw. Modelle dafür zu trainieren. Und wir sagen: „Na ja, es war eigentlich der falsche Test, hier ist ein neuer für euch, Neuronen werden ihn bestimmt nicht bestehen!“ Und die Situation wiederholt sich.
Die heutigen Technologien, vor 80 Jahren, wären als Wunder empfunden worden. Und jetzt versuchen wir mit aller Kraft, die Grenze der „Vernünftigkeit“ zu überschreiten, um uns nicht einzugestehen, dass Maschinen bereits wissen, wie man denkt. Tatsächlich ist es sogar möglich, dass wir zunächst etwas erfinden und es dann post factum und im Nachhinein als KI definieren.
3. Wenn Neuronen zeichnen und Gedichte schreiben können, können sie dann kreativ und fast wie Menschen sein?
Die Antwort hängt tatsächlich stark von den oben genannten Informationen ab. Was ist Kreativität? Wie viel Kreativität steckt im durchschnittlichen Menschen? Sind Sie sicher, dass ein Hausmeister aus Sibirien weiß, wie man etwas schafft? Und warum?
Was wäre, wenn ein Model ein Gedicht oder ein Gemälde produzieren könnte, das es unter der Bedingung ins Finale eines städtischen Wettbewerbs für Hobbyautoren oder Kinderkünstler schafft? Und wenn das nicht jedes Mal, sondern jedes Mal passiert?
Die meisten dieser Fragen sind umstritten. Wenn Sie den Eindruck haben, dass die Antwort offensichtlich ist, versuchen Sie, Ihre Freunde und Verwandten zu befragen. Mit sehr hoher Wahrscheinlichkeit wird ihr Standpunkt nicht mit Ihrem übereinstimmen. Und hier ist die Hauptsache nicht Streit.
4. Kann man den Antworten neuronaler Netze vertrauen und nicht mehr googeln?
Es hängt alles davon ab, wie die Modelle verwendet werden. Wenn Sie ihnen eine Frage ohne Kontext und ohne begleitende Informationen in der Aufforderung stellen und eine Antwort zu Themen erwarten, bei denen sachliche Genauigkeit wichtig ist, und nicht der allgemeine Ton der Antwort (z. B. eine Abfolge von Ereignissen innerhalb eines bestimmten Zeitraums, aber ohne genaue Angabe von Orten und Daten), dann lautet die Antwort Nein.
Von Inland geschätzt OpenAI, das bisher beste Modell GPT-4, antwortet in solchen Situationen je nach Thema der Fragen in etwa 70-80 % der Fälle richtig.
Es mag den Anschein haben, dass diese Zahlen weit von der idealen 100-prozentigen tatsächlichen „Genauigkeit“ entfernt sind. Tatsächlich ist dies jedoch ein großer Sprung im Vergleich zur vorherigen Modellgeneration (ChatGPT, basierend auf der GPT-3.5-Architektur) – diese hatten eine Genauigkeit von 40–50 %. Es stellt sich heraus, dass ein solcher Sprung im Rahmen einer 6-8-monatigen Forschungsarbeit gemacht wurde.
Es ist klar: Je näher wir 100 % kommen, desto schwieriger wird es, einige Korrekturen vorzunehmen, um das Verständnis und die Kenntnis des Modells nicht zu „zerstören“.
Alle oben genannten Punkte beziehen sich jedoch auf Fragen ohne Kontext. Sie können zum Beispiel fragen: „Wann war? Einstein? Das Modell sollte sich nur auf internes Wissen stützen, das in der Phase des Langzeittrainings mit Daten aus dem gesamten Internet „fest verankert“ wurde. Die Person wird also nicht antworten können! Aber wenn sie mir eine Seite von Wikipedia geben würden, dann könnte ich sie lesen und entsprechend der Informationsquelle antworten. Dann wäre die Richtigkeit der Antworten nahezu 100 % (bereinigt um die Richtigkeit der Quelle).
Wenn dem Modell also ein Kontext zur Verfügung gestellt wird, in dem Informationen enthalten sind, ist die Antwort wesentlich zuverlässiger.
Was aber, wenn wir das Modell googeln lassen und im Internet nach Informationsquellen suchen? Damit sie selbst die Quelle findet und darauf basierend eine Antwort erstellt? Nun, das ist bereits geschehen! Sie können also nicht selbst googeln, sondern einen Teil der Internetsuche an GPT‑4 selbst delegieren. Hierzu ist jedoch ein kostenpflichtiges Abonnement erforderlich.
Zu weiteren Fortschritten bei der Entwicklung der Zuverlässigkeit sachlicher Informationen innerhalb des Modells sagte OpenAI-CEO Sam Altman gibt Ein Forscherteam schätzt, dass die Lösung dieses Problems 1,5 bis 2 Jahre dauern wird. Wir werden uns sehr darauf freuen! Denken Sie jedoch vorerst daran, dass Sie dem, was ein Neuron schreibt, nicht zu 100 % vertrauen müssen, und überprüfen Sie zumindest die Quellen noch einmal.
5. Stimmt es, dass neuronale Netze Zeichnungen echter Künstler stehlen?
Ja und nein – beide Konfliktparteien streiten darüber aktiv vor Gerichten auf der ganzen Welt. Man kann mit Sicherheit sagen, dass die Bilder nicht direkt in den Modellen gespeichert werden, sondern lediglich „Wachsamkeit“ auftritt.
In diesem Plan Neuronen Sehr ähnlich zu Menschen, die sich zunächst mit Kunst und verschiedenen Stilen befassen, sich die Werke der Autoren ansehen und dann versuchen, sie nachzuahmen.
Allerdings lernen Modelle, wie wir bereits herausgefunden haben, nach dem Prinzip der Fehlerminimierung. Und wenn das Modell während des Trainings hunderte Male das gleiche (oder ein sehr ähnliches) Bild sieht, dann ist es aus ihrer Sicht die beste Strategie, sich das Bild zu merken.
Nehmen wir ein Beispiel: Ihr Lehrer an der Kunsthochschule hat eine sehr seltsame Strategie gewählt. Du zeichnest jeden Tag zwei Bilder: Das erste ist immer einzigartig, in einem neuen Stil, und das zweite ist die Mona Lisa. Nach einem Jahr versuchen Sie, das Gelernte zu bewerten. Da Sie die Mona Lisa über 300 Mal gezeichnet haben, erinnern Sie sich an fast alle Details und können sie jetzt reproduzieren. Es wird nicht das exakte Original sein, und Sie werden sicherlich etwas Eigenes hinzufügen. Farben wird etwas anders sein.
Und jetzt werden Sie gebeten, etwas zu zeichnen, das 100 Tage her ist (und das Sie einmal gesehen haben). Sie werden das Geforderte viel ungenauer wiedergeben. Nur weil die Hand nicht vollgestopft ist.
Mit Neuronen ist es genauso: Sie lernen in allen Bildern auf die gleiche Weise, nur dass einige häufiger vorkommen, was bedeutet, dass das Modell beim Training auch häufiger bestraft wird. Dies gilt nicht nur für Gemälde von Künstlern – für jedes Bild (auch Werbung) im Trainingsbeispiel. Es gibt zwar Methoden zur Eliminierung von Duplikaten (da deren Training zumindest ineffizient ist), aber sie sind nicht perfekt. Untersuchungen zeigen, dass es Bilder gibt, die während eines Trainings 400–500 Mal auftreten.
Mein Fazit: Neuronale Netze stehlen keine Bilder, sondern betrachten Zeichnungen lediglich als Beispiele. Je beliebter das Beispiel, desto genauer reproduziert das Modell es.
Dasselbe machen die Menschen während des Trainings: Sie betrachten die Schönheit, studieren die Details, die Stile der verschiedenen Künstler. Doch für Künstler oder Fotografen, die ihr halbes Leben damit verbracht haben, ein Handwerk zu erlernen, ist die Sichtweise oft eine radikal andere als die oben beschriebene.
6. Stimmt es, dass „alles verloren geht“ und neuronale Netze den Menschen die Arbeit wegnehmen? Wen interessiert das am meisten?
Es ist wichtig, nur „neuronale Netze“, die bestimmte Aufgaben ausführen, von allgemeinen neuronalen Netzen wie ChatGPT zu trennen. Letztere sind sehr gut darin, Anweisungen zu befolgen und aus Beispielen im Kontext zu lernen. Zwar ist die Größe ihres „Gedächtnisses“ mittlerweile auf 10-50 Textseiten begrenzt, ebenso wie die Fähigkeiten zur Reflexion und Planung.
Aber wenn jemandes Arbeit auf die routinemäßige Ausführung von Anweisungen hinausläuft und dies in ein paar Tagen durch das Lesen von Artikeln leicht zu erlernen ist (oder wenn das gesamte Internet ist mit diesen Informationen gefüllt) und die Arbeitskosten sind überdurchschnittlich hoch – dann bald solche Arbeit automatisieren.
Automatisierung allein bedeutet jedoch nicht, dass Menschen vollständig ersetzt werden. Nur ein Teil der Routinearbeiten kann optimiert werden.
Eine Person wird mit immer interessanteren und kreativeren Aufgaben konfrontiert, die die Maschine (bisher) nicht bewältigen kann.
Wenn wir Beispiele nennen, dann zur Gruppe der Veränderbaren oder Ersetzbaren Berufe Ich würde zum Beispiel Steuerassistenten-Berater einbeziehen, die bei der Erstellung einer Erklärung helfen und auf typische Fehler prüfen und Unstimmigkeiten identifizieren. In einem Fachgebiet wie dem Datenmanager für klinische Studien sind Änderungen möglich. Der Kern der Arbeit besteht darin, Berichte auszufüllen und sie mit einer Standardtabelle abzugleichen.
Aber ein Koch oder ein Busfahrer werden viel länger gefragt sein, allein weil sie neuronale Netze und ein reales Netz verbinden können Die physische Welt ist ziemlich kompliziert, insbesondere was Gesetze und Vorschriften angeht – dank der Bürokraten, die weggezogen sind Krisen-KI!
Große Veränderungen werden in den Branchen erwartet, die mit gedruckten Materialien und Textinformationen verbunden sind: Journalismus, Ausbildung. Mit sehr hoher Wahrscheinlichkeit werden Neuronen sehr bald Entwürfe mit einer Reihe von Thesen verfassen, in denen Menschen bereits punktuelle Änderungen vornehmen werden.
Am meisten freue ich mich über die Veränderungen im Bildungsbereich. Essen Forschung, die zeigen, dass die Qualität der Ausbildung direkt von der „Persönlichkeit“ des Ansatzes und davon abhängt, wie viel Zeit der Lehrer einem bestimmten Schüler widmet. Das einfachste Beispiel: Der Unterricht in Gruppen von 30 Personen anhand eines Lehrbuchs ist viel schlechter als der Einzelunterricht Tutor für spezifische Bedürfnisse (allerdings nach dem gleichen Programm wie im Lehrbuch). Mit der Entwicklung der KI wird die Menschheit die Möglichkeit haben, jedem Schüler einen personalisierten Assistenten zur Verfügung zu stellen. Es ist einfach unglaublich! Die Rolle des Lehrers wird sich meines Erachtens zu einer strategischen und kontrollierenden Rolle verlagern: Er legt das allgemeine Programm und den Ablauf des Studiums fest, prüft Wissen und so weiter.
7. Ist es möglich, Ihr Bewusstsein in einen Computer hochzuladen, einen digitalen Zwilling zu erstellen und für immer zu leben?
In dem Sinne, wie es auf der Grundlage von Science-Fiction vorgestellt wird, nein. Sie können dem Model nur beibringen, Ihren Kommunikationsstil nachzuahmen und Ihre Witze zu lernen. Vielleicht sind Modelle auf GPT-4-Niveau sogar in der Lage, neue Modelle zu erfinden, die in Ihrem einzigartigen Stil und Ihrer Präsentationsweise eingerahmt sind, aber das bedeutet eindeutig keine vollständige Bewusstseinsübertragung.
Wir als Menschheit wissen wiederum nicht, was Bewusstsein ist, wo es gespeichert ist, wie es sich von anderen unterscheidet, was mich – mich – und dich – dich – ausmacht. Wenn sich plötzlich herausstellt, dass dies alles nur eine Ansammlung von Erinnerungen und Erlebnissen ist, multipliziert mit individuellen Merkmalen Wahrnehmung, dann wird es höchstwahrscheinlich möglich sein, Wissen irgendwie auf neuronale Netze zu übertragen, damit sie das zukünftige Leben simulieren ihre Grundlage.
8. Ist es gefährlich, Ihre Stimme, Ihr Aussehen und Ihren Textstil in ein neuronales Netzwerk hochzuladen? Es scheint, dass eine solche digitale Identität gestohlen werden kann.
Sie können nichts buchstäblich in sie herunterladen. Sie können sie so trainieren (oder umschulen), dass die Ergebnisse eher Ihrem Aussehen, Ihrer Stimme oder Ihrem Text ähneln. Und ein so trainiertes Modell kann tatsächlich gestohlen werden, indem einfach das Skript und eine Reihe von Parametern kopiert werden, um sie auf einem anderen Computer auszuführen.
Sie können sogar ein Video mit einer Anfrage erstellen Geld überweisen auf Kosten eines anderen, woran Ihr Verwandter glauben wird: Die besten Deepfake- und Voice-Cloning-Algorithmen haben dieses Niveau bereits erreicht. Es sind zwar Tausende von Dollar und Dutzende Stunden Aufnahme erforderlich, aber trotzdem.
Generell wird mit der Entwicklung der Technologie die Frage der Identifizierung und Bestätigung der Identität immer wichtiger.
Und sie versuchen, es auf die eine oder andere Weise zu lösen. Es gibt zum Beispiel das Startup WorldCoin (eigentlich stellt es eine Kryptowährung her), in das der Chef von OpenAI, Sam Altman, investiert hat. Der Sinn des Startups besteht darin, dass jede Information über eine Person zur späteren Identifizierung mit einem eigenen Schlüssel signiert wird. Das Gleiche wird für die Massenmedien gelten, um sicher zu wissen, ob diese Nachrichten wahr oder falsch sind.
Aber leider befindet sich das alles noch im Prototypenstadium. Und ich glaube nicht, dass die tiefgreifende Einführung von Systemen in allen Branchen im nächsten Jahrzehnt umgesetzt werden kann, einfach weil sie zu kompliziert und zu umfangreich ist.
9. Können Neuronen anfangen, der Welt Schaden zuzufügen und sie zu erobern?
Die Gefahr besteht nicht in den aktuellen Entwicklungen, sondern darin, was in der weiteren Entwicklung folgen wird. Derzeit wurden keine Methoden erfunden, um den Betrieb neuronaler Netze zu steuern. Nehmen Sie zum Beispiel eine ganz einfache Aufgabe: Stellen Sie sicher, dass das Model nicht flucht. Niemals. Es gibt keine Methode, mit der Sie eine solche Regel befolgen können. Bisher gibt es verschiedene Möglichkeiten, es trotzdem zu „züchten“.
Stellen Sie sich nun vor, wir sprechen bedingt über GPT-8, dessen Fähigkeiten mit den Fähigkeiten der fähigsten und klügsten Leute vergleichbar sind. Das neuronale Netzwerk kann programmieren, das Internet nutzen, weiß Psychologie und versteht, wie Menschen denken. Wenn Sie ihm freien Lauf lassen und keine bestimmte Aufgabe stellen, was wird es dann tun? Was ist, wenn sie herausfindet, dass sie nicht kontrolliert werden kann?
Die Wahrscheinlichkeit einer schlimmen Wende ist Schätzungen zufolge nicht so groß. Eine allgemeingültige Einschätzung gibt es übrigens nicht – allerdings streiten sich alle über die Details, über die schädlichen Folgen usw. Jetzt nennen sie ungefähre Zahlen von 0,01 % bis 10 %.
Meiner Ansicht nach handelt es sich dabei um enorme Risiken, wenn man davon ausgeht, dass das schlimmste Szenario die Zerstörung der Menschheit ist.
Interessanterweise handelt es sich bei ChatGPT und GPT-4 um Produkte, die von Teams entwickelt wurden, die sich mit den Problemen der „Anpassung“ der Absichten von Menschen und Neuronen beschäftigen (Einzelheiten finden Sie hier). Hier). Deshalb hören Models so gut auf Anweisungen, versuchen nicht unhöflich zu sein und klärende Fragen zu stellen, aber das ist immer noch alles andere als ideal. Das Kontrollproblem ist noch nicht einmal zur Hälfte gelöst. Und wir wissen zwar nicht, ob es überhaupt gelöst wird und wenn ja, mit welchen Methoden. Dies ist das aktuell heißeste Forschungsthema.
10. Kann sich ein neuronales Netzwerk in eine Person verlieben?
Mit aktuellen Ansätzen und Architekturen von Neuronen, nein. Sie generieren nur den Text, der als Fortsetzung des Eingabetextes am plausibelsten ist. Wenn Sie das erste Kapitel einer Liebesgeschichte einwerfen, es unter Ihrer Persönlichkeit umschreiben und das Model bitten, Ihren Liebesbrief zu beantworten, wird sie damit klarkommen. Aber nicht, weil ich mich verliebt habe, sondern weil es am besten zum Kontext und zur Aufforderung „Schreib mir einen Brief!“ passt. Denken Sie daran, dass Modelle lernen, Text zu generieren, der Anweisungen folgt.
Darüber hinaus haben neuronale Netze in der Basisversion keine Speicher - Zwischen zwei verschiedenen Starts vergessen sie alles und kehren zu den „Werkseinstellungen“ zurück. Speicher kann künstlich wie von der Seite hinzugefügt werden, sodass beispielsweise 10 Seiten der relevantesten „Erinnerungen“ in das Modell eingespeist werden. Aber dann stellt sich heraus, dass wir einfach eine Reihe von Ereignissen in das ursprüngliche Modell einspeisen und sagen: „Wie würden Sie sich unter solchen Bedingungen verhalten?“ Das Modell hat keine Gefühle.
Lesen Sie auch🧐
- Wo und wie künstliche Intelligenz eingesetzt wird: 6 Beispiele aus dem Leben
- 9 naive Fragen zu künstlicher Intelligenz
- 8 Mythen über künstliche Intelligenz, an die selbst Programmierer glauben