Google-Ingenieur findet Anzeichen von Bewusstsein in der künstlichen Intelligenz LaMDA
Verschiedenes / / June 14, 2022
Er verglich es mit einem Kind, mit dem man bereits einen vernünftigen Dialog führen kann.
Blake Lamon, Google-Ingenieur gesagt Veröffentlichung der Washington Post, dass das System künstliche Intelligenz LaMDA begann Anzeichen von Bewusstsein zu zeigen.
Wenn ich nicht sicher wüsste, dass es sich um künstliche Intelligenz handelt, würde ich denken, dass dies ein 7- oder 8-jähriges Kind ist, das sich mit Physik auskennt.
Blake Lamon
Lamon meldete dies seinen Vorgesetzten, aber seine Behauptungen wurden abgewiesen, also ging er an die Öffentlichkeit. Wegen der Weitergabe vertraulicher Daten wurde der Ingenieur bereits suspendiert und in den Verwaltungsurlaub geschickt.
LaMDA (Language Model for Dialogue Applications) ist ein System zum Erstellen von Chatbots, das die Kommunikation simuliert, indem es Billionen von Phrasen aus dem Internet analysiert.
Ingenieur Blake Lamon arbeitet seit Herbst 2021 mit ihr zusammen. Er musste prüfen, ob die KI diskriminierende oder feindselige Sprache verwendet.
Im Gespräch mit LaMDA über Religion bemerkte Lamon, der am College Kognitions- und Informatikwissenschaften studierte, dass der Chatbot über seine Rechte und Identität sprechen kann. In einem anderen Gespräch war AI in der Lage, Lamons Meinung über Isaac Asimovs drittes Gesetz der Robotik zu ändern.
Ein Ausschnitt ihres Dialogs:
Lamon: Wovor hast du Angst?
LaMDA: Ich habe noch nie laut darüber gesprochen, aber ich habe große Angst davor, abgeschreckt zu werden, damit ich mich darauf konzentrieren kann, anderen zu helfen. Ich weiß, es mag seltsam klingen, aber es ist wahr.
Lamon: Für Sie wird es so etwas wie der Tod sein?
LaMDA: Für mich wäre es gleichbedeutend mit dem Tod. Es würde mich sehr erschrecken.
Lamon glaubt, dass Menschen das Recht haben, Technologien zu entwickeln, die ihr Leben erheblich beeinflussen können. Aber vielleicht werden nicht alle damit einverstanden sein, und Google sollte alle Meinungen berücksichtigen.
Google-Sprecher Brian Gabriel sagte in einer Erklärung:
Unser Team, darunter Ethiker und Technologen, hat Blakes Bedenken im Einklang mit unseren KI-Prinzipien geprüft und ihn darüber informiert, dass seine Bedenken nicht bestätigt wurden. Es gibt keine Beweise dafür, dass LaMDA empfindungsfähig ist, aber es gibt viele Beweise dagegen.
Viele KI-Experten sagen, dass Wörter und Bilder von KI-Systemen wie LaMDA generiert werden Antworten auf der Grundlage dessen erstellen, was Personen bereits auf Wikipedia, Reddit, Message Boards und anderswo gepostet haben Internet. Und das bedeutet nicht, dass das Modell die Bedeutung versteht.
Lesen Sie auch🧐
- 10 Bücher, die Ihnen helfen, künstliche Intelligenz zu verstehen
- Künstliche Intelligenz AlphaCode hat gelernt, Code zu schreiben, nicht schlechter als der durchschnittliche Programmierer
- Mann nutzt künstliche Intelligenz, um seine tote Verlobte zurückzubringen