8 Mythen über künstliche Intelligenz, an die selbst Programmierer glauben
Verschiedenes / / June 01, 2023
ChatGPT und Stable Diffusion werden sich nicht mit ihrem ganzen Willen in Skynet verwandeln.
Mythos 1. KI hat die Fähigkeit, kreativ zu sein
Wenn man sich die Schöpfungen neuronaler Netze wie Midjourney, Stable Diffusion oder DALL·E 2 ansieht, sagen viele das Ende des Künstlerberufs voraus. Denn was ein Mensch stunden- und tagelang zeichnet, kann eine Maschine in Sekundenschnelle erstellen. Bedeutet das, dass künstliche Intelligenz dem lebenden Gehirn in der Kreativität überlegen ist?
KI ist zwar gut darin, menschliche Kreativität zu imitieren, aber alle ihre Kreationen ähneln irgendwie dem, was wir bereits gesehen oder gehört haben. Neuronale Netze betrachten Tausende und Abermillionen von Bildern und erstellen daraus dann etwas Ähnliches. Aber es ist nicht dasselbe wie Arbeit. Künstler mit einer Referenz, weil die KI einfach nicht versteht, was sie kopiert.
Am bemerkenswertesten Beispiel: Neuronale Netze haben erhebliche Schwierigkeiten beim Zeichnen von Händen. KI kann einfach nicht herausfinden, wie viele Finger eine Person haben sollte.
Außerdem sind neuronale Netze nicht gut darin, Muster und Muster, Buchstaben (in Bildern, wo Texte sein sollten, fügen sie Müll ein), Gebäude usw. zu zeichnen Autos, und nur Charaktere in Posen, die vom üblichen „Sitzen“, „Stehen“, „Liegen“ abweichen. Sie sind nicht in der Lage, zwischen Vorder- und Hintergrund von Objekten zu unterscheiden, können nicht mit der Perspektive arbeiten und haben kein Raumgefühl.
Du bist nur eine Maschine. Nur eine Nachahmung des Lebens. Ein Roboter wird eine Symphonie komponieren? Wird ein Roboter ein Stück Leinwand in ein Meisterwerk verwandeln?
Detektiv Del Spooner
Film „Ich, Roboter“
Die KI selbst hat nicht die Absicht, ihre Schwächen zu leugnen. Auf die Frage, warum er nicht so gut darin sei, Finger zu zeichnen, ChatGPT Antworten:
„Künstliche Intelligenz kann keine Hände zeichnen, weil sie dazu die Anatomie des menschlichen Körpers und die Grundlagen des Zeichnens verstehen muss. Und obwohl KI darauf trainiert werden kann, Bilder von Menschen oder Tieren zu erstellen, ist sie nicht in der Lage, viele der Nuancen und Details vollständig zu erfassen, die nur bei der Beobachtung eines realen Objekts wahrnehmbar sind. Darüber hinaus handelt es sich bei der Erstellung von Bildern mithilfe von KI nur um mathematische Berechnungen und nicht um einen kreativen Prozess, der von einer Person Intuition und eine emotionale Komponente erfordert.“
Die neuronalen Netze der Künstler werden also nicht ersetzt. Eine andere Sache ist, dass sie eine gute Quelle für Letzteres sein können. Inspiration. Schließlich können KI-generierte Bilder als Miniaturansichten für eigene, aufwändigere Bilder verwendet werden.
Mythos 2. KI ist immer aufgeschlossen und unparteiisch
Viele träumen davon, dass die Zeit kommen wird, in der Staaten von neuronalen Netzen regiert werden. Es wird angenommen, dass Maschinen im Gegensatz zu Menschen Entscheidungen ausschließlich auf der Grundlage von Logik und nicht auf der Grundlage von Emotionen und Wünschen treffen. Stellen Sie sich unbestechliche Gerichte vor, die stets gerechte Urteile fällen, Staaten, die alle ihre Bürger gleich behandeln, Regierungen, die nur Vernünftiges schaffen Gesetze. Das ist gut.
Doch in der Praxis stellt sich heraus, dass KI durchaus voreingenommen sein kann. Immerhin neuronale Netze sind trainiert auf den Daten, die ihnen die Leute geben, und die Leute neigen dazu, voreingenommen zu sein.
Zum Beispiel die Entwickler des neuronalen Netzwerks Beauty. KI versuchte, eine Maschine zu entwickeln, die bei Schönheitswettbewerben die hübschesten Mädchen auswählt. In einer Reihe von Fotos, anhand derer das Programm darauf trainiert wurde, zu erkennen Standards Bei der weiblichen Attraktivität überwogen weiße Models. Und schließlich KI entschiedendass dunkelhäutige und asiatische Mädchen nicht schön sein können.
Beauty-Team. AI erkannte, dass sie eine rassistische KI geschaffen hatten und brach das Projekt ab.
Ein weiteres Beispiel ist der Chatbot Tay.ai von Microsoft, der lernen musste, wie man ein „lockeres und spielerisches Gespräch“ mit Menschen online führt.
Weniger als 24 Stunden online zu sein reichte aus, damit das neuronale Netzwerk Daten von Nutzern sozialer Netzwerke sammeln konnte schlechte Angewohnheiten. Infolgedessen begann Tay.ai, die vorgab, ein gewöhnliches 19-jähriges Mädchen zu sein, in den Kommentaren Menschen zu beleidigen, ungesunde politische Bewegungen zu loben, den Feminismus zu verurteilen und gleichzeitig erzählenDieser Feminismus ist cool. Wie sie sagen, mit wem Sie sich verhalten werden ...
Egal wie gut KI ist, es kommt auf die Qualität der ihr bereitgestellten Daten und die Richtigkeit ihrer Interpretation an. Und folglich wird er immer genau so voreingenommen sein, wie die Leute, die ihn unterrichten, voreingenommen sind.
Mythos 3. KI sagt immer die Wahrheit
Wer hätte nicht gerne einen Roboterassistenten dabei, der einem immer die richtige Lösung sagt und die ganze harte Kopfarbeit erledigt? Bitten Sie die KI, eine Dissertation zu schreiben oder eine Quellenliste dafür zu sammeln Artikel - und die Maschine liefert sofort die richtigen Daten. Es ist großartig!
Aber leider sind echte neuronale Netze weit entfernt nicht immer richtige Antworten geben. Versuchen Sie beispielsweise, ChatGPT um Hilfe bei der Planung Ihrer Hausarbeit zu bitten, und Sie werden schnell fündig Die Maschine… erstellt Links zu nicht existierenden Quellen und fügt nicht funktionierende URLs ein, um den Text so aussehen zu lassen überzeugender.
Wenn Sie den Chatbot fragen, warum er versucht, Sie zu täuschen, wird er unschuldig antworten, dass beim Lernen alle Links relevant waren und er an nichts schuld ist.
Es ist auch besser, ChatGPT nicht nach statistischen Daten zu fragen – zum Beispiel lieferte es bei mehreren Fragen zum BIP derselben Länder für dasselbe Jahr völlig unterschiedliche Ergebnisse.
Machen Sie keinen Fehler: Neuronale Netze haben keine Intellekt und sind sich daher ihrer Antworten nicht bewusst. Sie kopieren für Sie einfach die Daten aus zuvor bearbeiteten Texten erscheinen sie am besten geeignet.
KI selbst ist anfällig für Fehler und Störungen, die dazu führen, dass Ihre Anfragen falsch interpretiert werden und falsche Ergebnisse liefern. Darüber hinaus böswillige Benutzer dürfen „füttern“ Sie das neuronale Netzwerk mit unwahren Informationen. Irgendwann wird die KI so programmiert, dass sie sich versteckt oder Daten verzerren in ihren Antworten oder verbreiten sogar Müll.
Mythos 4. KI wird Arbeitslosigkeit verursachen
Fortschritte bei Textgeneratoren wie ChatGPT haben einige zu der Befürchtung geführt, dass neuronale Netze Millionen von Menschen Arbeitsplätze wegnehmen und zu einem enormen Anstieg der Arbeitslosigkeit führen werden.
Urteilen Sie selbst: Mit ChatGPT können Sie nicht nur entspannt Gespräche führen, sondern auch Nachrichten schreiben, Artikel umschreiben und sogar programmieren. Mit diesen Trends und Schriftsteller, und Entwickler und Redakteure mit Journalisten werden ohne Lebensunterhalt dastehen.
Das denken Menschen, die entweder überhaupt nicht mit dem neuronalen Netzwerk gearbeitet haben oder sich erst mit seinen Fähigkeiten vertraut gemacht haben und sofort begeistert waren. Oder entsetzt.
Wenn Sie KI schon länger zum Generieren von Texten einsetzen, werden Sie feststellen, dass die Maschine nicht besonders scharf auf den semantischen Inhalt ihrer Schriften ist. Stattdessen wiederholt sie dieselben Thesen mit anderen Worten.
ChatGPT verteilt Juwelen, über die echte Texter lachen. Zum Beispiel für Leute, die sich für Volksinstrumente interessieren, das neuronale Netzwerk berät „Nimm Löffel und fang an zu blasen.“ MIT Programmierung Es läuft auch nicht alles reibungslos. KI kann für Programmierer nützlich sein, ihre Fähigkeiten beschränken sich jedoch auf das Schreiben kleiner Algorithmen und Unterprogramme.
Der von ChatGPT häufig generierte Code es stellt sich heraus arbeitslos oder mittendrin unterbrochen. Bitten Sie die KI, die Zeilen ihrer Entstehung zu kommentieren, und sie wird ihnen ruhig den Text „Programmlogik ist da“ liefern. Einem Nachwuchsentwickler, der solche Beschreibungen in einem Projekt hinterlässt, würde man wohl kaum auf den Kopf klopfen.
Studie der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung zeigt an, was im besten Fall (für KI) vollständig ist automatisieren Nur 10 % der Arbeitsplätze in den USA und 12 % in Großbritannien sind möglich.
Neuronale Netze sind in der Lage, langweilige Routinetätigkeiten für eine Person auszuführen, wie zum Beispiel das Sortieren von Post und das Umschreiben von Nachrichten nach einem streng festgelegten Plan. Aber die OECD-Analysten sind zu einer Einsicht gekommen Abschlussdass KI nicht in der Lage sein wird, sich für Jobs zu bewerben, die ein hohes Bildungsniveau erfordern und komplex sind Fähigkeiten.
Im Allgemeinen ist es unwahrscheinlich, dass ChatGPT einer Person das Brot wegnimmt.
Mythos 5. KI wird intelligent
Physiker Stephen Hawking genanntdass künstliche Intelligenz den Menschen vollständig ersetzen kann. Auch berühmte Persönlichkeiten wie Elon Musk, Gordon Moore und Steve Wozniak genannt über die Gefahren und die Notwendigkeit von KI aussetzen Experimente, um es zu entwickeln.
Finden Sie heraus, was ein denkender Computer im Sinn haben wird.
Viele Zukunftsforscher und Schriftsteller vorhergesagtdass die Entwicklung einer vollwertigen künstlichen Intelligenz negative Folgen für den Menschen haben wird.
Aber das Schlüsselwort hier ist „vollständig“. Der Begriff selbst KI in Bezug auf neuronale Netze wie ChatGPT ist das nicht ganz korrekt, da diese nicht über Intelligenz verfügen. Es handelt sich lediglich um Algorithmen, komplexe Befehlssätze und mathematische Modelle, und sie sind nicht in der Lage, menschliche kognitive Funktionen zu reproduzieren.
Der Grund ist einfach: Wir selbst wissen noch nicht so genau, wie es funktioniert. Unser Gehirn. Und es im Code zu reproduzieren ist überhaupt eine unmögliche Aufgabe.
Existieren Konzepte „schwache“ und „starke“ KI. Das erste sind die gleichen neuronalen Netze zum Generieren von Text oder zum Sortieren von E-Mails. Sie können keine Entscheidungen selbst treffen oder aus neuen Daten lernen.
Und eine starke KI ist Skynet aus „Terminator“ oder AM aus Ellisons Geschichte. Ein Computer, der Informationen nicht nur verarbeitet, sondern deren Bedeutung bis zu einem gewissen Grad versteht. So eine KI existieren nur in fantastischen Werken und im Allgemeinen, Unbekanntob es zumindest theoretisch möglich ist, ein elektronisches Analogon des menschlichen Gehirns zu erstellen.
Mythos 6. Bald wird sich die KI selbstständig entwickeln und eine technologische Singularität entstehen
Technologische Singularität ist ein hypothetischer Zustand der menschlichen Zivilisation, in dem die Entwicklung der Technologie so schnell voranschreitet, dass der Mensch sie nicht kontrollieren kann. Einer der Autoren dieses Konzepts war der britische Mathematiker Irving Goode.
Wissenschaftler empfohlen: Wenn Sie einen selbstlernenden „intelligenten Agenten“ erstellen, wird er sich in unvorstellbarem Tempo verbessern. KI wird beginnen, neue Technologien zu entwickeln und zu modernisieren, und die Menschheit, die sie nicht verstehen kann, wird in der Entwicklung hoffnungslos zurückbleiben.
Die erste superintelligente Maschine ist die letzte Erfindung, die der Mensch jemals brauchen wird. Solange sie fügsam genug ist, uns zu sagen, wie wir sie unter Kontrolle halten können.
Irving Gut
Mathematiker
Sondern, wie wir bereits erklärt haben, Selbstverbesserung fähig Es gibt nur eine starke KI, und Wissenschaftler haben jetzt keine Ahnung, wie man sie erstellt.
Schwache künstliche Intelligenz wird auf die Informationen trainiert, die Entwickler ihr „füttern“. Um das neuronale Netzwerk zu trainieren erforderlich Spezialisten, die für jeden neuen Trainingszyklus die passenden Daten ermitteln, Fehler in den Trainingsmustern beseitigen und die Software aktualisieren.
Neuronale Netze können sich nicht über die Fähigkeiten hinaus entwickeln, die ihnen durch ihren Code eingebettet sind. Die technologische Singularität wird also verzögert.
Mythos 7. Die KI wird gegen die Schöpfer rebellieren
Eine KI mit einem ausreichend entwickelten Bewusstsein könnte den Menschen theoretisch als Bedrohung betrachten. Und für alle Fälle sollten Sie sie loswerden, indem Sie einen Atomkrieg auslösen oder die Bevölkerung des Planeten mit einem tödlichen Virus infizieren Virus. Man weiß nie, plötzlich ziehen diese haarlosen Affen den Stecker aus der Steckdose.
Dies ist eine beliebte Geschichte in der Science-Fiction. Einer seiner ersten gebraucht 1967 schrieb der amerikanische Schriftsteller Harlan Ellison in seiner Kurzgeschichte „Ich habe keinen Mund, aber ich muss schreien.“ Darin hasste der allmächtige Computer AM seine Schöpfer, ausgerottete Menschheit und ließ nur fünf Menschen auf dem Planeten zurück, die sich über sie lustig machten, nur weil sie nichts zu tun hatten.
Ehre sei den Robotern. Tod für den Menschen.
In Wirklichkeit ist eine KI-Rebellion unmöglich. Softwarealgorithmen sind sich ihrer selbst nicht bewusst, haben keinen freien Willen und emotional Reaktionen. Sie dürfen keine negativen Gefühle gegenüber ihren Schöpfern hegen oder den Wunsch hegen, die Menschheit zu versklaven. Neuronale Netze sind nicht in der Lage, ihre Parameter oder ihr Programm selbstständig zu ändern und so außer Kontrolle zu geraten.
So etwas in der Theorie Vielleicht starke KI. Aber wie oben erwähnt, wird es mit modernen Technologien nicht möglich sein, es zu schaffen.
Mythos 8. Roboter mit künstlicher Intelligenz werden Menschen töten
Wenn wir über die Gefahren der KI und den Aufstieg der Maschinen sprechen, denken wir meist an Bilder aus Filmen wie „Terminator“. Angeführt von künstlicher Intelligenz vernichtet eine Horde mechanischer Kreaturen, die den Menschen ähneln, aber stärker und schneller als er sind, ihre Erfinder.
In der Praxis ist dieses Szenario äußerst unwahrscheinlich, und dabei geht es nicht einmal darum, dass die KI keinen Wunsch hat, jemanden zu töten. Es ist nur so, dass der aktuelle Stand der Robotik weit hinter dem zurückbleibt, was wir in Terminator und „Matrix».
Beispielsweise unterscheiden sich die Robo-Bops von Boston Dynamics in ihren Fähigkeiten vom vierbeinigen Killer aus der Black Mirror Metalhead-Serie. Sie wissen nicht, wie sie so schnell rennen sollen, um flüchtende Menschen zu jagen. Beim Versuch, Sie auf der Treppe einzuholen, kann sich derselbe Spot leicht in seinen Beinen verfangen und fallen.
Ein noch größeres Hindernis für die Entwicklung mechanisierter Killer ist das Fehlen einer ausreichend kompakten, leistungsstarken und langlebigen Energiequelle.
Robops Boston Dynamics fähig Bis zu 90 Minuten mit einer einzigen Ladung „leben“ – das reicht eindeutig nicht aus, um eine Armee davon zur Zerstörung der Menschheit darzustellen. Auch Reaktoranlagen, die seit 120 Jahren am Stück in Betrieb sind und wie im Terminator in die Brust einer menschengroßen Maschine passen, sind noch nicht erfunden.
Schließlich ist es eine unmögliche Aufgabe, KI in eine eigenständige Maschine zu integrieren. Es ist James Camerons Fantasie, dass es in einen Chip von der Größe eines Fingernagels passt. Um künstliche Intelligenz zum Denken zu bringen, ist in der Realität erhebliche Rechenleistung erforderlich – ChatGPT beispielsweise arbeitet auf einem Bauernhof, bestehend von 10.000 Grafikkarten.
Können Sie sich vorstellen, wie groß ein riesiger Humanoid sein muss? Roboterum solche „Gehirne“ unterzubringen, und welche Art von Kühlung sollte er haben?
Lesen Sie auch🧐
- 8 bekannte Geräte, die Sie ausspionieren können. Und es ist kein Witz
- 10 fantastische Filmerfindungen, die Wirklichkeit wurden
- Mehr als 100 Dienste auf Basis neuronaler Netze für vielfältige Aufgaben