Drohnen und unbemannte Fahrzeuge als Waffe: Warum brauchen wir Angst vor Hackern sein
Technologie / / December 19, 2019
Niemand würde bestreiten, dass künstliche Intelligenz unser Leben setzt auf neue Ebene. AI ist in der Lage, viele Probleme zu lösen, die über die Macht des Menschen sind.
Allerdings glauben viele, dass Superintelligenz, uns zerstören wollen, wie SkyNet oder beginnen Experimente an Menschen als GLaDOS aus dem Spiel Portal zu leiten. Die Ironie ist, dass eine künstliche Intelligenz machen kann nur Menschen gut oder böse.
Forscher aus Yale, Oxford, Cambridge, und das Unternehmen erzielte OpenAI Bericht über den Missbrauch der künstlichen Intelligenz. Er sagt, dass die wirkliche Gefahr vor Hackern kommt. Mit Hilfe von bösartigem Code, können sie den Betrieb von automatisierten Systemen unter AI-Steuerung stören.
Forscher befürchten, dass die Technologie mit guten Absichten erstellt, wird Schaden verwendet werden. Zum Beispiel kann die Überwachung nur angewendet werden, nicht die Terroristen zu fangen, sondern auch auf die Bürger auszuspionieren. Die Forscher Besorgnis erregend auch kommerzielle Drohnen, die Nahrung liefern. Sie sind leicht zu abfangen und legen eine etwas explosiv.
Ein weiteres Szenario ist destruktiv Verwendung von AI - unbemannte Fahrzeuge. Es ist genug, um ein paar Zeilen Code zu ändern, und die Maschine startet Sicherheitsregeln zu ignorieren.
Wissenschaftler glauben, dass die Bedrohung digital sein kann, physische und politische.
- Künstliche Intelligenz wird bereits verwendet werden, um die Schwachstellen der verschiedenen Programmcodes zu studieren. In Zukunft könnte Hacker schaffen so ein Bot, die keinen Schutz umgehen werden.
- Mit AI kann Person viele Prozesse automatisiert: zum Beispiel, zu steuern, um einen Schwarm von Drohnen, oder eine Gruppe von Fahrzeugen.
- Mit Technologien wie DeepFake kann das politische Leben des Staates beeinflussen, Verbreitung falscher Informationen über die Führer der Welt über das Internet-Bots.
Diese erschreckende Beispiele existieren nur als Hypothese. Die Autoren der Studie keine vollständige Ablehnung der Technologie bieten. Stattdessen glauben sie, dass die Regierungen und großen Unternehmen Sorge für die Sicherheit übernehmen sollte, während die Industrie künstliche Intelligenz Kindheit.
Die Politik sollte die Technologie und Arbeit zusammen mit Experten auf dem Gebiet, lernt effektiv die Einrichtung und Verwendung von künstlicher Intelligenz zu regulieren.
Entwickler, die wiederum sollten die Gefahr durch Hochtechnologie, bewerten, die schlimmsten Folgen dieser Welt Führer zu antizipieren und zu verhindern. Der Bericht fordert AI Entwickler: Team mit Sicherheitsexperten in anderen Bereichen und um herauszufinden, ob Sie die Prinzipien verwenden können, dass die Sicherheit dieser Technologien für den Schutz von künstlichen gewährleisten Intelligenz.
Vollständiger Bericht beschreibt das Problem im Detail, aber die Tatsache, dass die KI - ein leistungsfähigen Werkzeug. Alle Beteiligten müssen eine neue Technologie lernen und sicherstellen, dass es nicht für kriminelle Zwecke verwendet werden.