Wissenschaftler schlussfolgern, dass es unmöglich wäre, superintelligente Maschinen zu steuern

Superintelligenz ist facettenreich und daher in der Lage, eine Vielzahl von Ressourcen zu mobilisieren, um Ziele zu erreichen, die für Menschen möglicherweise unverständlich sind (Foto: Unsplash)

Eine von Wissenschaftlern des Max-Planck-Instituts für Bildungsforschung in Deutschland geleitete Forschung behauptet, dass Menschen möglicherweise nicht in der Lage sind, a Künstliche Intelligenz (KI) hohes Level. Die in der Fachzeitschrift veröffentlichte Studie Zeitschrift für Forschung zur künstlichen Intelligenz ist der Ansicht, dass die Steuerung einer Superintelligenz jenseits des menschlichen Verständnisses eine Simulation dieser KI erfordern würde, aber wenn sie noch nicht verstanden werden kann, ist es unmöglich, die Simulation durchzuführen.

Laut den Autoren können Regeln wie „Menschen keinen Schaden zufügen“ nicht aufgestellt werden, wenn Wissenschaftler nicht verstehen, welche Art von Szenario eine KI in Zukunft darstellen könnte. Sobald ein Computersystem auf einer Ebene funktioniert, die außerhalb der Möglichkeiten von Programmierern liegt, können keine Grenzen mehr gesetzt werden.

„Eine Superintelligenz stellt ein anderes Problem dar als diejenigen, die unter dem Banner der ‚Roboterethik‘ untersucht werden“, schrieben die Forscher. „Das liegt daran, dass eine Superintelligenz facettenreich und daher in der Lage ist, eine Vielzahl von Ressourcen zu mobilisieren, um Ziele zu erreichen, die für Menschen möglicherweise unverständlich sind. Daher sind sie viel weniger kontrollierbar“, fügten sie hinzu.

Die Alan-Turing-Hypothese

Ein Teil der Argumentation der Forscher stammt aus dem „Stoppproblem“, das der britische Mathematiker Alan Turing 1936 aufstellte. Das Problem dreht sich darum, ob ein Computerprogramm zu einem Ergebnis kommt und dann reagiert (also stoppt) oder ob es das wird Schleife herum und versuche, eine Antwort zu finden.

Es ist möglich, dies für einige spezifische Programme zu wissen, aber es ist logischerweise unmöglich, einen Weg zu finden, der es Wissenschaftlern heute ermöglichen würde, die Antwort für jedes Programm zu kennen, das in der Zukunft geschrieben werden könnte. Im Fall der künstlichen Intelligenz kann beispielsweise jedes Programm, das geschrieben wurde, um KI daran zu hindern, Menschen Schaden zuzufügen, zu einem Ergebnis kommen (und aufhören) oder nicht – es ist mathematisch unmöglich, absolut sicher zu sein.

auf der Suche nach Lösungen

Die Alternative dazu, der KI etwas Ethik beizubringen und ihr zu sagen, sie solle die Welt nicht zerstören – etwas, dessen die Forscher sagen, dass kein Algorithmus absolut sicher sein kann – besteht darin, die Fähigkeiten der Superintelligenz einzuschränken. Dies kann beispielsweise durch das Trennen der Verbindung bestimmter Netzwerke zum Internet erfolgen.

Aber die Studie lehnte auch diese Idee ab und schlug vor, dass sie die Reichweite der künstlichen Intelligenz einschränken würde. Das Argument lautet: Wenn KI nicht dazu verwendet wird, Probleme zu lösen, die über den Bereich des Menschen hinausgehen, warum sollte sie dann geschaffen werden?

„Eine superintelligente Maschine, die die Welt kontrolliert, klingt wie Science-Fiction“, sagt Informatiker und Co-Autor der Studie Manuel Cebrian vom Max-Planck-Institut für Bildungsforschung in Berlin. unabhängig, ohne dass die Programmierer vollständig verstehen, wie sie gelernt haben. Daher stellt sich die Frage, ob dies irgendwann unkontrollierbar und gefährlich für die Menschheit werden könnte“, sagt er.

Möchten Sie sich exklusive Inhalte von ansehen GESCHÄFTSsaison? Erhalten Sie Zugang zur digitalen Version.

Clothilde Kopp

„Social-Media-Fan. Bier-Fan. Bacon-Junkie. Stürzt oft hin. Ärgerlich bescheidener Reise-Guru.“