OpenIA-Führungskräfte fordern Regulierung, um das „existentielle Risiko“ von KI zu verringern

Sam Altman, Greg Brockman und Ilya Sutskever, die drei Leiter von OpenIA, unterzeichneten mit der Internationalen Atomenergiebehörde (IAEA) eine Notiz, in der die Schaffung eines Gremiums zur Regulierung der KI, wie es für den Nuklearsektor existiert, gefordert wird.


Nach Ansicht der drei Verantwortlichen ist es notwendig, die Menschheit vor dem „existenziellen Risiko“ zu schützen, versehentlich etwas zu erschaffen, das die Macht hat, sie zu zerstören.

„Was die potenziellen Vor- und Nachteile angeht, wird Superintelligenz leistungsfähiger sein als andere Technologien, mit denen sich die Menschheit in der Vergangenheit auseinandersetzen musste. Wir können eine wesentlich wohlhabendere Zukunft haben; Aber wir müssen das Risiko kontrollieren, um dorthin zu gelangen“, liest man Hinweis auf der OpenIA-Seite veröffentlichtdas Unternehmen, das den intelligenten virtuellen Assistenten ChatGPT entwickelt hat.

„Angesichts der Möglichkeit existenzieller Risiken können wir nicht einfach reagieren“, betonen sie.

Die drei Beamten befürworten dann die Schaffung eines der IAEA ähnlichen Gremiums, um „Systeme zu inspizieren, Audits zu fordern, die Einhaltung von Sicherheitsstandards zu testen, Entwicklungsphasen und Sicherheitsniveaus einzuschränken usw.“

„Für eine solche Behörde wäre es wichtig, sich auf die Reduzierung existenzieller Risiken zu konzentrieren und nicht auf Themen, die den Ländern selbst überlassen werden sollten, etwa die Festlegung, was eine KI sagen darf“, behaupten sie.

Kurzfristig argumentieren die Mitbegründer Greg Brockman und Ilya Sutskever sowie der Vorstandsvorsitzende Sam Altman, dass „ein gewisses Maß an Koordination zwischen den großen Entwicklungsbemühungen erforderlich ist, um sicherzustellen, dass die Entwicklung der Superintelligenz auf eine Weise erfolgt, die es uns ermöglicht, die Sicherheit aufrechtzuerhalten und Hilfe zu leisten.“ die reibungslose Integration dieser Systeme in die Gesellschaft“.

Zu diesem Zweck erklären sie, dass die wichtigsten Regierungen auf der ganzen Welt ein Projekt erstellen oder die KI-Wachstumsrate auf eine bestimmte Rate pro Jahr begrenzen sollten.

Die G7 einigen sich auf eine Beschleunigung der Regulierung
Am vergangenen Freitag einigten sich die G7-Staaten darauf, rasch Maßnahmen zur Regulierung generativer KI wie ChatGPT zu ergreifen, um den wachsenden Risiken einer schnellen Verbreitung zu begegnen.

Auf dem Gipfel des Forums, das in der japanischen Stadt Hiroshima stattfand, forderte der japanische Premierminister Fumio Kishida seine G7-Kollegen auf, „auf die rasche Schaffung eines internationalen Rahmens“ zur Regulierung dieser neuen Technologien hinzuarbeiten.

„[A cimeira de Hiroxima] „Ziel ist es, die Einheit der G7 zu bestätigen und ihre Rolle zugunsten einer internationalen Gemeinschaft zu stärken, die von Zusammenarbeit und nicht von Spaltung und Konfrontation geprägt ist, und aktive und konkrete Beiträge zu diesem Ziel zu leisten“, sagte Kishida.

In der Woche vor diesem Gipfel stimmte die Europäische Union über einen Bericht zur Schaffung eines Gesetzes zur Regulierung von KI ab. Dies ist der vorletzte Schritt zur Verabschiedung eines Gesetzes, das unter anderem die Überwachung von Bürgern oder die Manipulation von Meinungen und Verhalten durch Werkzeuge der künstlichen Intelligenz verbietet.

Warnungen vor der Gefahr von KI
Schon seit mehreren Jahrzehnten gibt es Warnungen vor den potenziellen Risiken künstlicher Intelligenz, doch in jüngster Zeit haben diese Warnungen zugenommen, da sich die KI-Entwicklung beschleunigt hat.

Anfang dieses Monats trat Geoffrey Hinton, der als einer der größten Pioniere der künstlichen Intelligenz gilt, von Google zurück und hinterließ mehrere Warnungen vor den potenziellen Gefahren dieser Technologie.


Geoffrey Hinton, 75, betonte, dass Unternehmen hinsichtlich des Einsatzes dieser Art von Technologie nicht die notwendigen Vorkehrungen treffen und befürchtete, dass KI zu einem Risiko für die Menschheit selbst werden könnte.



„Es ist schwer zu wissen, wie man Menschen mit bösen Absichten am Konsum hindern kann [a IA] für schlechte Dinge. Vergleichen Sie KI vor fünf Jahren mit heute. „Es ist beängstigend“, sagte der „Pate“ der KI in einem Interview mit New York Times.

Der Brite und Kanadier, einer der Hauptverantwortlichen für den technologischen Fortschritt, der virtuelle Assistenten wie ChatGPT hervorgebracht hat, sagt, dass dies der Fall ist Chatbots Sie seien „ziemlich beängstigend“, da „sie klüger sein können als Menschen“. „Ich bin zu dem Schluss gekommen, dass die Art der Intelligenz, die wir entwickeln, sich stark von der Intelligenz unterscheidet, die wir haben“, erklärte er.


Die Verantwortlichen von OpenIA betonen jedoch, dass „es eine Überlegung wert ist, warum wir diese Technologie entwickeln“, und geben an, dass sie davon überzeugt sind, dass „sie zu einer viel besseren Welt führen wird, als wir uns heute vorstellen können“.

„Die Welt steht vor vielen Problemen, zu deren Lösung wir noch viel mehr Hilfe brauchen werden; „Diese Technologie kann unsere Gesellschaften verbessern, und die kreative Fähigkeit jedes Einzelnen, diese neuen Werkzeuge zu nutzen, wird uns sicherlich überraschen“, schreiben sie in der Notiz.



Letzte Woche ist auch Portugal offiziell ins Rennen gegangen Chatbots und führte ein generatives KI-Modell wie ChatGPT für die portugiesische Sprache ein. Im März begann Google außerdem mit der Bereitstellung eines Chatbot namens Bard und schließt sich seinen Open AI- und Microsoft-Konkurrenten ChatGPT und Bing an.

Clothilde Kopp

„Social-Media-Fan. Bier-Fan. Bacon-Junkie. Stürzt oft hin. Ärgerlich bescheidener Reise-Guru.“