Noch immer stolpern die Verhandlungen über Stiftungsmodelle

Das ist der Zankapfel: Wie lässt sich generative KI wie ChatGPT regulieren? Obwohl mit einem Abschluss der Verhandlungen gerechnet wird, besteht noch kein Konsens darüber, wie Stiftungsmodelle geregelt werden sollen. Für Frankreich und zwei weitere Mitgliedstaaten sollte ein einfacher Verhaltenskodex ausreichen. Eine Position, die insbesondere unter Rechteinhabern und Urhebern alles andere als einhellig ist.

Es bleiben nur noch etwas mehr als zwei Wochen bis zum 6. Dezember, dem Tag des nächsten Trilogs von „ das KI-Gesetz », die europäische Verordnung zu künstlicher Intelligenz. Zwischen den 27 Mitgliedsstaaten, dem Europäischen Parlament und der Europäischen Kommission bestehen jedoch weiterhin Meinungsverschiedenheiten, etwa in der Frage der Transparenz und der Regulierung generativer KI wie ChatGPT, dem von OpenAI entwickelten Konversationsagenten. Und in den letzten Tagen hätte die Nachricht von einer Einigung zwischen drei Mitgliedstaaten, darunter Frankreich, die Wahrscheinlichkeit verringert, dass sich die drei europäischen Mitgesetzgeber vor Jahresende auf einen Text einigen würden.

Ein französisch-italienisch-deutsches Abkommen über Stiftungsmodelle?

Samstag, 18. November Reuters teilte uns mit, dass Frankreich, Italien und Deutschland laut einem inoffiziellen Dokument, zu dem unsere Kollegen Zugang hatten, bei Stiftungsmodellen eine gemeinsame Basis gefunden hätten. Dieser gemeinsame Standpunkt wurde jedoch von diesen drei Mitgliedstaaten nicht bestätigt. Doch laut der Presseagentur würden die drei Länder die Idee der Selbstregulierung für sogenannte Basismodelle der künstlichen Intelligenz verteidigen. Es wäre ein „ verpflichtende Selbstregulierung durch Verhaltenskodizes » aber ohne Sanktion, zumindest sofort.

Die künftige Regelung zur KI“ regelt den Einsatz von KI und nicht die Technologie selbst “, können wir in diesem Dokument lesen. Wie wir Ihnen erklärt haben, soll der im April 2021 von der Europäischen Kommission vorgeschlagene Text nicht die Technologie selbst regeln. Er definiert eine Risikopyramide basierend auf dem Einsatz dieser Technologie. Sein Prinzip: Je riskanter der Einsatz eines KI-Systems ist (z. B. im Hinblick auf Menschenrechte, wie ein Gesichtserkennungssystem, das zum Zweck der sozialen Kontrolle eingesetzt würde), und desto mehr muss der Anbieter dieses Systems auf Transparenz achten und Governance-Verpflichtungen. Verwendungen sind grundsätzlich untersagt. Ursprünglich, Das KI-Gesetz erlegte daher echte Verpflichtungen nur für die riskantesten Verwendungen auf wie Bildung, Humanressourcen oder wesentliche private und öffentliche Dienstleistungen.

Aber nach der Welle ChatGPT Das im November 2022 ins Leben gerufene Europäische Parlament hat beschlossen, neue Bestimmungen einzuführen, ohne dieses Grundprinzip in Frage zu stellen. Die Abgeordneten fügten insbesondere hinzu neue Transparenzpflichten, die nur gelten würden für „ Fundamentmodelle „. Von dem Moment an stehen wir vor einem „ Stiftungsmodell »Unabhängig vom Risiko müssen bestimmte Regeln beachtet werden. Der Rat, die Vertretung der Mitgliedstaaten, hatte sich für einen risikobasierten Ansatz entschieden, denn „ Allzweck-KI „.

Die ganze Frage ist also, ob und in welcher Form die von den Europaparlamentariern hinzugefügten neuen Bestimmungen die Verhandlungen überleben werden: Handelt es sich hierbei um echte Verpflichtungen oder um einen einfachen Verhaltenskodex, den es zu respektieren gilt? ?

Wenige Tage zuvor hatte Arthur Mensch, der CEO des französischen Start-ups Mistral AI, in einem langen Tweet Stellung bezogen X. Er erklärte, dass er es bedauere, dass der Text von dem ursprünglichen, auf der Nutzung basierenden Ansatz abweiche und den Stiftungsmodellen selbst Verpflichtungen auferlege. Denn wie können wir ein Modell regulieren, das nicht genutzt wird, fragt er. Letzterem zufolge würden neue Verpflichtungen bestehende Akteure wie OpenAI oder Google, von denen keiner europäisch ist, begünstigen, zum Nachteil neuer Akteure, die wie sein Unternehmen auftauchen wollen.

Frankreich, Deutschland und Italien hätten sich ihrerseits darauf geeinigt, dass für diese Stiftungsmodelle keine Verpflichtungen bestehen, und sich für eine Selbstregulierung durch Verhaltenskodizes entschieden. Entsprechend EURACTIV der auch Zugang zu diesem berühmten inoffiziellen Dokument hatte, für das die drei Länder plädieren würden Nur spezifische (und riskante) Anwendungen von „Allzweck-KI-Systemen“ werden reguliertund nicht die Grundmodelle selbst.

Um diese Unterscheidung zwischen dem, was gefährdet wäre, und dem, was nicht, zu treffen, würden diese Mitgliedstaaten vorschlagen, dass die Entwickler von Basismodellen eine Art technisches Datenblatt, eine technische Dokumentation, veröffentlichen. Diese letzten „ wird relevante Informationen enthalten, um zu verstehen, wie das Modell funktioniert, seine Fähigkeiten und Einschränkungen und wird auf Best Practices innerhalb der Entwicklergemeinschaft basieren », Laut dem von unseren Kollegen zitierten Dokument.

Ein KI-Governance-Gremium könnte zur Entwicklung von Leitlinien beitragen und die Anwendung der Blätter überprüfen » Techniken, fügen sie hinzu. Dem Dokument zufolge sollen zunächst keine Sanktionen verhängt werden, wenn Unternehmen diesen Verhaltenskodex nicht respektieren. Bei wiederholten Verstößen könnte jedoch ein Sanktionssystem eingeführt werden.

Die Schöpfer wehren sich gegen die Position Frankreichs

Sollte diese Position offiziell bestätigt werden, würde dies bedeuten, dass die beiden Artikel, für die sich Verteidigungsgesellschaften aus Künstler- und Kulturschaffenden einsetzen, übersprungen würden – nämlich Artikel 28B und Artikel 52. Der erste würde KI-Entwickler dazu zwingen, die Trainingsdaten der Systeme transparent zu machen , da dieser verpflichtet wäre, eine mehr oder weniger detaillierte Zusammenfassung der für die Ausbildung verwendeten geschützten Daten zu veröffentlichen. Artikel 52 würde wiederum verlangen, dass alle durch KI generierten Inhalte als solche gekennzeichnet werden.

Lesen Sie auch: KI-Gesetz: Kulturwelt fordert Europa zu mehr Transparenz bei generativer KI auf

Am Freitag, 17. November, veröffentlichte die Kulturbranche dennoch eine kommuniziertBitten Sie die französische Regierung, ihre Kopie zu überprüfen und nicht „ Wir dürfen nicht auf eine Verpflichtung zur Transparenz verzichten, ohne die nichts Solides gebaut werden kann „. „ Nur der immaterielle Grundsatz der Transparenz von Trainingsdaten und generierten Inhalten kann Bürgern und Urhebern garantieren, dass ihre Rechte respektiert werden. », Schreiben Sie die Autoren dieses Textes, unterzeichnet von 80 Gewerkschaften und Organisationen, darunter aus den Bereichen Presse, Verlagswesen, Kino, Musik und Fotografie.

Ohne Transparenz – und damit die Verpflichtung zur Veröffentlichung des Verzeichnisses der zum Training von KI verwendeten und urheberrechtlich geschützten Inhalte – wäre es für Urheber und Rechteinhaber tatsächlich schwierig, wenn nicht gar unmöglich, eine Vergütung für die Nutzung ihrer Werke zu erhalten. Es wäre nahezu unmöglich zu wissen, ob eine bestimmte Arbeit tatsächlich zum Trainieren eines bestimmten KI-Systems verwendet wurde. Letzten 9. November, Berichte KontextFrankreich und Deutschland legten ihr Veto gegen diese Transparenzpflicht ein. Angesichts des von unseren Kollegen von Reuters gemeldeten Dokuments scheint es, als hätte die Pressemitteilung der World of Culture die Position Frankreichs nicht im Geringsten verändert.

Lesen Sie auch: Urheberrecht: Wo stehen wir im Kampf zwischen Schöpfern, Künstlern und KI-Entwicklern?

Für andere ist es aber vor allem die Idee eines Verhaltenskodex – und damit unverbindlicher Standards –, die ein Problem darstellt. Entsprechend EURACTIV das einen Beamten des Europäischen Parlaments zitiert, das Non-Paper, indem es einen Verhaltenskodex vorschlägt, wäre ein echter „ Kriegserklärung », was im Widerspruch zur von den Abgeordneten angenommenen Version steht.

Olivier Iteanu, Anwalt an der Pariser Anwaltskammer und Spezialist für digitales Recht, erinnerte sich in einem Blogbeitrag vom 19. November, dass in Ermangelung eines Gesetzes, das Anbieter generativer KI wie OpenAI vorschreibt, die Allgemeinen Nutzungsbedingungen (CGU) gelten. Wann Wenn Sie ChatGPT nutzen, haben diese AGB Gesetzeskraft. Was sagen sie nun? Dass OpenAI niemals verantwortlich ist, unabhängig von der Nutzung des Chatbots. „ Wenn diese Position vor Gericht nicht Bestand hat, wie viele Jahre, Geld und Zeit werden mutige einzelne Nutzer brauchen, um sie anzuerkennen? » fragt der Spezialist, der für die Einrichtung eines plädiert Vorschriften zur öffentlichen Ordnung. Wie werden Stiftungsmodelle oder Allzweck-KI gefressen? Müssen sie Verpflichtungen oder einen einfachen Verhaltenskodex einhalten? Die technischen Diskussionen werden voraussichtlich diese Woche fortgesetzt.

Quelle :

Reuters

Aldrich Sachs

"Web pioneer. Typical pop culture geek. Certified communicator. Professional internet fanatic."