Was hat es mit dem KI-Gesetz auf sich?

Treffen Sie die Autoren

Emeline Banzuzi

Emeline Banzuzi

Beraterin für Datenschutz und Data Governance

Emeline Banzuzi ist Rechtsberaterin und Forscherin im dynamischen Bereich von Recht, Technologie und Gesellschaft und verfügt über Fachwissen in den Bereichen Datenschutzberatung, Risikomanagement, Compliance im FinTech-Bereich und akademische Forschung.

Joel Himanen

Joel Himanen

Datenwissenschaftler

Joel Himanen ist ein vielseitiger Datenwissenschaftler mit Schwerpunkt auf fortschrittlicher Analytik, maschinellem Lernen und künstlicher Intelligenz. Er verfügt über frühere Erfahrungen mit datengesteuerten Nachhaltigkeitsprojekten sowohl im privaten als auch im öffentlichen Sektor.


In den frühen Morgenstunden
von
9. Dezember

th
, die Europäische Union Parlament und Rat haben sich schließlich auf eine vorläufige Einigung über den Inhalt des Gesetz über künstliche Intelligenz (AIA). In diesem Blogbeitrag fassen wir die wichtigsten Inhalte von die AIA und erörtern ihre mögliche Implikationen und offene Fragen am Beispiel der Entwicklung und des Einsatzes von Large Language Models (LLM).

Die Kurzfassung

Die EUGesetz über künstliche Intelligenz zielt darauf ab, die Entwicklung und den Einsatz von KI-Systemen in der EUund gleichzeitig sicherzustellen, dass diese Systeme sicher sind und die Gesundheit, Sicherheit und Grundrechte und Freiheiten der EU-Bürger. Das vorläufige Abkommen sieht vor, dass das Gesetz zwei Jahre nach seinemInkrafttretenInkrafttreten (d.h. nach seiner Veröffentlichung im Amtsblatt der EU)für die Verbote auf sechs Monate verkürzt sie enthält. Das Gesetz betrifft vor allem Auswirkungen auf Anbieter von KI-Systemen, die je nach Risikokategorie ihres Anwendungsfalls reguliert werden. Anwendungsfalles reguliert werden. Auf der Seite der generativen KI stehen die Entwickler von Grundmodellen konfrontiert erhebliche Anforderungen an die Transparenz, Sicherheitsvorkehrungen, und Tests.

Ein bisschen tiefer graben

Der erste Entwurf des Gesetzes wurde im April 2021 veröffentlicht, und seine endgültige Fassung durchläuft derzeit das EU-Gesetzgebungsverfahren. Nach der jüngsten Einigung muss das Gesetz vor der förmlichen Verabschiedung noch sowohl vom Parlament als auch vom Rat bestätigt und rechtlich-sprachlich überarbeitet werden.

Das Gesetz definiert ein „KI-System“ als ein maschinengestütztes System, das mit unterschiedlichem Grad an Autonomie und für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugt, die physische oder virtuelle Umgebungen beeinflussen können. Die Verordnung gilt für Anbieter, Aufsteller und Vertreiber von KI-Systemen sowie für „betroffene Personen“, d. h. Einzelpersonen oder Personengruppen, die einem KI-System unterliegen oder anderweitig von ihm betroffen sind.

Der AIA erstellt unterschiedliche Verpflichtungen für Entwickler und Anwender von KI-Systemen, je nachdem welcher Risikoklasse das betreffende System zuzuordnen ist in. Das Gesetz sieht vier Risikokategorien vor, nämlich:

 

  • Unannehmbares Risiko: KI-Systeme, die eine eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte des Einzelnen darstellen (z. B. Systeme, die für Social Scoring eingesetzt werden, und Systeme, die gefährdete Gruppen wie Kinder ausbeuten). Die Verwendung dieser Systeme ist verboten.
  • Hohes Risiko: KI-Systeme, die der Gesundheit, der Sicherheit oder den Grundrechten von Personen erheblichen Schaden zufügen. Beispiele für risikoreiche KI-Systeme sind solche, die für die Verwaltung kritischer Infrastrukturen, Bildung, Beschäftigung, Strafverfolgung und Grenzkontrolle eingesetzt werden. Für Systeme mit hohem Risiko gelten strenge Auflagen, bevor sie auf den Markt gebracht werden können: Anbieter und Betreiber dieser Systeme müssen beispielsweise ein Risikomanagementverfahren für die Risikoermittlung und -minderung entwickeln, geeignete Verfahren für die Datenverwaltung und -steuerung bei der Schulung, Validierung und Prüfung von Datensätzen anwenden, die menschliche Kontrolle ermöglichen, technische Robustheit und Cybersicherheit gewährleisten sowie eine Dokumentation erstellen, die die Einhaltung des AIA nachweist. (Für eine vollständige Liste der Verpflichtungen siehe Art. 9-17 AIA).
  • Begrenztes Risiko: Beispiele für KI-Systeme mit begrenztem Risiko sind Systeme, die für die Interaktion mit Personen bestimmt sind, z. B. Chatbots und Deep Fakes. Die Compliance-Verpflichtungen für KI mit begrenztem Risiko konzentrieren sich auf die Transparenz: Die Nutzer dieser Systeme müssen eindeutig darüber informiert werden, dass sie mit einem KI-System interagieren.
  • Geringes Risiko: Beispiele für KI mit minimalem Risiko sind Spam-Filter, KI-gestützte Videospiele und Bestandsverwaltungssysteme. Der AIA erlaubt die freie Verwendung von AI mit minimalem Risiko.

Die Risikokategorien schwankten während der Entwurfsstadien des AIA.

Auswirkungen für Modellentwickler und -einrichter

Die Entwickler von KI-Modellen und -Anwendungen sind natürlich sehr besorgt über das Gesetz, da es das Potenzial hat, die Entwicklungs- und Nutzungsprozesse massiv zu beeinflussen. In der Endphase des AIA-Vorschlags ist es wichtig, mögliche Szenarien zu bedenken und darüber nachzudenken, welche Auswirkungen das Gesetz auf verschiedene Gruppen im Bereich der künstlichen Intelligenz haben würde.

Betrachten wir das heißeste KI-Thema des Jahres 2023: Große Sprachmodelle (LLM). Eine Möglichkeit, die Lebensdauer des LLM zu betrachten, besteht darin, es in drei Phasen zu unterteilen (vorgelagert bis nachgelagert):
Entwicklung eines Stiftungsmodells (FM)
,
Feinabstimmung
und
Bereitstellung
. Welche Auswirkungen könnte das AI-Gesetz auf diese Phasen haben?

Entwickler von Stiftungsmodellen sind diejenigen, die die „schwere Arbeit“ machen. Sie entwickeln die Modellarchitektur, sammeln und verarbeiten die enormen Datenmengen, die für das Pre-Training des Modells erforderlich sind, und führen das eigentliche Pre-Training durch, bei dem das Modell den Großteil seiner Fähigkeiten erlernt. Es handelt sich dabei um Organisationen, die mit erheblichen Ressourcen ausgestattet sind, da das Sammeln der Daten und insbesondere das rechenintensive Vortraining kostspielige Aktivitäten sind. Da sich dies am stärksten auf das Modell selbst auswirkt, wird ein FM-Entwickler nach dem derzeitigen Vorschlag in Bezug auf die kumulative Menge der für die Modellschulung verwendeten Rechenleistung reguliert werden. Für ein als „high-impact“ eingestuftes FM (mehr als 10^25 Gleitkommaoperationen während der Ausbildung) würden beispielsweise auch strengere Transparenzanforderungen gelten, was die Offenlegung von urheberrechtlich geschütztem Ausbildungsmaterial betrifft. Dies ist eine enorme Anforderung; die für die Vorschulung erforderliche Datenmenge ist so groß, dass der Erfassungsprozess weitgehend automatisiert ist und somit nur eine minimale Kontrolle über den Stoff selbst besteht. Ein interessantes Detail ist, dass nach der jüngsten Vereinbarung Open-Source-Modelle einer geringeren Regulierung unterliegen werden.

Feinstimmgeräte haben einen geringeren, aber dennoch signifikanten Einfluss auf das Modell. Sie nehmen eine vortrainierte FM und trainieren sie auf einem kleineren, spezielleren Datensatz weiter. In gewisser Weise führen sie die gleichen Manipulationen am Modell durch wie der FM-Entwickler, nur in einem kleineren Maßstab. Es stellt sich die interessante Frage: Wie wird die AIA zwischen ihnen unterscheiden? Gelten für Feinabstimmer die gleichen Anforderungen an die Transparenz in Bezug auf die rechnerischen Auswirkungen wie für FM-Entwickler? In jedem Fall haben es die Feinabstimmer leichter, da sie den Inhalt ihrer Datensätze viel besser kontrollieren können.

Modell-Einsatzkräfte (wenn man sie getrennt von den Feinabstimmern betrachtet) haben keine Auswirkungen auf das LLM selbst. Vielmehr entscheiden sie über den endgültigen Anwendungsfall (auch wenn der Feinabstimmer das Modell möglicherweise bereits für diesen Fall trainiert hat) und kontrollieren, wie das Modell verwendet werden kann. Dies bedeutet, dass sie höchstwahrscheinlich dem Großteil der auf Risikokategorien basierenden Regulierung des AIA unterliegen werden. Die Entwickler bauen auch die Software um das FM herum auf, was sich darauf auswirkt, wie das Modell verwendet werden kann, wie seine Eingaben und Ausgaben verarbeitet werden und wie viel Kontrolle der Endnutzer darüber ausüben kann. Folglich könnten die eher „klassischen“ Fragen der Software- und Informationssicherheit zu einem kritischen Teil der AIA-Konformität werden.

Was nun?

Im Moment müssen wir die endgültigen Texte abwarten, um die Einzelheiten des Gesetzes zu verstehen. In der Zwischenzeit muss jedes Unternehmen, das sich mit KI-Systemen befasst, über die Auswirkungen dessen, was wir jetzt wissen, nachdenken. Die Einsatzkräfte müssen sich bereits jetzt ernsthafte Gedanken über die Risikokategorisierung und die folgenden Anforderungen machen. FM-Entwickler stellen sich auf die zusätzliche Arbeit ein, die mit der Kuratierung großer Mengen von Trainingsdaten verbunden ist, und wägen gleichzeitig die Vorteile von Open- und Closed-Source-Entwicklung neu ab.

Herausforderungen für das Urheberrecht im Zeitalter der KI

Kann das ausschließliche Recht eines Urheberrechtsinhabers, Kopien anzufertigen, KI-Entwickler daran hindern, urheberrechtlich geschützte Werke in Trainingsdaten zu verwenden?

Was hat es mit dem KI-Gesetz auf sich?

In den frühen Morgenstunden des 9. Dezembers haben das Parlament und der Rat der Europäischen Union schließlich eine vorläufige Einigung über den Inhalt des Gesetzes über künstliche Intelligenz (AIA) erzielt. In diesem Blogbeitrag fassen wir die wichtigsten Inhalte des AIA zusammen und erörtern seine möglichen Auswirkungen und offenen Fragen am Beispiel der Entwicklung und des Einsatzes von Large Language Models (LLM).

Vertrauenswürdige Daten für Verantwortung und Nachhaltigkeit

Daten und KI spielen eine entscheidende Rolle, wenn es darum geht, zu beweisen, dass Unternehmen verantwortungsvoll handeln und ihre Umwelt-, Sozial- und Governance-Ziele (ESG) erfüllen.

Vertrauenswürdige Daten für Verantwortung und Nachhaltigkeit

Meet The Author

Marko Turpeinen

Marko Turpeinen

CEO

Dr. Marko Turpeinen is a visionary leader with 25+ years of experience in digital transformation and innovation, having worked at prestigious institutions like MIT Media Lab and EIT Digital, and initiating the global MyData movement at Aalto Univesity.

Data and AI play a crucial role in proving that companies act responsibly and meet their environmental, social and governance (ESG) targets.

An image representing ethical practices, such as a person holding a data globe with care

Current reality is that ESG data practices are inefficient and inaccurate. ESG data comes from a myriad of sources and is of variable quality. Availability of data is spotty, especially when the scope of data collection and analysis extends beyond company’s own borders to its supply chain and partners. There is plenty of manual work involved and every company does the work by themselves. This results in vast amounts of duplicate work.

Collaborative Data Sharing in the Era of CSRD

European Union’s Corporate Sustainability Reporting Directive (CSRD) came into effect in January this year. It modernises and strengthens the rules concerning the ESG information that companies are required to report. Large stock listed companies are expected to begin reporting in 2025 based on their 2024 data, and other companies will follow suit when CSRD is gradually rolled out. Companies subject to the CSRD will have to report according to European Sustainability Reporting Standards (ESRS), provide the reporting in a standardised digital format, and include their business networks (e.g. supply chains) in their environmental impacts.

 Very large number of companies will be affected by growing regulatory demands regarding ESG reporting. What if companies could collaborate more efficiently to meet these needs? Instead of every company collecting the data for themselves there would be clear benefits in forming data sharing practices to make sustainability data available for all parties in the ecosystem. This would help to minimize duplicate work for ecosystem participants, and provide better transparency of the whole value chain for all. In a data ecosystem, sustainability improvements can be driven – and even co-funded – by the whole value chain together.

An image portraying a handshake or a group of people collaborating

The Rulebook Approach for Mitigating Risks and Ensuring Fair Data Use in Ecosystems

Despite its clear benefits, data sharing also brings forth several thorny issues regarding business risks, data hygiene, disclosure of trade secrets, corporate security policies, and fair data use. How can a company show that its data and methods can be trusted? How can the ecosystem participants trust each other to not to misuse the data? Do the others get unfair advantage from my data?

 Trust-building, fair data use and minimization of risks amongst the ecosystem participants can be tackled by a rulebook approach. Sitra’s fair data economy rulebook model is one leading example of this approach, taking a holistic view to governance of data ecosystems. It helps organizations to form new data sharing networks and implement policies and rules for them.

 The rulebook approach also helps data providers and data users to assess any requirements imposed by applicable legislation and contracts appropriately in addition to guiding them in adopting practices that promote the use of data and management of risks. With the aid of the rulebook approach, parties can establish a data network based on mutual trust that shares a common mission, vision, and values. This fosters trust and responsible use of data.

An image portraying a handshake or a group of people collaborating

The Imperative of Responsibility and Sustainability in the Industrial Landscape

Responsibility and sustainability have risen as key drivers for creating functioning data ecosystems. This is demonstrated in lighthouse data sharing initiatives, such as Catena-X for the automotive industry. The aim of Catena-X is to grow into a network of more than 200,000 data sharing organizations. Catena-X has picked harmonized and accurate ESG reporting as the most urgent business challenge to be resolved in the ecosystem.

 We are headed towards a future where data sharing and collaboration is expected in a massive scale, and potentially influencing everyone who have a stake in the industrial ecosystem. As the importance and impact of these initiatives spread and grow, holistic ESG data governance approach is business critical for building trust in data ecosystems.

Herausforderungen für das Urheberrecht im Zeitalter der KI

Kann das ausschließliche Recht eines Urheberrechtsinhabers, Kopien anzufertigen, KI-Entwickler daran hindern, urheberrechtlich geschützte Werke in Trainingsdaten zu verwenden?

Was hat es mit dem KI-Gesetz auf sich?

In den frühen Morgenstunden des 9. Dezembers haben das Parlament und der Rat der Europäischen Union schließlich eine vorläufige Einigung über den Inhalt des Gesetzes über künstliche Intelligenz (AIA) erzielt. In diesem Blogbeitrag fassen wir die wichtigsten Inhalte des AIA zusammen und erörtern seine möglichen Auswirkungen und offenen Fragen am Beispiel der Entwicklung und des Einsatzes von Large Language Models (LLM).

Vertrauenswürdige Daten für Verantwortung und Nachhaltigkeit

Daten und KI spielen eine entscheidende Rolle, wenn es darum geht, zu beweisen, dass Unternehmen verantwortungsvoll handeln und ihre Umwelt-, Sozial- und Governance-Ziele (ESG) erfüllen.