Realizing the Value of Networked Data – Part 1: Potato Farming

Dezember 15, 2023

The series explores real use cases that demonstrate how networked data usage and sharing have resulted in concrete value.

This entry explains how we enable data-driven precision farming that results in a 4-6% increase in annual harvest yield and consequently, a 2000€ increase in annual profit for an individual farmer. On a Europe-wide scale, this adds up to 2 billion euros in additional profit for the European agriculture.

Treffen Sie die Autoren

Emeline Banzuzi

Emeline Banzuzi

Beraterin für Datenschutz und Data Governance

Emeline Banzuzi ist Rechtsberaterin und Forscherin im dynamischen Bereich von Recht, Technologie und Gesellschaft und verfügt über Fachwissen in den Bereichen Datenschutzberatung, Risikomanagement, Compliance im FinTech-Bereich und akademische Forschung.

Joel Himanen

Joel Himanen

Datenwissenschaftler

Joel Himanen ist ein vielseitiger Datenwissenschaftler mit Schwerpunkt auf fortschrittlicher Analytik, maschinellem Lernen und künstlicher Intelligenz. Er verfügt über frühere Erfahrungen mit datengesteuerten Nachhaltigkeitsprojekten sowohl im privaten als auch im öffentlichen Sektor.


In den frühen Morgenstunden
von
9. Dezember

th
, die Europäische Union Parlament und Rat haben sich schließlich auf eine vorläufige Einigung über den Inhalt des Gesetz über künstliche Intelligenz (AIA). In diesem Blogbeitrag fassen wir die wichtigsten Inhalte von die AIA und erörtern ihre mögliche Implikationen und offene Fragen am Beispiel der Entwicklung und des Einsatzes von Large Language Models (LLM).

Die Kurzfassung

Die EUGesetz über künstliche Intelligenz zielt darauf ab, die Entwicklung und den Einsatz von KI-Systemen in der EUund gleichzeitig sicherzustellen, dass diese Systeme sicher sind und die Gesundheit, Sicherheit und Grundrechte und Freiheiten der EU-Bürger. Das vorläufige Abkommen sieht vor, dass das Gesetz zwei Jahre nach seinemInkrafttretenInkrafttreten (d.h. nach seiner Veröffentlichung im Amtsblatt der EU)für die Verbote auf sechs Monate verkürzt sie enthält. Das Gesetz betrifft vor allem Auswirkungen auf Anbieter von KI-Systemen, die je nach Risikokategorie ihres Anwendungsfalls reguliert werden. Anwendungsfalles reguliert werden. Auf der Seite der generativen KI stehen die Entwickler von Grundmodellen konfrontiert erhebliche Anforderungen an die Transparenz, Sicherheitsvorkehrungen, und Tests.

Ein bisschen tiefer graben

Der erste Entwurf des Gesetzes wurde im April 2021 veröffentlicht, und seine endgültige Fassung durchläuft derzeit das EU-Gesetzgebungsverfahren. Nach der jüngsten Einigung muss das Gesetz vor der förmlichen Verabschiedung noch sowohl vom Parlament als auch vom Rat bestätigt und rechtlich-sprachlich überarbeitet werden.

Das Gesetz definiert ein „KI-System“ als ein maschinengestütztes System, das mit unterschiedlichem Grad an Autonomie und für explizite oder implizite Ziele Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen erzeugt, die physische oder virtuelle Umgebungen beeinflussen können. Die Verordnung gilt für Anbieter, Aufsteller und Vertreiber von KI-Systemen sowie für „betroffene Personen“, d. h. Einzelpersonen oder Personengruppen, die einem KI-System unterliegen oder anderweitig von ihm betroffen sind.

Der AIA erstellt unterschiedliche Verpflichtungen für Entwickler und Anwender von KI-Systemen, je nachdem welcher Risikoklasse das betreffende System zuzuordnen ist in. Das Gesetz sieht vier Risikokategorien vor, nämlich:

 

  • Unannehmbares Risiko: KI-Systeme, die eine eindeutige Bedrohung für die Sicherheit, den Lebensunterhalt und die Rechte des Einzelnen darstellen (z. B. Systeme, die für Social Scoring eingesetzt werden, und Systeme, die gefährdete Gruppen wie Kinder ausbeuten). Die Verwendung dieser Systeme ist verboten.
  • Hohes Risiko: KI-Systeme, die der Gesundheit, der Sicherheit oder den Grundrechten von Personen erheblichen Schaden zufügen. Beispiele für risikoreiche KI-Systeme sind solche, die für die Verwaltung kritischer Infrastrukturen, Bildung, Beschäftigung, Strafverfolgung und Grenzkontrolle eingesetzt werden. Für Systeme mit hohem Risiko gelten strenge Auflagen, bevor sie auf den Markt gebracht werden können: Anbieter und Betreiber dieser Systeme müssen beispielsweise ein Risikomanagementverfahren für die Risikoermittlung und -minderung entwickeln, geeignete Verfahren für die Datenverwaltung und -steuerung bei der Schulung, Validierung und Prüfung von Datensätzen anwenden, die menschliche Kontrolle ermöglichen, technische Robustheit und Cybersicherheit gewährleisten sowie eine Dokumentation erstellen, die die Einhaltung des AIA nachweist. (Für eine vollständige Liste der Verpflichtungen siehe Art. 9-17 AIA).
  • Begrenztes Risiko: Beispiele für KI-Systeme mit begrenztem Risiko sind Systeme, die für die Interaktion mit Personen bestimmt sind, z. B. Chatbots und Deep Fakes. Die Compliance-Verpflichtungen für KI mit begrenztem Risiko konzentrieren sich auf die Transparenz: Die Nutzer dieser Systeme müssen eindeutig darüber informiert werden, dass sie mit einem KI-System interagieren.
  • Geringes Risiko: Beispiele für KI mit minimalem Risiko sind Spam-Filter, KI-gestützte Videospiele und Bestandsverwaltungssysteme. Der AIA erlaubt die freie Verwendung von AI mit minimalem Risiko.

Die Risikokategorien schwankten während der Entwurfsstadien des AIA.

Auswirkungen für Modellentwickler und -einrichter

Die Entwickler von KI-Modellen und -Anwendungen sind natürlich sehr besorgt über das Gesetz, da es das Potenzial hat, die Entwicklungs- und Nutzungsprozesse massiv zu beeinflussen. In der Endphase des AIA-Vorschlags ist es wichtig, mögliche Szenarien zu bedenken und darüber nachzudenken, welche Auswirkungen das Gesetz auf verschiedene Gruppen im Bereich der künstlichen Intelligenz haben würde.

Betrachten wir das heißeste KI-Thema des Jahres 2023: Große Sprachmodelle (LLM). Eine Möglichkeit, die Lebensdauer des LLM zu betrachten, besteht darin, es in drei Phasen zu unterteilen (vorgelagert bis nachgelagert):
Entwicklung eines Stiftungsmodells (FM)
,
Feinabstimmung
und
Bereitstellung
. Welche Auswirkungen könnte das AI-Gesetz auf diese Phasen haben?

Entwickler von Stiftungsmodellen sind diejenigen, die die „schwere Arbeit“ machen. Sie entwickeln die Modellarchitektur, sammeln und verarbeiten die enormen Datenmengen, die für das Pre-Training des Modells erforderlich sind, und führen das eigentliche Pre-Training durch, bei dem das Modell den Großteil seiner Fähigkeiten erlernt. Es handelt sich dabei um Organisationen, die mit erheblichen Ressourcen ausgestattet sind, da das Sammeln der Daten und insbesondere das rechenintensive Vortraining kostspielige Aktivitäten sind. Da sich dies am stärksten auf das Modell selbst auswirkt, wird ein FM-Entwickler nach dem derzeitigen Vorschlag in Bezug auf die kumulative Menge der für die Modellschulung verwendeten Rechenleistung reguliert werden. Für ein als „high-impact“ eingestuftes FM (mehr als 10^25 Gleitkommaoperationen während der Ausbildung) würden beispielsweise auch strengere Transparenzanforderungen gelten, was die Offenlegung von urheberrechtlich geschütztem Ausbildungsmaterial betrifft. Dies ist eine enorme Anforderung; die für die Vorschulung erforderliche Datenmenge ist so groß, dass der Erfassungsprozess weitgehend automatisiert ist und somit nur eine minimale Kontrolle über den Stoff selbst besteht. Ein interessantes Detail ist, dass nach der jüngsten Vereinbarung Open-Source-Modelle einer geringeren Regulierung unterliegen werden.

Feinstimmgeräte haben einen geringeren, aber dennoch signifikanten Einfluss auf das Modell. Sie nehmen eine vortrainierte FM und trainieren sie auf einem kleineren, spezielleren Datensatz weiter. In gewisser Weise führen sie die gleichen Manipulationen am Modell durch wie der FM-Entwickler, nur in einem kleineren Maßstab. Es stellt sich die interessante Frage: Wie wird die AIA zwischen ihnen unterscheiden? Gelten für Feinabstimmer die gleichen Anforderungen an die Transparenz in Bezug auf die rechnerischen Auswirkungen wie für FM-Entwickler? In jedem Fall haben es die Feinabstimmer leichter, da sie den Inhalt ihrer Datensätze viel besser kontrollieren können.

Modell-Einsatzkräfte (wenn man sie getrennt von den Feinabstimmern betrachtet) haben keine Auswirkungen auf das LLM selbst. Vielmehr entscheiden sie über den endgültigen Anwendungsfall (auch wenn der Feinabstimmer das Modell möglicherweise bereits für diesen Fall trainiert hat) und kontrollieren, wie das Modell verwendet werden kann. Dies bedeutet, dass sie höchstwahrscheinlich dem Großteil der auf Risikokategorien basierenden Regulierung des AIA unterliegen werden. Die Entwickler bauen auch die Software um das FM herum auf, was sich darauf auswirkt, wie das Modell verwendet werden kann, wie seine Eingaben und Ausgaben verarbeitet werden und wie viel Kontrolle der Endnutzer darüber ausüben kann. Folglich könnten die eher „klassischen“ Fragen der Software- und Informationssicherheit zu einem kritischen Teil der AIA-Konformität werden.

Was nun?

Im Moment müssen wir die endgültigen Texte abwarten, um die Einzelheiten des Gesetzes zu verstehen. In der Zwischenzeit muss jedes Unternehmen, das sich mit KI-Systemen befasst, über die Auswirkungen dessen, was wir jetzt wissen, nachdenken. Die Einsatzkräfte müssen sich bereits jetzt ernsthafte Gedanken über die Risikokategorisierung und die folgenden Anforderungen machen. FM-Entwickler stellen sich auf die zusätzliche Arbeit ein, die mit der Kuratierung großer Mengen von Trainingsdaten verbunden ist, und wägen gleichzeitig die Vorteile von Open- und Closed-Source-Entwicklung neu ab.

Herausforderungen für das Urheberrecht im Zeitalter der KI

Kann das ausschließliche Recht eines Urheberrechtsinhabers, Kopien anzufertigen, KI-Entwickler daran hindern, urheberrechtlich geschützte Werke in Trainingsdaten zu verwenden?

Was hat es mit dem KI-Gesetz auf sich?

In den frühen Morgenstunden des 9. Dezembers haben das Parlament und der Rat der Europäischen Union schließlich eine vorläufige Einigung über den Inhalt des Gesetzes über künstliche Intelligenz (AIA) erzielt. In diesem Blogbeitrag fassen wir die wichtigsten Inhalte des AIA zusammen und erörtern seine möglichen Auswirkungen und offenen Fragen am Beispiel der Entwicklung und des Einsatzes von Large Language Models (LLM).

Vertrauenswürdige Daten für Verantwortung und Nachhaltigkeit

Daten und KI spielen eine entscheidende Rolle, wenn es darum geht, zu beweisen, dass Unternehmen verantwortungsvoll handeln und ihre Umwelt-, Sozial- und Governance-Ziele (ESG) erfüllen.