Mit der wachsenden Verbreitung von KI-Basismodellen treten auch Risiken deutlicher zutage. Da die Modelle aus bestehenden Daten lernen, können sie gesellschaftliche Vorurteile reproduzieren oder verstärken. Zudem besteht die Gefahr, dass sie überzeugend klingende, aber faktisch falsche Inhalte erzeugen. Ihre Größe und Komplexität erschweren es zudem, Entscheidungen vollständig nachzuvollziehen.
Besonders kritisch ist das Missbrauchspotenzial: Basismodelle können zur automatisierten Erstellung von Desinformation, Deepfakes oder manipulativem Content genutzt werden. Diese Risiken sind nicht zwangsläufige Eigenschaften der Technologie, erfordern aber gezielte Gegenmaßnahmen durch Anbieter, Anwender und Gesetzgeber.
KI-Basismodelle im Kontext des EU AI Act
Der EU AI Act ist das erste umfassende Regelwerk weltweit, das den Einsatz von Künstlicher Intelligenz systematisch reguliert. KI-Basismodelle fallen darin unter die Kategorie der General Purpose AI (GPAI), also KI-Systeme mit allgemeinem Verwendungszweck.
Der Gesetzgeber erkennt an, dass diese Modelle nicht per se ein hohes Risiko darstellen, aufgrund ihrer Vielseitigkeit aber in risikoreichen Anwendungen eingesetzt werden können. Daher verpflichtet der AI Act Anbieter von Basismodellen unter anderem zu:
- Transparenz und Dokumentation, etwa zur Funktionsweise und zu bekannten Grenzen der Modelle
- Risikobewertung und -minderung, insbesondere im Hinblick auf Missbrauch und systemische Auswirkungen
- Berücksichtigung urheberrechtlicher Aspekte bei den verwendeten Trainingsdaten
Für besonders leistungsfähige Modelle mit potenziell weitreichenden gesellschaftlichen Effekten gelten zusätzliche Anforderungen.
Auswirkungen auf Unternehmen und Entwickler:innen
Für Unternehmen bedeutet der EU AI Act eine stärkere Verantwortung entlang der gesamten KI-Wertschöpfungskette. Wer KI-Basismodelle einsetzt oder weiterverarbeitet, muss künftig sicherstellen, dass regulatorische Vorgaben eingehalten werden und Risiken angemessen adressiert sind.
Zugleich schafft der AI Act mehr Rechtssicherheit und fördert Vertrauen in KI-Anwendungen. Gerade europäische Anbieter könnten davon profitieren, wenn Transparenz, Datenschutz und Sicherheit zu zentralen Qualitätsmerkmalen werden. Der Gesetzgeber versucht dabei bewusst, Forschung und Open-Source-Entwicklung nicht unnötig einzuschränken.